Si tu despacho utiliza ChatGPT, Copilot, Harvey o cualquier otra herramienta de inteligencia artificial, el Reglamento Europeo de Inteligencia Artificial (AI Act) ya te afecta. Y no, no es algo que puedas ignorar hasta 2027.

El AI Act (Reglamento UE 2024/1689) entró en vigor el 1 de agosto de 2024 con un calendario de implementación escalonado. Lo que muchos despachos no saben es que el Artículo 4 — la obligación de garantizar la alfabetización en IA — se aplica desde el 2 de febrero de 2025. Es decir, ya está en vigor.

¿Qué dice exactamente el Artículo 4?

El texto es intencionadamente amplio: los proveedores y usuarios de sistemas de IA deben adoptar medidas para garantizar un nivel suficiente de alfabetización en IA de su personal y de cualquier otra persona que maneje sistemas de IA en su nombre.

¿Qué significa "nivel suficiente"? Depende del contexto. La Comisión Europea publicó en mayo de 2025 un documento de preguntas y respuestas que aclara los criterios, pero la esencia es esta: las personas que usan herramientas de IA en tu organización deben entender qué es la IA, cómo funciona, qué sistemas se utilizan y cuáles son los riesgos y oportunidades asociados.

¿A quién afecta?

A todo el que use IA. No solo a empresas tecnológicas. Si un abogado de tu despacho usa ChatGPT para redactar borradores, o un asesor fiscal usa Copilot para analizar datos, tu despacho es un "usuario" (deployer) de sistemas de IA según la definición del Reglamento.

La Comisión ha confirmado que "otras personas" a las que se refiere el artículo incluye no solo empleados, sino también contratistas, proveedores de servicios e incluso clientes que utilizan sistemas de IA en nombre de la organización. Es una interpretación amplia.

¿Hay sanciones por incumplimiento?

No hay una multa directa específica por no cumplir el Artículo 4. Pero — y esto es importante — la supervisión y aplicación comienza el 2 de agosto de 2026 por parte de las autoridades nacionales de vigilancia del mercado.

En la práctica, la falta de formación en IA se considerará un factor agravante en investigaciones por otras infracciones del AI Act. Si tu despacho utiliza un sistema de IA de alto riesgo y algo sale mal, y la investigación revela que el personal responsable no tenía la formación adecuada, los reguladores usarán esa carencia para justificar sanciones más severas. Hablamos de multas de hasta 15 millones de euros o el 3% de la facturación global.

¿Qué debería hacer mi despacho?

1. Inventaria qué herramientas de IA se usan

Haz un mapeo de todas las herramientas de IA que usa tu equipo: ChatGPT, Copilot, Harvey, herramientas de transcripción, análisis de documentos, chatbots... Incluye tanto las herramientas oficiales como las que los empleados pueden estar usando por su cuenta.

2. Evalúa las necesidades de formación

No todos necesitan el mismo nivel de conocimiento. Un enfoque por capas funciona bien: formación general básica para todo el personal, formación específica por rol para quienes usan IA a diario, y formación técnica para responsables de supervisión.

3. Documéntalo todo

La documentación es clave. Registra qué formación se ha dado, a quién, cuándo y sobre qué. Si algún día un regulador pregunta, necesitas poder demostrar que tomaste medidas razonables.

4. Establece políticas de uso

Define reglas claras: qué herramientas están autorizadas, para qué se pueden usar, qué información no se puede introducir en ellas (datos personales de clientes, por ejemplo) y quién es responsable de supervisar su uso.

5. Revisa periódicamente

La IA evoluciona rápido. Las políticas y la formación que establezcas hoy necesitarán actualizarse. La Comisión Europea ha calificado su guía como "documento vivo" que se actualizará con el tiempo.

El contexto más amplio del AI Act

El Artículo 4 es solo el principio. El calendario completo incluye hitos importantes: desde agosto de 2025 están vigentes las normas de gobernanza y las obligaciones para modelos de IA de propósito general. En agosto de 2026 se aplicarán las reglas de transparencia y los requisitos para sistemas de IA de alto riesgo. Y para agosto de 2027, los proveedores de modelos lanzados antes de agosto de 2025 deben estar plenamente en cumplimiento.

Una oportunidad, no solo una carga

El AI Act no es solo una obligación regulatoria. Los despachos que se adelanten tendrán una ventaja competitiva real: podrán ofrecer a sus clientes la tranquilidad de que trabajan con una firma que entiende y cumple la regulación más avanzada del mundo en materia de IA.

Para los despachos de abogados en particular, esto es doblemente relevante: no solo deben cumplir ellos mismos, sino que sus clientes les van a preguntar cómo cumplir. Estar preparado es ser relevante.