⏱️ Tiempo de lectura: 5–6 min – 900 palabras aprox.
Por qué te interesa (aunque “solo uses ChatGPT de vez en cuando”)
Imagina una inspección o una reclamación interna. Un empleado ha utilizado IA para cribar CV automáticamente y un candidato denuncia discriminación. La autoridad competente solicita tu política de uso de IA y la formación impartida al personal.
Si no puedes demostrar que tu equipo tiene conocimientos básicos sobre riesgos y uso responsable de la IA, puedes estar incumpliendo el AI Act.
La alfabetización en IA ya no es una recomendación: es una obligación legal europea.
Aquí va lo esencial: a quién obliga, qué exige y qué riesgos implica.
¿A quién obliga exactamente?
A cualquier organización que:
- Desarrolle sistemas de inteligencia artificial.
- Utilice herramientas de IA en sus procesos internos.
- Implante sistemas de IA en RRHH, marketing, atención al cliente, pricing, análisis de datos, etc.
Ejemplos habituales:
- Empresas que usan ChatGPT, Copilot o herramientas similares.
- Departamentos de RRHH que emplean IA para selección o evaluación.
- Hoteles con sistemas de pricing dinámico.
- Plataformas de formación con algoritmos de personalización.
No importa el tamaño de la organización. Si actúas como proveedor o responsable del despliegue de sistemas de IA en tu actividad profesional, la obligación puede resultarte aplicable.
Qué dice la ley
Artículo 4:
“Los proveedores y los responsables del despliegue de sistemas de IA adoptarán medidas para garantizar, en la mayor medida posible, que su personal y otras personas que operen y utilicen sistemas de IA en su nombre tengan un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta sus conocimientos técnicos, experiencia, educación y formación, así como el contexto en el que se utilicen los sistemas de IA y las personas o los grupos de personas en los que se vayan a utilizar.”
El artículo 4 establece que los proveedores y usuarios de sistemas de IA deben garantizar un nivel suficiente de alfabetización en IA de su personal, teniendo en cuenta:
- Sus conocimientos técnicos.
- Su experiencia.
- El contexto en el que se utiliza la IA.
- Los riesgos asociados al sistema.
Considerandos del reglamento:
“A fin de garantizar un uso adecuado de los sistemas de IA, los proveedores y responsables del despliegue deben garantizar un nivel suficiente de alfabetización en materia de IA de su personal y de otras personas que operen y utilicen sistemas de IA en su nombre.”
Al tratarse de un reglamento europeo, es de aplicación directa en España (no necesita ley nacional de transposición).
Pero… ¿qué significa «alfabetización en materia de IA» o «AI literacy»?
Artículo 3, punto 56
“«alfabetización en materia de IA»: las capacidades, los conocimientos y la comprensión que permiten a los proveedores, responsables del despliegue y personas afectadas realizar un despliegue informado de sistemas de IA, así como sensibilizar sobre las oportunidades y los riesgos de la IA y los posibles perjuicios que pueda causar.”
El Reglamento no establece un número mínimo de horas ni una formación reglada específica, pero sí exige que el nivel de alfabetización sea suficiente y adecuado al contexto de uso.
- Qué es y qué no es la inteligencia artificial.
- Qué riesgos existen (sesgos, errores, alucinaciones, impacto en derechos fundamentales).
- Qué límites tiene el tratamiento de datos.
- Que siempre debe existir supervisión humana.
- Cómo usar la IA de forma responsable y conforme al RGPD.
Dado que el Reglamento exige que la alfabetización sea adecuada al contexto de uso, el nivel de formación exigible será previsiblemente mayor cuando el sistema esté clasificado como de alto riesgo conforme al propio Reglamento.
Riesgos por incumplir y plazos de aplicación
El Reglamento (UE) 2024/1689 establece un régimen sancionador específico en sus artículos 99 y siguientes, con multas administrativas en función del tipo de infracción y del nivel de riesgo del sistema.
Sanciones máximas previstas (art. 99)
| Tipo de incumplimiento | Posibles sanciones |
|---|---|
| Uso de prácticas de IA prohibidas (art. 5) | Hasta 35.000.000 € o el 7 % del volumen de negocio mundial anual |
| Incumplimiento de otras obligaciones del Reglamento | Hasta 15.000.000 € o el 3 % |
| Suministro de información incorrecta, incompleta o engañosa a las autoridades | Hasta 7.500.000 € o el 1 % |
(Importes recogidos en el artículo 99 del Reglamento (UE) 2024/1689).
Además del impacto económico, el riesgo reputacional, contractual y laboral puede ser significativo.
Plazos de aplicación
El propio Reglamento establece en su artículo 113 (Aplicación) el calendario progresivo de entrada en aplicación.
De forma resumida:
-
1 de agosto de 2024 → Entrada en vigor del Reglamento.
-
2 de febrero de 2025 → Aplicación de:
-
Las prácticas de IA prohibidas.
-
La obligación de alfabetización en IA (artículo 4).
-
-
2 de agosto de 2026 → A partir del 2 de agosto de 2026 se aplican plenamente las obligaciones técnicas y de cumplimiento para sistemas de IA de alto riesgo, incluidas exigencias de documentación, evaluación de conformidad, supervisión humana y la aplicación general del Reglamento, incluidas las obligaciones técnicas relativas a sistemas de alto riesgo y el régimen sancionador previsto en los artículos 99 y siguientes. (art. 113 del Reglamento (UE) 2024/1689).
Calendario completo: artículo 113 del Reglamento (UE) 2024/1689.
Cómo cumplir con la obligación de AI literacy
El artículo 4 no impone un formato concreto de formación, pero sí exige que la organización adopte medidas reales y proporcionadas al uso que haga de la IA.
En la práctica, esto suele implicar:
- Formación básica en uso responsable de IA para toda la plantilla.
- Formación específica para departamentos que utilicen IA en procesos sensibles (RRHH, finanzas, atención al cliente).
- Definición de una política interna de uso de herramientas de IA.
- Designación de responsables de supervisión.
Si tu empresa ya utiliza herramientas como ChatGPT, Copilot u otros sistemas de IA en procesos internos, conviene revisar si el nivel de alfabetización actual es suficiente conforme al Reglamento.
Preguntas frecuentes
¿Es obligatorio hacer un curso?
La norma no fija horas mínimas, pero sí exige que puedas demostrar que tu personal tiene formación adecuada al nivel de uso.
¿Afecta si solo usamos ChatGPT de forma puntual?
Sí. La obligación es proporcional al uso, pero existe igualmente.
¿Desde cuándo es exigible?
El reglamento ya está en vigor. La aplicación completa se despliega progresivamente hasta 2026.
¿Qué me podrían pedir en una inspección?
En caso de supervisión por la autoridad competente, la organización deberá poder acreditar las medidas adoptadas para cumplir con el artículo 4 del Reglamento.
- Documentación interna.
- Evidencias de formación.
- Procedimientos de supervisión.
Próximo paso
Si en tu empresa se utilizan herramientas de inteligencia artificial —aunque sea de forma básica— conviene:
- Evaluar qué sistemas de IA se están usando.
- Clasificar el nivel de riesgo.
- Formar al personal de manera adecuada.
- Implantar una política interna de uso responsable.
¿Dudas o casos especiales?
Escríbenos a info@modusconsulting.es o llámanos. Un consultor responderá en menos de 48 h.
En Modus Consulting acompañamos a las empresas a crecer.
