La Primera Ley sobre Inteligencia Artificial (IA) Europea Entra en Vigor
La Ley de Inteligencia Artificial (IA) Europea entrará en vigor el 1 de agosto de 2024 y marca un hito en la regulación de la inteligencia artificial (IA) . Publicada en el Diario Oficial de la Unión Europea en junio pasado, esta normativa pionera a nivel mundial es el resultado de años de negociación entre los 27 Estados Miembros. A continuación, desglosamos los cambios obligatorios y el calendario de implementación previsto.
Niveles de Riesgo en la Ley de IA: De Mínimo a Inaceptable
La normativa establece diferentes niveles de riesgo para los sistemas de inteligencia artificial (IA), que van desde el «mínimo» hasta el «inaceptable».
Riesgo Mínimo
En la categoría de riesgo mínimo se encuentran la mayoría de los sistemas de IA, como los sistemas de recomendación basados en esta tecnología y los filtros de correo no deseado.
«Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales», detalla la Comisión Europea.
Riesgo Específico de Transparencia
A continuación, se encuentran los sistemas con «riesgo específico de transparencia», que incluyen, por ejemplo, los chatbots. Estos deberán revelar claramente a los usuarios que están interactuando con una máquina.
«Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente», destaca la Comisión Europea.
Alto Riesgo
Los sistemas de inteligencia artificial considerados de «alto riesgo» estarán obligados a cumplir requisitos estrictos, como la alta calidad de sus conjuntos de datos, el registro de la actividad, la documentación detallada, información clara para el usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.
Entre los sistemas de IA de alto riesgo se incluyen, por ejemplo, los utilizados para la contratación de personal o para evaluar la elegibilidad de préstamos, entre otras aplicaciones.
Riesgo Inaceptable
La IA de «riesgo inaceptable» —que estará prohibida— es aquella que se considere una clara amenaza para los derechos fundamentales de las personas.
«Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal para fomentar comportamientos peligrosos en los menores, los sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y determinadas aplicaciones de la actuación policial predictiva«, ha indicado la Comisión Europea.
También estarán prohibidos algunos usos de sistemas biométricos, como los de reconocimiento de emociones en el lugar de trabajo y ciertos sistemas para categorizar personas o la identificación biométrica remota en tiempo real con fines policiales en espacios públicos, salvo limitadas excepciones.
Implementación Progresiva De La Ley de Inteligencia Artificial (IA) Europea
La ‘AI Act‘ ya está en marcha, pero su cumplimiento total no será exigido hasta dentro de 24 meses, es decir, en agosto de 2026. La Unión Europea ha planificado una implementación progresiva de las obligaciones:
– Desde el 2 de febrero de 2025 hasta 6 meses después:
Deberán cumplirse las disposiciones generales y las prohibiciones de riesgo inaceptable.
– Desde el 2 de mayo de 2025 hasta 9 meses después:
Los códigos de buenas prácticas serán obligatorios.
– Desde el 2 de agosto de 2025 hasta 12 meses después:
Las normas generales deberán cumplirse y los países habrán actualizado sus leyes en relación a sanciones y multas, preparando el terreno para multar a las empresas no conformes.
Para los sistemas de IA de «alto riesgo», se concede un margen mayor de 36 meses, con la fecha límite en agosto de 2027 para cumplir con todas las obligaciones y documentar su funcionamiento de manera transparente.
Reacciones y Desafíos de la Ley de Inteligencia Artificial (IA) Europea
Empresas como Meta han decidido no introducir sus sistemas en Europa por precaución, a pesar de que aún no están obligadas a cumplir con todas las exigencias. La definición de «alto riesgo» es compleja y crucial, ya que se refiere a sistemas que pueden tener un impacto considerable en la salud, seguridad y derechos fundamentales de las personas. Esta categoría incluye sistemas que afectan sectores críticos como la educación, procesos democráticos y seguridad.
Uno de los puntos controvertidos es la exclusión de los sistemas de videovigilancia masiva de la categoría de alto riesgo, aunque se permiten ciertos usos de identificación biométrica, como el control fronterizo.
Impacto y Sanciones De La Ley de Inteligencia Artificial (IA) Europea
La AI Act impone sanciones de hasta el 7% de la facturación anual mundial de las empresas que no cumplan con la normativa, comparado con el 10% de la Ley de Mercados Digitales y el 6% de la Ley de Servicios Digitales. Estas multas son gestionadas por la Oficina Europea de Inteligencia Artificial, que también se encargará de velar por el cumplimiento de la ley, elaborar informes, actualizar requisitos y apoyar a las empresas en su adaptación.
La Ley de IA europea representa un paso crucial hacia la regulación y supervisión de la inteligencia artificial, garantizando su desarrollo y aplicación de manera ética y segura para todos. Es importante mantenerte informado y preparado para adaptar tu empresa a este nuevo marco legal.
Si necesitas ayuda en este campo, contacta con nosotras: