Ley de Inteligencia Artificial: la norma Europea para la regular la IA

La Inteligencia Artificial avanza a pasos agigantados y empieza a plantear problemas para los que aún no existe regulación. Ante esta problemática, las instituciones empiezan a trabajar en la regulación. Así, la Unión Europea ha propuesto un borrador de Reglamento de Inteligencia Artificial para garantizar la seguridad y el respeto de los derechos dentro del marco de la UE (conocido como Ley de Inteligencia Artificial).

Clasificación de los sistemas de IA

En el borrador preparado por la Unión Europea, se establece en primer lugar una clasificación de los sistema de Inteligencia Artificial. Según su riesgo se clasifican:

  • Riesgo limitado. Aquellos sistemas que corran un riesgo limitado estarán sujetos a obligaciones de transparencia, como por ejemplo revelar que el contenido fue generado por Inteligencia Artificial para que los usuarios que puedan utilizarlo tengan ese conocimiento. Por ejemplo el contenido creado con programas como Chat GPT o las imágenes creadas en base a Inteligencia Artificial.
  • Alto riesgo. Se trata de garantizar que no causen violaciones de derechos. Para ello estos programas estarán sujetos a una serie de requisitos y obligaciones específicas antes de que se puedan comercializar.
  • Inaceptable. Se consideran inaceptables aquellos que suponen una amenaza para los derechos de las personas. Por ejemplo, la manipulación cognitiva del comportamiento de las personas, la clasificación en función de puntuación social, estatus socioeconómico, o los sistemas de identificación biométrica en tiempo real y a distancia.

Excepciones

A pesar de la clasificación, se ha estimado oportuno hacer excepciones en la actividad de las autoridades encargadas de hacer cumplir la ley y se relajan las medidas para usos estrictamente policiales. Por ejemplo, se permite la utilización de una herramienta de alto riesgo que no ha pasado los controles precisos en casos de urgencia.

En cuanto al uso de los sistemas de identificación biométrica en tiempo real en espacios públicos, se permite siempre y cuando sea estrictamente necesario para fines policiales. Se limita su uso a situaciones excepcionales como la prevención de ataques terroristas o la búsqueda de sospechosos de delitos graves.

Oficina de la AI

La norma plantea la creación de la Oficina de la AI para supervisar los modelos de IA más avanzados. El objetivo es contribuir a la creación de estándares y hacer cumplir las normas a los estados miembros. Un panel de científicos expertos independientes tendrán la labor de asesoramiento a la Oficina sobre los modelos de IA para contribuir al desarrollo de metodologías para su evaluación. Además, se creará un foro consultivo disponible para las partes interesadas (empresas, pymes, industrias, sociedad civil..) con el fin de proporcionar los conocimientos técnicos a la Junta de la IA.

Multas y penalizaciones

Para velar por el cumplimiento de la Ley se establecen penalizaciones a las empresas infractoras. El importe será un porcentaje de la facturación anual global de la empresa del año anterior. Un 7% en el caso de IA prohibidas, un 3% por violaciones y un 1,5% por aportar información incorrecta. Para pymes y empresas de nueva creación se establecen multas administrativas más proporcionadas. 

Apoyo a la innovación

Con el fin de favorecer la innovación y promover el aprendizaje normativo basado en pruebas,  los entornos de prueba se permitirán también hacer en el mundo real, siempre bajo condiciones específicas. Para favorecer a las empresas más pequeñas, se eliminarán algunas gestiones administrativas.

¿Cuándo entrará en vigor la «Ley de Inteligencia Artificial»?

Tras el acuerdo provisional firmado a finales de 2023, se seguirá trabajando a nivel técnico para formalizar el nuevo reglamento. Se prevé que tras su entrada en vigor, tardará dos años en aplicarse salvo alguna excepción específica.

Deja un comentario