Nueva ley europea de inteligencia artificial: ¿cómo te afectará?

nueva ley europea de IA (inteligencia artificial)

En diciembre de 2023, el Consejo y el Parlamento Europeo llegaron a un acuerdo provisional sobre la primera ley de inteligencia artificial en Europa. Esta regulación, conocida como IA Act, se basa en la propuesta de la Comisión Europea de 2021.

Es importante destacar que este reglamento de inteligencia artificial es el primero de su tipo a nivel mundial, lo cual podría convertirlo en un referente global para la regulación de la inteligencia artificial.

Europa, líder mundial en desarrollo ético y responsable de inteligencia artificial

La entrada en vigor de esta nueva legislación tendrá un impacto significativo tanto para particulares como para empresas. Por un lado, los ciudadanos europeos se beneficiarán de una mayor protección sobre el uso de la IA en su día a día. Por otro lado, las empresas tendrán que asegurarse de cumplir con los requisitos regulatorios para evitar sanciones y pérdida de confianza por parte del público.

A medida que la IA sigue teniendo un impacto cada vez mayor en la economía y la sociedad, es crucial garantizar un despliegue seguro, ético y acorde con las normas europeas de derechos humanos y protección al consumidor.

La regulación no solo busca mitigar los riesgos de la IA, como la discriminación algorítmica o la falta de transparencia en las decisiones automatizadas, sino que también busca establecer un equilibrio entre la innovación y la protección de los derechos fundamentales en el desarrollo y uso de la IA.

Con su implementación, se espera que Europa se convierta en líder mundial en el desarrollo ético y responsable de esta tecnología, sentando las bases para una inteligencia artificial confiable y segura a nivel global. Esta ley no solo afectará a particulares y empresas en Europa, sino que también tendrá un impacto en el desarrollo y regulación de la IA en todo el mundo. Es un paso importante hacia un futuro donde la tecnología coexista con los valores humanos fundamentales.

Principales objetivos de la ley europea de inteligencia artificial

La nueva ley establece una serie de objetivos clave que se espera que cumpla la inteligencia artificial en todo el territorio europeo. Algunos de los más relevantes son:

  • Garantizar un alto nivel de protección para los ciudadanos europeos al regular el uso y despliegue de sistemas de IA.
  • Establecer una base ética de la inteligencia artificial sólida que respete los valores fundamentales de la UE, incluyendo la dignidad humana, la privacidad y los derechos humanos.
  • Proporcionar un marco para el desarrollo de IA confiable, transparente y responsable por parte de las empresas europeas.
  • Fomentar el uso correcto y limitado de la IA, evitando su utilización para fines ilegales o nocivos.
  • Reforzar la supervisión humana adecuada y garantizar la trazabilidad y la supervisión en el uso de sistemas de IA.

5 puntos clave de la nueva ley de IA

1. Inteligencia artificial y derechos fundamentales

Uno de los principios clave de la regulación es la protección de los derechos fundamentales en la implementación de sistemas de IA. Esto significa que los sistemas deben ser diseñados para salvaguardar la privacidad, la no discriminación, la equidad y la justicia.

Los ciudadanos europeos tendrán la garantía de un mayor control sobre las decisiones que les afectan, tomadas por sistemas de IA.

2. Inteligencia artificial y empleo

La nueva ley prohíbe el uso de sistemas de IA para fines de vigilancia masiva, lo que incluye la identificación biométrica en lugares públicos con fines policiales o de seguridad.

Esta prohibición también se aplica a los sistemas destinados a evaluar la confiabilidad de los trabajadores o para el control social.

3. Inteligencia artificial en la empresa

La nueva ley establece para las empresas que desarrollan, implementan o utilizan sistemas de IA una serie de obligaciones específicas. Estas incluyen:

  • Transparencia en el desarrollo y despliegue de sistemas
  • Implementación de medidas para garantizar la calidad y seguridad de los sistemas
  • Una evaluación previa al lanzamiento, en determinados casos

La ley también establece que las empresas serán responsables de los daños causados por sus sistemas de IA, incluyendo el pago de indemnizaciones a los afectados. Además, se requiere la supervisión humana en todo momento en caso de sistemas que puedan acarrear riesgos significativos, como en el ámbito de la salud o en la toma de decisiones que afecten a los derechos fundamentales.

El reglamento identifica una serie de sistemas de IA que se consideran de alto riesgo, y que están sujetos a restricciones más estrictas. Estos incluyen sistemas utilizados en vigilancia masiva, sistemas de puntuación social y sistemas de identificación biométrica en espacios públicos.

Quedan exentos de este cumplimiento los sistemas que se utilicen exclusivamente con fines militares o de defensa, los sistemas de IA utilizados con el único fin de investigación e innovación o las personas que utilizan la IA por motivos no profesionales.

4. Inteligencia artificial, derechos de autor y Chat GPT

Otro aspecto abordado por la nueva ley europea de IA es la regulación de los sistemas de inteligencia artificial generativa, como los modelos Chat GPT de OpenAI o Bard de Google. Estos sistemas deben cumplir con criterios de transparencia, que incluyen:

  • Identificar si un texto, canción o fotografía ha sido generado mediante inteligencia artificial.
  • Garantizar y respetar los derechos de autor.
  • En aquellos modelos tipificados como de alto riesgo, exigir a los desarrolladores que cumplan con salvaguardias más estrictas antes de ponerlos en el mercado. 

5. Inteligencia artificial en la administración pública

Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica en espacios públicos para garantizar la seguridad nacional.

  • Las cámaras se podrán utilizar con previa autorización judicial para prevenir una amenaza terrorista "genuina y previsible" o "genuina y presente", es decir que se esté produciendo en ese momento.
  • También se podrán emplear para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo un crimen medioambiental y para buscar a las víctimas de estos delitos.

¿Cuándo entrará en vigor la ley europea de inteligencia artificial y cuáles serán las multas por incumplirla?

Se espera que la ley entre en vigor en 2026, pero se aplicará de forma faseada durante 12 meses. Las multas por incumplimiento pueden ser significativas, llegando al 7% de la facturación anual de una empresa o a multas de hasta 35 millones de euros para casos particulares.