Actualidad

Limitar a la IA: los cuatro niveles de riesgo que impondrá la Unión Europea

Compartir
La de la Inteligencia Artificial (IA) es la tercera ola de la digitalización y se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20% para 2030. Pero, mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes. Es decir, puede incrementar el bienestar humano o causarle daño.
LMN

Ahora sí hay prisa, después de que muchos expertos, desde 2021, después de que en abril de ese año la CE presentara su propuesta para que una ley  y Bruselas quiere aprobar ya su Ley de Inteligencia Artificial. Debería ser votada en sesión plenaria en abril en el Parlamento Europeo, como decimos, dos años después de su presentación por la CE.

Hasta 2025

El comisario europeo de Industria y Mercado Interior, Thierry Breton, espera que el Europarlamento vote y apruebe este mismo mes la propuesta de regulación, para que así pueda ser adoptada lo antes posible. En realidad, el calendario dice que se votará en mayo. Si todo avanza, el reglamento podría entrar en vigor en 2025 ya que se aplica directamente a los Veintisiete, sin necesidad de trasponerlo.

Las nuevas normas sobre inteligencia artificial tendrán como objetivo abordar las preocupaciones sobre los riesgos de ChatGPT y garantizar que los europeos puedan confiar en esta tecnología de inteligencia artificial. Según el comisario, los riesgos planteados por ChatGPT subrayan la necesidad urgente de normas sobre IA.

«Como demuestra ChatGPT, las soluciones de IA pueden ofrecer grandes oportunidades para las empresas y los ciudadanos, pero también pueden plantear riesgos. Por eso necesitamos un marco regulador sólido que garantice una IA fiable basada en datos de alta calidad», dijo el comisionado a Reuters en febrero.

Los cuatro riesgos de las IA

Los europeos serían así «los primeros« en contar con una legislación específica para el problema de la IA. La propuesta de reglamento que deberán votar los europarlamentarios presenta cuatro niveles de protección: «lo que está prohibido, lo que es de alto riesgo, lo que es de riesgo medio y lo que está autorizado», en palabras de Breton.

Prohibidos

Serán inaceptables, es decir, totalmente contrarios a los derechos fundamentales de la Unión Europea. Se han identificado cuatro sistemas principales que estarán prohibidos:

Explotación de personas vulnerables. Se prohibirían los sistemas de IA que exploten «posibles vulnerabilidades debidas a la edad o a la discapacidad física o mental de un grupo de personas».

Identificación biométrica a distanciaEste tipo de sistemas destinados a zonas de acceso público con fines policiales estarían prohibidos, con excepciones.

Sistemas de puntuación social. También estará prohibido comercializar, encargar o utilizar, por las autoridades públicas o en su nombre, sistemas de IA destinados a evaluar o establecer una clasificación de la fiabilidad de las personas físicas y que den lugar a un «trato perjudicial o desfavorable». Es decir, lo que hace China para el control de la población.

Técnicas subliminales. Esta categoría incluye los sistemas de IA que utilizan técnicas subliminales que podrían resultar perjudiciales para la salud física o psicológica de las personas.

Riesgo alto

Se refiere a los sistemas que tendrán que ser evaluados por las agencias nacionales antes de poder ser implantados. Se refiere a los algoritmos utilizados por algunas aplicaciones médicas o las de escaneo de CV dirigidas a la evaluación de los solicitantes de una oferta de empleo. Según la propuesta de Bruselas, deberán estar sujetas a determinados requisitos legales.

Riesgo medio

Esta categoría incluye las IA con obligaciones específicas de transparencia. En este caso, no habría evaluación previa, «el operador podría poner en marcha su sistema directamente, pero tiene una obligación de transparencia, tiene que explicar cómo funciona el sistema», ha aclarado en Radio France la doctora en Derecho Nathalie Devillier, experta de la Comisión Europea en temas de IA.

Riesgo mínimo

Será los sistemas autorizados. Todos los objetos cotidianos conectados en el hogar, como lavadoras, frigoríficos o relojes conectados, no requerirían ninguna autorización específica ni transparencia.

Etiqueta a la IA

Bruselas pretende que los contenidos generados a través de IA lleven una advertencia específica, una especie de etiqueta. «En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial», aclaró Thierry Breton.

Esa «etiqueta» se aplicaría tanto para la categoría de riesgo alto, la de obligaciones específicas de transparencia y para los deep fake (tecnologías que permiten editar vídeos o fotos falsos de personas que parecen reales). Estas herramientas deberán decirle al usuario que está interactuando con un algoritmo o sistema de IA.

Habrá más seguridad, pero más restricciones. Esto último preocupa a la industria. Que una herramienta quede clasificada como de «alto riesgo» conduciría a requisitos más estrictos y costes más altos, explica. Una encuesta reciente sugería que el 51% de los desarrolladores espera una desaceleración de sus actividades como resultado de la nueva Ley de IA de la UE.

La Unión Europea también tiene previsto invertir 10.000 millones de euros de su presupuesto en IA entre 2014 y 2027. Además, su plan de IA 2021 aspira a gastar 20.000 millones de euros al año durante diez años, en inversión pública y privada.