La Comisión Europea el 21 de abril presentó una propuesta para la regulación de la Inteligencia Artificial (en adelante “sistemas IA”) que supondrá el establecimiento de límites que este tipo de tecnología no podrá ni traspasar ni vulnerar.

Con la nueva normativa enfocada a la puesta en marcha del Mercado Único se pretende abordar también el tema de la confianza en estas nuevas tecnologías junto al control de las mismas.

Ámbito de aplicación

Una vez se pase por los procesos de aprobación de los Gobiernos de la UE como de la Eurocámara se aplicará de forma directa a todos los Estados Miembros, tanto a actores públicos como privados (no aplica al uso privado no profesional); simulando así el mismo proceso de aplicación y relevancia que supuso el Reglamento General de Protección de Datos.

El ámbito de aplicación condiciona a los sistemas IA que estén ubicados dentro de la Unión Europea o que su utilización vaya a afectar a los ciudadanos de la UE. Por lo tanto, indistintamente aplicará a usuarios de sistemas IA (como por ejemplo un hospital que compre una herramienta de chatbot) como a proveedores (empresa dedicada al desarrollo de herramientas de reconocimiento facial).

Establecimiento de niveles de riesgo

Las reglas para determinar cuando un sistema de IA será prohibido o quedará sometido a obligaciones se basa en el establecimiento de niveles de riesgo:

  1. Riesgo inaceptable.
  2. Riesgo alto.
  3. Riesgo bajo o mínimo.

Los Sistemas IA que se consideren riesgo inaceptable no podrán operar en la Unión Europea, quedarán prohibidos; en la presente categoría entran los que suponen una manipulación del comportamiento humano (un asistente social para personas mayores que les incite a realizar comportamientos que ponga en riesgo su salud e integridad física) y los sistemas que puntúan socialmente a los ciudadanos (evitar la situación de división social existente en China) ya que supone una coacción a la libertad de estos.

Los Sistemas de riesgo alto pueden operar en la Unión Europea, pero están sometidos al cumplimiento de obligaciones estrictas para poder comercializarse.

En el Anexo II a la propuesta encontramos una lista de Sistemas considerados de alto riesgo (no es una lista cerrada, quedará la ampliación sujeta a los cambios tecnológicos) tales como:

  • Identificación biométrica.
  • Gestión y explotación de infraestructuras críticas.
  • Aquellos que determinen el acceso a centros de enseñanza.
  • Los que evalúen a estudiantes.
  • Contratación de personas físicas.
  • Toma de decisiones de promoción de un trabajador.
  • Otros.

El riesgo bajo o mínimo se compone de los robots conversacionales (a los que se aplica las obligaciones de transparencia mencionadas a continuación) y los filtros de correo basura, entre otros (no se aplica ninguna medida ya que no hay riesgo localizado contra la seguridad de los ciudadanos o sus derechos fundamentales).

Obligaciones para poder salir al mercado

Las obligaciones se componen de procedimiento de evaluación y mitigación de riesgos tales como:

  • Análisis de riesgos.
  • Trazabilidad de resultados.
  • Documentación detallada.
  • Supervisión humana.
  • Alto nivel de robustez.

Dichos deberes no se ciñen exclusivamente a la producción y existencia de la IA sino también para con lo usuarios: Cuando un ciudadano interactúe con un sistema de IA que se emplee para detectar emociones o determinar la asociación con categorías (sociales) biométricos, o generen o manipulen contenidos “deep fakes” deberán estar al tanto de tal situación.

La Comisión considera la transparencia trascendental pues permitirá al usuario de ese Sistema IA decidir si quiere seguir continuando con el uso del mismo tras conocer la realidad o prefiere abstenerse a su empleo.

Reconocimiento facial

Queda prohibido el uso de sistemas de identificación biométrica a distancia “en tiempo real” en espacios de acceso público con fines policiales, a menos y en la medida en que dicho uso sea estrictamente necesario para uno de los siguientes objetivos:

  • La búsqueda específica de posibles víctimas de delitos, incluyendo niños desaparecidos
  • La prevención de una amenaza específica, sustancial e inminente para la vida o la vida o la seguridad física de las personas físicas o de un atentado terrorista
  • La detección, localización, identificación o enjuiciamiento de un autor o sospechoso de un delito

Un Estado miembro puede decidir establecer la posibilidad de autorizar total o parcialmente autorizar el uso de sistemas de identificación biométrica a distancia “en tiempo real” en espacios de acceso público.

Supuestos de no aplicación

No se ha considerado aplicar estas nuevas previsiones al uso militar.

La propuesta no se aplicará a los sistemas de IA que hayan sido comercializados o puestos en servicio antes de que haya transcurrido un año a partir de la fecha de aplicación del presente Reglamento, salvo que la sustitución o modificación de dichos actos jurídicos suponga un cambio significativo en el diseño o la finalidad prevista del sistema o sistemas de sistemas de IA en cuestión.

Sanciones

El reglamento contempla sanciones para las empresas que no cumplan los preceptos legales con hasta el 6% de su facturación anual o 30 millones de euros (dependiendo la empresa y que opción supone una multa más elevada).

El control se llevará a cabo mediante la asignación de los Estados Miembros a las autoridades competentes de la supervisión de la aplicación del reglamento.