El Parlamento Europeo ratificó el pasado mes de marzo la Ley de Inteligencia Artificial de la Unión Europea, convirtiéndose en la primera ley vinculante sobre esta tecnología en todo el mundo.
A raíz de aquello, en junio se publicó el Reglamento Europeo de Inteligencia Artificial, que trata de regular sus usos para limitar los posibles riesgos derivados de su utilización.
Como explica el Ministerio de Asuntos Económicos y Transformación Digital, su ámbito de aplicación se extiende a proveedores de sistemas de Inteligencia Artificial que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen; así como a los a usuarios de los mismos, considerando como tales a quienes explotan esos sistemas, no a los afectados.
¿A quién afecta?
El reglamento, que entró en vigor en agosto, contempla distintas categorías de operadores: proveedores, representantes, distribuidores, importadores y responsables de despliegue, como explica la compañía de ciberseguridad Secure&IT
Sin embargo, la mayor parte de entidades y organizaciones que utilizan sistemas o modelos de Inteligencia Artificial no se van a ver directamente afectadas por su entrada en vigor.
El reglamento se centra particularmente en la regulación de los sistemas de alto riesgo, como los relacionados con la salud, la seguridad o los derechos fundamentales. Entre ellos están los sistemas de identificación biométrica, de protección de infraestructuras críticas, de selección y promoción de personal, de utilización en fronteras o los usados por las Fuerzas y Cuerpos de Seguridad del Estado, así como los dispositivos médicos, los trenes o la maquinaria.
“Nos referimos a sistemas Inteligencia Artificial que están destinados a utilizarse como componentes de seguridad o que son sistemas de seguridad por sí mismos. Algunos ejemplos son vehículos a motor, productos sanitarios, aviones civiles, juguetes, embarcaciones de recreo y motos acuáticas, ascensores…”, indica Natalia Patiño, consultora Legal TIC de Secure&IT.
Al hilo de ello, insiste en que resulta imprescindible saber distinguir entre qué es la Inteligencia Artificial y qué no lo es para poder aplicar correctamente el reglamento. “El problema es que el concepto ‘Inteligencia Artificial’ se está utilizando, en algunos casos, sólo como una estrategia de marketing. Hacer referencia a la Inteligencia Artificial como componente de un producto o servicio despierta cierta fascinación y hace más atractiva su comercialización, aunque verdaderamente no incorporen Inteligencia Artificial. Este uso indiscriminado puede dar lugar a una aplicación incorrecta del reglamento, generando así confusión a la hora de determinar qué requisitos y obligaciones legales resultan verdaderamente exigibles en cada caso”, subraya.
Repercusiones del reglamento
La experta hace hincapié en las cuantiosas multas a las que se exponen las empresas e instituciones que incumplan las obligaciones que marca el nuevo reglamento.
“Las organizaciones deben tener en cuenta que, si no se adaptan a la normativa en los plazos previstos, podrían ser gravemente sancionadas con multas que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio total del ejercicio anterior, lo que suponga una mayor cuantía”, especifica.
Y al margen de las multas, la entrada en vigor del nuevo Reglamento Europeo de Inteligencia Artificial tiene otras consecuencias, como la disuasión de algunas empresas de operar en suelo europeo.
Por ejemplo, Secure&IT indica que Apple ha comunicado que la integración de su Inteligencia Artificial, conocida como Apple Intelligence, no se producirá en Europa a corto plazo.
Así pues, aunque Apple Intelligence estará disponible en varios idiomas a lo largo del próximo año, entre los que está el español, esta tecnología no estará operativa en la Unión Europea, debido a la política de Bruselas con respecto a la Inteligencia Artificial.
Otros riesgos de la Inteligencia Artificial
Por otro lado, Secure&IT recuerda que la utilización de la Inteligencia Artificial expone a usuarios y empresas a diversos peligros.
Por ejemplo, hace hincapié en los riesgos relacionados con el uso que el proveedor de la Inteligencia Artificial generativa puede hacer de la información que se proporciona en los prompts, es decir, las entradas con las que hacemos nuestras peticiones, ya que se trata de un entorno no controlado.
En este sentido, remarca que OpenAI, empresa creadora del ChatGPT, reconoció que utilizaba los datos introducidos por los usuarios para reentrenar a sus modelos, pero también para ceder estos datos a posibles terceros.
Asimismo, hay riesgos relacionados con incidentes de seguridad que pueden sufrir los proveedores de Inteligencia Artificial generativa, lo que podría comprometer la información sensible que proporcionamos en los prompts.
De hecho, señala que ChatGPT sufrió un incidente de seguridad en marzo de 2023, que afectó tanto a información confidencial general como a datos de carácter personal, al quedar expuestas conversaciones de usuarios con la herramienta, así como datos de pago de sus suscriptores.
Tampoco debemos olvidarnos de que este tipo de herramientas pueden generar resultados incorrectos, las llamadas ‘alucinaciones’, ya que no están siendo supervisadas de forma activa y continua por seres humanos a la hora de generar respuestas.
De este modo, antes de dar por buena una respuesta, conviene cotejar la información para asegurarnos de que sea correcta.