Ley de Inteligencia Artificial en La Unión Europea

Inteligencia-Artificial-2023-scaled.jpeg

Futuristic 5g wireless network, AI robot hand tap on wifi icon

Por Ramón Heredia y Roberto Pérez

La Inteligencia Artificial es una tecnología disruptiva que veremos cada vez más presente en nuestras empresas. Me preguntan constantemente si esta es una moda como el Metaverso o si es solo un nuevo «cuento» de los consultores para vender servicios. Mis respuestas ambas preguntas, son que el Metaverso y la Inteligencia Artificial son tecnologías que avanzan paso a paso, junto a otros componentes que permitirán el desarrollo de la Web3. Veremos cada año, nuevas soluciones que nos sorprenderán, que se irán haciendo cada día parte de nuestras vidas hasta que no las notemos, hasta que se hagan parte del paisaje y que pasen a ser algo natural, como abrir una llave y que podamos tomar agua potable o apretemos un interruptor y se prenda una ampolleta. Para que estas dos «magias» ocurran, se han tenido que desarrollar una serie de tecnologías «invisibles» gracias a las cuales aclaramos la oscuridad o saciamos nuestra sed en la comodidad de nuestros hogares.

Como parte de este camino y siguiendo nuestra pasión de estar atentos a los bordes del conocimiento, es que continuamos con la tarea de glosar (un poco a nuestra manera, llevándolo a  entendimiento latinoamericano, que suele regirse por parámetros diferentes a los de la Comunidad Europea) la flamante reglamentación de la Ley de Inteligencia Artificial, que regirá en aquel territorio.

Comencemos esta segunda entrega diciendo que los redactores del Parlamento Europeo fueron especialmente cuidadosos en resguardar el complejo entramado ya existente relativo a derechos varios, que no van a alterarse. Y eso  incluyó a  los tratados internacionales con entidades públicas y privadas extra-comunitarias.

Lo que la ley y su reglamentación NO hacen

“En consecuencia, permanecen inalterados y siguen siendo plenamente aplicables todos los derechos y vías de recurso que el citado Derecho de la Unión otorga a los consumidores y demás personas que puedan verse afectados negativamente por los sistemas de IA, en particular en lo que respecta a la reparación de los posibles daños, de conformidad con la Directiva 85/374/CEE del Consejo”.

“El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluidos el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas de relaciones laborales específicos de los Estados miembros y el derecho a negociar, concluir y hacer cumplir convenios colectivos o a llevar a cabo acciones colectivas conforme a la legislación nacional”.

Este párrafo nos llama especialmente la atención, toda vez, que el derecho a huelga de los Estados miembros es ejercido por personas y para el sistema capitalista que busca maximizar la utilidad de las empresas, estas personas serán un costo cada vez mayor, el que será un blanco prioritario para las empresas privadas que utilizando las nuevas tecnologías de Inteligencia Artificial y Automatización de Procesos, reemplazarán a personas por algoritmos y procesos digitales.

Los sindicatos podrían crear áreas especiales en sus organizaciones que se encarguen de analizar qué tareas de sus asociados son ChatGPTeables y crear planes de capacitación para ellos, planes que permitan la conversión temprana de esas fuerzas laborales y no dejar que la única posibilidad de defensa sean las huelgas en contra de una marea cada vez más inevitable.

“El presente Reglamento no debe afectar a la legislación laboral nacional ni a la legislación en materia de protección de menores (a saber, de personas de menos de 18 años) que tienen en cuenta la Observación general Nº 25 (2021) de las Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital, en la medida en que no son específicas a los sistemas de IA y persiguen otros objetivos legítimos de interés público”.

“No obstante, con el objetivo de tener en cuenta los acuerdos existentes y las necesidades especiales de cooperación futura con socios extranjeros con los que se intercambian información y pruebas, el presente Reglamento no debe aplicarse a las autoridades públicas de un tercer país ni a organizaciones internacionales cuando actúen en el marco de acuerdos internacionales o de cooperación celebrados a escala nacional o de la Unión con fines de cooperación policial y judicial con la Unión o sus Estados miembros, si el tercer país o las organizaciones internacionales correspondientes ofrecen garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas”.

“En caso de que, y en la medida en que, los sistemas de IA se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificación, con fines militares, de defensa o de seguridad nacional, deben excluirse del ámbito de aplicación del presente Reglamento, independientemente del tipo de entidad que lleve a cabo esas actividades, por ejemplo, con independencia de que se trate de una entidad pública o de una entidad privada”.

Definiciones claras

El texto de la Ley introduce el interesante concepto de “Responsable de despliegue”. El reglamento nos indica a que se refiere exactamente. Es fundamental, pues se trata nada menos que de los operadores de estos sistemas de IA.

“El concepto de ‘responsable del despliegue’ al que hace referencia debe interpretarse como cualquier persona física o  jurídica, incluida cualquier autoridad, órgano u organismo de otra índole públicos, que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional. Dependiendo del tipo de sistema de IA, el uso del sistema puede afectar a personas distintas del responsable del despliegue”.

Otro de los aspectos más destacables de la Ley de IA, que el reglamento detalla minuciosamente, es el concepto de “riesgo”. Así, esta legislación organiza los sistemas de IA clasificándolos en tres categorías, según el nivel de potencial conflicto asociado:

  1. Alto Riesgo: Estos sistemas tienen el potencial de causar daños significativos o afectar derechos fundamentales. Por ejemplo: Transporte: Vehículos autónomos y sistemas de control de tráfico aéreo. Productos médicos: Sistemas de diagnóstico médico basados en IA. Educación y empleo: Herramientas de selección de personal y evaluación de exámenes. Aplicación de la ley: Sistemas de vigilancia y análisis de datos. Infraestructura crítica: Sistemas de energía y suministro de agua.
  2. Riesgo Limitado: Estos sistemas presentan menos riesgo, pero requieren supervisión de una autoridad competente. Entre otros: Chatbots y asistentes virtuales: No serán críticos, pero pueden afectar la privacidad y la seguridad. Juguetes inteligentes: Porque interactúan con niños y deben cumplir ciertos estándares.
  3. Bajo Riesgo: Estos sistemas tienen un riesgo mínimo y no están sujetos a regulación específica. Ejemplos: Aplicaciones de redes sociales: Aunque influyen en la vida cotidiana, no representan un peligro mortal.

Toda la regulación se centra en obtener la máxima transparencia, la documentación precisa, la mejor evaluación de riesgos y la supervisión continua para garantizar un uso seguro y ético de la IA en Europa.

Del mismo modo, se establece que “El Comité Europeo de Inteligencia debe apoyar a la Comisión para promover las herramientas de alfabetización en materia de inteligencia artificial, la sensibilización pública y la comprensión de los beneficios, los riesgos, las salvaguardias, los derechos y las obligaciones en relación con el uso de sistemas de IA. En cooperación con las partes interesadas pertinentes, la Comisión y los Estados miembros deben facilitar la elaboración de códigos de conducta voluntarios para promover la alfabetización en materia de inteligencia artificial entre las personas que se ocupan del desarrollo, el manejo y el uso de la IA.

Vemos que regresa el notable concepto de “Educación EN IA”. Es decir, que ya no hablamos de “Educación digital”, y ni siquiera de “Educación con IA”. Esto es un paso adelante: Se trata de educar EN la IA y su utilización segura y responsable.

El reglamento, aprobado por una amplísima mayoría de 523 votos a favor, 46 en contra, y 49 abstenciones, no podrá ser aplicado de modo retroactivo, ni para impedir desarrollos, si obviamente no afectan la seguridad pública, los derechos consagrados ni la libertad económica:

El presente Reglamento debe apoyar la innovación, respetar la libertad de ciencia y no socavar la actividad de investigación y desarrollo. Por consiguiente, es necesario excluir de su ámbito de aplicación los sistemas y modelos de IA desarrollados específicamente y puestos en servicio únicamente con fines de investigación y desarrollo científicos. Además, es necesario garantizar que el presente Reglamento no afecte de otro modo a la actividad de investigación y desarrollo científicos sobre sistemas o modelos de IA antes de su introducción en el mercado o su puesta en servicio. Por lo que se refiere a la actividad de investigación, prueba y desarrollo orientada a productos en relación con sistemas o modelos de IA, las disposiciones del presente Reglamento tampoco deben aplicarse antes de que dichos sistemas y modelos se pongan en servicio o se introduzcan en el mercado”.

Los siete mandamientos

Como ya hemos dicho, en el texto que comentamos hay varias muestras de lo que, cuanto menos, podría llamarse “voluntarismo”: “El Grupo de Expertos desarrolló siete principios éticos no vinculantes para la IA que tienen por objeto contribuir a garantizar la fiabilidad y el fundamento ético de la IA. Los siete principios son:

· Acción y supervisión humanas;

· Solidez técnica y seguridad;

· Gestión de la privacidad y de los datos;

· Transparencia;

· Diversidad, no discriminación y equidad;

· Bienestar social y ambiental;

· Rendición de cuentas.

Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otro acto aplicable del Derecho de la Unión, esas directrices contribuyen al diseño de una IA coherente, fiable y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión”.

Luego sigue una larga e igualmente “poética” descripción de cada punto, para concluir en que “…La aplicación de estos principios debe traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en virtud del presente Reglamento. Se anima a todas las partes interesadas, incluidos la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a que tengan en cuenta, según proceda, los principios éticos para el desarrollo de normas y mejores prácticas voluntarias”. Vemos que se matiza bastante un cierto carácter imperativo de la norma, para admitir que no podrán imponer todo, y hay aspectos en los que solo podrán hacer sugerencias más o menos enfáticas.

Termina con una nueva obviedad bien intencionada: “Al margen de los múltiples usos beneficiosos de la IA, dicha tecnología también puede utilizarse indebidamente y proporcionar nuevas y poderosas herramientas para llevar a cabo prácticas de manipulación, explotación y control social. Dichas prácticas son sumamente perjudiciales e incorrectas, y deben estar prohibidas…”.

Curándose en salud

Tal vez advertidos por lo que sucede en China, y no deseándolo para la EU (o implorando para que no suceda) los redactores de la Ley y su reglamento proscriben los sistemas de “clasificación social”, esos que otorgan un puntaje a cada individuo, según su comportamiento.

“Los sistemas de IA que permiten a agentes públicos o privados llevar a cabo una puntuación ciudadana de las personas físicas pueden tener resultados discriminatorios y abocar a la exclusión a determinados grupos. Pueden menoscabar el derecho a la dignidad y a la no discriminación y los valores de igualdad y justicia (…) Por lo tanto, deben prohibirse los sistemas de IA que impliquen esas prácticas inaceptables de puntuación y den lugar a esos resultados perjudiciales o desfavorables. Esta prohibición no debe afectar a las prácticas legales de evaluación de las personas físicas que se efectúen para un fin específico de conformidad con el Derecho nacional y de la Unión. ¿Se trata de un reconocimiento tácito de que el Parlamento no podría evitar algo así?

Se previenen también contra las imprecisiones técnicas de los sistemas de IA destinados a la identificación biométrica remota de las personas físicas, porque, afirman, podrían producir resultados sesgados, con un efecto discriminatorio, en especial sobre lo que respecta a la edad, la etnia, la raza, el sexo o la discapacidad.

Todo esto es un llamado de atención para Latinoamérica. Tenemos la oportunidad de ver como en nuestros países estos temas aún no están en las prioridades de nuestros gobiernos y son temas de una importancia fundamental. El manejo de la información, la automatización de las conversaciones, la manipulación de las personas mediante los datos son temas del presente que deben ser analizados ahora en nuestros países. La combinación de datos sin control, capacidad de cómputo en la nube que cualquiera puede contratar y herramientas de Inteligencia Artificial como servicio, son una mezcla que pone en manos de cualquiera un poder que nunca un humano había tenido. Es urgente educar y entender la era en la que estamos viviendo y las implicancias e impactos de estas nuevas tecnologías.

Lo mas seguro es que mi opinión ya no sea mi opinión, lo mas seguro es que esté contaminado por la tribu en la que vivo, una tribu que ha sido hackeada en su sistema operativo más básico, nuestro lenguaje, nuestra palabra.

(Fuentes: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_ES.pdfhttps://artificialintelligenceact.eu/es/ai-act-explorer/)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

scroll to top