Inicio Columnas Riesgos de la inteligencia artificial

Riesgos de la inteligencia artificial

Fuente: La tercera

Por: Cristián Leyton Docente del Depto. Político y Gobierno, Universidad Alberto Hurtado.

A 8.786 kilómetros de Santiago, en Montreal, Canadá, fue lanzada, hace unos días atrás, la Declaración de Montreal por un Desarrollo Sustentable de la Inteligencia Artificial (IA). El texto en cuestión, producto y culminación de un extenso y prolijo proceso de diálogo entre ciudadanos, decidores públicos, expertos, representantes industriales, sociedad civil y ordenes profesionales, tiene como objetivo el determinar los fundamentos regulatorios sobre los cuales la IA debería conocer su futuro –y actual- desarrollo. En otras palabras, la Declaración de Montreal busca instaurar lo que debería ser permitido y, no, a la IA, estableciendo, de paso, los riesgos y desafíos de esta pujante industria.

La IA, consiste, adoptando palabras simples, en desarrollar técnicas permitiendo a maquinas imitar a una forma de inteligencia real, humana. Su aspiración es pensar como el humano, más rápido y de manera más lógica.

La IA fue considerada en el último Foro Económico Mundial de Devos como la “4ta Revolución Industrial”, asociándole a la Inteligencia Artificial, la robótica y otras tecnologías numéricas. Una revolución que se traducirá, y comienza ya a traducirse hoy, en la creación de sistemas autónomos capaces de cumplir tareas antes solo reservadas a la inteligencia natural.

Como toda nueva tecnología, la IA trae consigo fortalezas y debilidades, amenazas y riesgos.

En el artículo Concret Problems in IA Safety, documento preparado por especialistas de la Berkley University, Stanford y la OpenAI, se identificaron cinco problemáticas que deben ser resueltas ante el desafío de ver las maquinas asumir un aprendizaje autónomo, en base a sus propias experiencias y su inteligencia artificial. Entre ellas, encontramos dos que llaman poderosamente la atención.

Para una IA, la recompensa ante un logro será central. Esta recompensa corresponderá al logro de un objetivo. Las máquinas de IA podrían trasformar la búsqueda de esta recompensa en un mero juego, absorbiendo la lógica de “el fin justifica los medios”. La IA podría aprender a “hacer trampa”, saltándose etapas o engañando.

La IA posee y poseerá la capacidad intrínseca de “aprender”, experimentando y poniendo a prueba diferentes enfoques a fin de evaluar los resultados y decidir cuál escenario es el más pertinente, eficiente y eficaz, para alcanzar los objetivos propuestos. Lo anterior conlleva a pensar en cuanta “autonomía” se deberá acordar a una máquina de IA. Cuanto margen de decisión –y de error- se asignará a su capacidad de libre albedrio numérico.

Para Alain Bensoussan, especialista francés en IA, “el mundo del mañana es un mundo donde los hombres y los robots deberán aprender a vivir juntos. Estamos en el umbral de una nueva civilización donde los robots no son “menos humanos” o “más objetos”, ni animales, ni niños, es una nueva especie con la cual deberemos habituarnos a convivir”. Esta “convivencia” comienza a materializarse, lenta pero progresivamente en la vida diaria, y es poderosamente más patente en la aplicación y uso militar de la misma.

Para algunos expertos europeos, las Armas Letales Autónomas estarían creando una nueva Revolución Militar, después de la pólvora y la nuclearización del átomo. Es así como en algún momento, sistemas de armas serán capaces de llevar a cabo acciones hostiles de manera completamente autónoma, sin la intervención del hombre.

En un reciente reporte estadounidense desarrollado por el US Army Research Laboratory, Visualizing the Tactical Ground Battlefield in the Year 2050, se identifican los riesgos asociados a la utilización de la IA en los campos de batalla, entre ellos, la capacidad de determinados sistemas de armas para actuar individualmente o colectivamente en misiones de guerra, sin la intervención humana. Las maquinas son llamadas a degradar las capacidades del enemigo designado, o aniquilarlo, sin mediar. Dos grandes problemáticas éticas se instalan. Una es el llamado Principio de distinción, es decir la necesidad de la IA en cuanto a poseer la habilidad para discriminar combatientes de no-combatientes. Segundo, el llamado Principio de proporcionalidad: Daños en infraestructura civil debe ser proporcional con el objetivo militar, limitando los daños colaterales en el cumplimiento de la misión asignada.

La Inteligencia Artificial Militar contará con una capacidad de Adquisición de datos, es decir será capaz de establecer la naturaleza del objetivo bélico por sí misma. Deberá, además, ser capaz de interpretar datos, estableciendo, en forma autónoma, cuales físicamente sus “objetivos” en el campo de batalla. La IA militar será capaz de operacionalizar un proceso de toma de decisión, delimitando y elaborando un plan de acción sin intervención de juicio humano. Finalmente, estará capacitada para ejecutar la acción, estableciendo en forma autónoma los daños colaterales asociados a la acción bélica. La pregunta que surge es ¿Será capaz la Inteligencia Artificial de incorporar, en su procesamiento de datos, las restricciones éticas y morales? ¿Se podrá incorporar en los algoritmos valores éticos? ¿Es ético que la decisión de matar a un ser humano sea confiada a una maquina?