Andrés Ortega: Los riesgos de descontrol de la IA

Compartir

 

Mientras la UE se ufanaba de su nueva regulación de la Inteligencia Artificial (IA), con aspiraciones globales, un grupo de expertos occidentales y chinos de primera línea se reunía en Pekín para identificar “líneas rojas”, civiles y militares, ante los riesgos existenciales que plantea el desarrollo incontrolado de esta tecnología o ámbito tecnológico. Está claro que solo se podrá limitar y controlar si se hace a nivel global, con acuerdos concretos y verificables, no con meras declaraciones generales como hasta ahora, por ejemplo en el G20. Ahora bien, no está demostrado hoy por hoy que se pueda. Y mientras algunos piden avanzar en el ámbito regulatorio, el brazo de innovación del Pentágono, la DARPA, solicitaba más dinero, más del doble que el año pasado, para lograr una simbiosis entre humanos y máquinas, una IA que razone e IAs altamente autónomas –es decir, que puedan decidir sin mediar humanos–, eso sí acordes con los principios éticos del Departamento de Defensa. Chinos y otros están inmersos en programas parecidos.

La reunión de Pekín, la segunda convocatoria del Diálogo Internacional sobre la Seguridad en IA, pero la primera en China, terminó con un comunicado que recoge la necesidad de un enfoque conjunto de la seguridad de la IA para detener “los riesgos catastróficos o incluso existenciales para la humanidad” con que nos podemos encontrar “en el plazo de nuestras vidas”. De hecho, es lo que buscó, sin mucho éxito, la cumbre global convocada en Londres en noviembre pasado. A pesar de las tensiones entre Occidente (especialmente EEUU) y China por asegurarse cada uno la crucial primacía en IA, por detrás diversos científicos y tecnológos hablan entre sí.

Por una parte, está el desarrollo de la IA como tal, especialmente si llega a lo que se llama una Inteligencia Artificial General que supere a la humana en prácticamente todos los campos.  En segundo lugar, hay el problema, o reto, de la aplicación de la IA al campo militar ya sea para mejorar las armas o para hacerlas autónomas, los vulgarmente llamados “robots asesinos” que algunos movimientos intentan prohibir. Para controlarlo, no solo en materia militar sino también civil-existencial, se trataría de llegar a un régimen de acuerdos de control de la IA como los que en la Guerra Fría y la distensión entre EEUU y la Unión Soviética llevaron a toda una panoplia de tratados –hoy en su mayor parte denunciados por unos u otros– para evitar una guerra nuclear. De hecho, es lo que proponían Henry Kissinger (fallecido con 100 años en noviembre pasado y uno de los artífices de aquel control de armamentos), Eric Schmidt y Daniel Huttenlocher en su libro La era de la Inteligencia Artificial y nuestro futuro humano (edición española de 2023).

Pero las realidades no aguardan a los reguladores. La IA generativa, un paso más al que seguirán otros, se ha adelantado. En el terreno militar, ya hay drones de todo tipo guiados por IA. Aunque algunos movimientos intentan frenarla, la siguiente generación de vehículos de combate no tripulados se ha exhibido en una reciente demostración en California para altos mandos militares estadounidense. Junto con drones aéreos y diversos dispositivos de realidad aumentada, se mostró un perro robótico, llamado Ghost, y vehículos autónomos con armas automáticas, destinados al combate urbano, el más peligroso para soldados humanos.

¿Será más rápida la carrera o los avances en este campo que su control? La nueva reglamentación de la UE, la Ley de la IA (que entrará en vigor en 2016), tiene muchos aspectos interesantes, pero ha tenido que hacer sitio tardíamente a la IA generativa que está inundando el mundo con Chat GPT y otros programas.  No se aplicará, sin embargo, a los sistemas utilizados exclusivamente con fines militares o de defensa. Sí a los cada vez más numerosos casos de “doble uso”, civil y militar, que, por ejemplo, están jugando un mayor papel en la guerra de Ucrania, especialmente con los drones. Justamente, la DARPA (Agencia de Proyectos de Investigación de Defensa Avanzados) ha solicitado más fondos con estos fines, concretamente para el Rapid Experimental Missionized Autonomy (REMA) con el que pretende mejorar los drones militares comerciales y de stock con un subsistema que permita su funcionamiento autónomo. También solicita 22 millones de dólares, frente a los 5 millones del año pasado, para probar programas informáticos de armas autónomas en escenarios complejos que impliquen decisiones éticas. O 41 millones para “pilotos IA”, entre otros programas.

Aunque le pese a la UE, China llevaba la delantera en regulación de la IA. Según un interesante estudio de Matt Sheehan para la Fundación Carnegie, en 2021 y 2022, China se convirtió en el primer país en aplicar normas detalladas y vinculantes sobre algunas de las aplicaciones más comunes de la IA. Aunque, como era de esperar, los programas chinos de desarrollo de su IA tienen un mayor componente de control. No se prohíbe el reconocimiento facial en las cámaras en las calles (aunque la UE, que sí los prohíbe, hace una excepción por razones de seguridad). Esas regulaciones chinas llegaron antes de la explosión mediática de la IA generativa, que ellos consideran incluida en lo que llaman “algoritmos de recomendación” y de “síntesis profunda”. Pero están adoptando nuevas regulaciones al respecto. La regulación china pone más énfasis en la eficacia y eficiencia de la IA que en la transparencia, incluso en lo que puede aportar para la “armonía”, concepto confuciano tan impulsado por Xi Jinping. Las preocupaciones sobre la privacidad individual son menores que Occidente, aunque en este la privacidad hace tiempo que se ha vaciado. Están los avances en la IA y en general en el monitoreo de las comunicaciones, como bien puso de manifiesto Edward Snowden con sus filtraciones, y están los avances en el uso que la dan algunos gobiernos en términos de control de los ciudadanos, si aún se les puede llamar así y no meros usuarios.

Esta regulación china tampoco habla de la aplicación de la IA en el ámbito militar. La IA, como recordaba recientemente Jacob Stokes, del CNAS, es parte esencial del programa de potenciación y modernización del Ejército Popular de Liberación. Xi Jinping quiere que las fuerzas armadas sigan avanzando simultáneamente en mecanización, informatización y lo que llama “inteligentización”. En 2022 ya instó a China a “acelerar el desarrollo de capacidades de combate inteligentes y no tripuladas”. Además, según Stokes, el programa chino de Fusión Militar-Civil (lo que en Occidente se entiende por “doble uso”) pretende apropiarse de determinados avances tecnológicos civiles, incluidos algunos desarrollados en cooperación con socios de investigación internacionales, para aumentar las capacidades militares. Los expertos militares chinos hablan de llegar a un “cerebro de mando”.

Los científicos reunidos en Pekín pidieron que ningún sistema “aumente sustancialmente la capacidad de los actores para diseñar armas de destrucción masiva, violar la convención sobre armas biológicas o químicas” o sea capaz de “ejecutar de forma autónoma ciberataques que provoquen graves pérdidas económicas o daños equivalentes”. Como el control de armamentos (arms control) antes, esto requerirá todo un nuevo andamiaje de acuerdos verificables sobre la IA, todo un reto no ya para las dos superpotencias, sino para el conjunto de la humanidad.

No se trata solo de gobiernos, sino también de empresas y de tecnócratas. El comunicado de la reunión de Pekín contrasta con la de otras posiciones, como la del Manifiesto Tecno-optimista de Marc Andreessen, tecnólogo y empresario de éxito, que proclama una “aceleracionismo efectivo”, una aceleración de la tecnología, bajo cierto control, como solución a casi todos los males de la humanidad. Parece olvidar que, al resolver problemas, los humanos suelen generar otros nuevos.

El encuentro de Pekín contó con un apoyo oficial implícito, lo que indica también una preocupación en la segunda potencia del mundo en IA. Para los expertos, es esencial el control de los sistemas no ya que actúan autónomamente, sino que se desarrollan de forma autónoma: “Ningún sistema de inteligencia artificial debe ser capaz de copiarse o mejorarse a sí mismo sin la aprobación y ayuda explícitas de un ser humano”, ni de “tomar medidas para aumentar indebidamente su poder e influencia”. Para el ex viceprimer ministro británico Nick Clegg, desde hace tiempo valedor en Meta (Facebook), es como intentar construir un avión en pleno vuelo, no solo difícil, sino arriesgado.

La llamada IA está en sus inicios, incluso en el terreno militar en el que la guerra de Ucrania la está impulsando. Llegará a mucho más, de la mano de las empresas e instituciones (incluidas las fuerzas armadas) que invierten en ella, y quién sabe si un día por si sola. ¿Es demasiado tarde para controlarla?

 

Traducción »

Sobre María Corina Machado