La comunidad internacional se une frente a las amenazas "catastróficas" de la inteligencia artificial
Tecnología
Reino Unido acoge la primera cumbre global sobre seguridad en torno a la IA, con representantes de casi una treintena de gobiernos
De ella sale una declaración conjunta en la que se comprometen a impulsar la cooperación internacional
Biden firma una orden ejecutiva para controlar el desarrollo de la inteligencia artificial
El G7 acuerda un código de conducta para los desarrolladores de inteligencia artificial
Bletchley Park (Reino Unido)/La primera cumbre global sobre seguridad en torno a la inteligencia artificial (IA) ha logrado que Estados Unidos y China, dos potencias rivales especialmente enfrentadas en el ámbito tecnológico, se hayan alineado con buena parte de la comunidad internacional para alertar sobre las amenazas potencialmente "catastróficas" de la nueva tecnología.
Hasta 29 gobiernos, incluida la Unión Europea, se han dado cita este miércoles en un encuentro auspiciado por el Reino Unido en el que debaten hasta mañana jueves, junto a representantes de las principales empresas tecnológicas globales, planes para identificar y mitigar los riesgos de la IA.
El resultado más tangible de la cumbre es una declaración conjunta en la que los países participantes, entre los que también se incluyen España, Alemania, Francia, Brasil, India y Canadá, entre otros, se comprometen a impulsar la cooperación internacional para evitar los peores augurios en torno a los nuevos sistemas inteligentes.
Peligros inmediatos
Los líderes políticos perciben peligros inmediatos como la capacidad de la nueva tecnología para generar desinformación, pero alertan especialmente sobre futuros riesgos "existenciales" para el conjunto de la humanidad.
Las amenazas van desde facilitar ataques informáticos a una escala no vista hasta ahora y dar las claves a grupos terroristas para fabricar armas biológicas, hasta la posibilidad de llegar a perder el control de un sistema autónomo, cuyos objetivos podrían comenzar a divergir de los que habían previsto los humanos.
"Ante el veloz e incierto ritmo de los cambios en la IA, y en el contexto de una aceleración de las inversiones en tecnología, afirmamos que profundizar en nuestra comprensión de esos riesgos potenciales y las acciones para mitigarlos es especialmente urgente", subrayan los países en el comunicado conjunto.
La cumbre de seguridad impulsada por el Reino Unido tendrá continuidad en el futuro. Corea del Sur acogerá una minicumbre virtual dentro de seis meses, mientras que Francia será la anfitriona de un nuevo encuentro internacional en el plazo de un año.
Elon Musk
A la cumbre en Blentchley Park (centro de Inglaterra), el enclave donde se decodificaban los mensajes secretos nazis durante la Segunda Guerra Mundial, han acudido responsables de las principales empresas tecnológicas que han iniciado la revolución en el sector.
OpenAI, Google DeepMind, Anthropic, Meta y Microsoft, entre otras, participan en los debates con académicos y políticos, muchos de ellos a puerta cerrada, para tratar de establecer una visión común sobre los retos que se presentan.
Una de las estrellas de la cumbre es el desde hace un año propietario de la red social X (antes Twitter), Elon Musk, que durante la primera jornada de la cumbre participó en gran parte de los debates y alertó de que la IA es uno de los principales peligros que afronta la humanidad. "Por primera vez, estamos en una situación en la que hay algo que va a ser más listo que el más listo de los humanos", dijo el polémico magnate estadounidense.
"No está claro si podemos, de hecho, controlar algo como eso, pero creo que debemos aspirar a guiarlo hacia una dirección que sea beneficiosa para la humanidad", agregó Musk, que apostó por crear un "árbitro independiente" que vele por la seguridad en el desarrollo de la IA.
Curiosamente, el sudafricano se ha mostrado contrario a cualquier evaluación similar de su red social, considerada por la Comisión Europea como la plataforma en la que más desinformación de propaga.
Poner el foco en los riesgos presentes
Los organizadores de la cumbre quieren centrar el diálogo en la llamada IA de frontera, los modelos que todavía se están desarrollando y que podrían presentar amenazas "existenciales", pero todavía hipotéticas e indefinidas.
Sin embargo, algunas voces en la cumbre llamaron a poner el foco en peligros inmediatos más acuciantes.
Entre ellas, la vicepresidenta de Estados Unidos, Kamala Harris, que subrayó la necesidad de velar por que el uso de los actuales sistemas de inteligencia artificial generativa no afecten de manera desproporcionada a los colectivos más vulnerables.
"Cuando una persona mayor es expulsada de su plan de salud debido a un fallo en un algoritmo de IA, ¿no es eso existencial para él? Cuando una mujer se ve amenazada por una pareja abusiva con fotografías falsas (deepfake) ¿no es eso existencial para ella?", dijo Harris.
Por Guillermo Ximenis (EFE)
España llama a proteger los "derechos fundamentales" ante la emergencia de la IA
La secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, llamó desde la cumbre a tomar medidas para preservar los "derechos fundamentales" ante la emergencia de los nuevos sistemas de IA.
La IA puede presentar en el futuro "riesgos existenciales", incluidos "riesgos incluso para la seguridad personal o nacional", dijo Artigas a EFE. "Pero también hay riesgos en el presente: la desinformación, la potencial discriminación y la exclusión de colectivos", enumeró la secretaria de Estado, que aborda esos y otros riesgos desde el órgano consultivo sobre la IA de las Naciones Unidas que copreside.
"En este momento, tenemos que tener una visión global. No solamente es el Norte quien está desarrollando la tecnología, sino que tenemos que tener en cuenta al Sur global", agregó.
Cuestionada sobre la red de institutos de seguridad centrados en la IA que el Reino Unido y Estados Unidos quieren impulsar, la secretaria de Estado indicó que "puede tener sentido" la creación de "un instituto propio, o integrar esas tecnologías dentro de otros institutos que ya se dedican a prever los riesgos de la seguridad nacional".
"Ahora estamos poniendo el énfasis en la inteligencia artificial, pero mañana lo tenemos que seguir poniendo en la computación cuántica, las neurotecnologías o la biología sintética", sostuvo. Aunque tiene que haber centros científicos que se dediquen específicamente a los riesgos de la IA, "no hace falta que cada país tenga uno" y "probablemente tendría sentido hacer un centro de esas características a nivel europeo", agregó.
Artigas dio además la bienvenida a que potencias rivales como Estados Unidos y China se hayan puesto de acuerdo para firmar una declaración conjunta en la que alertan sobre los peligros de la inteligencia artificial y la necesidad de cooperar para controlarla. "Se puede competir en recursos, se pude competir por el mercado, pero no se puede competir por la seguridad", afirmó.
"Tenemos que alinearnos todos para proteger cosas tan fundamentales como el derecho a que no se utilicen esas tecnologías por parte de actores malos y por parte de entidades que no son gubernamentales ni empresas con un fin que puede ser el terrorismo o el desarrollo de armas", agregó la secretaria de Estado.
También te puede interesar