Arranca en el Reino Unido la primera cumbre de Seguridad de Inteligencia Artificial del mundo
La primera cumbre mundial sobre los riesgos de la inteligencia artificial (IA) se inauguró el pasado miércoles 1 de noviembre en Reino Unido, y reunió a dirigentes políticos, gigantes tecnológicos y expertos que debatieron sobre los peligros que plantea el auge de esta tecnología.
La actual revolución tecnológica levanta pasiones, pero también temores, que dominaron los dos días de esta reunión celebrada en Bletchley Park (centro), donde se encuentra la emblemática sede en la que descifraban las comunicaciones durante la Segunda Guerra Mundial.
Los participantes abordaron en la primera jornada los posibles riesgos de la IA de vanguardia, como el polémico robot Chat GPT.
En paralelo la vicepresidenta de Estados Unidos, Kamala Harris, anunció en Londres el miércoles por la tarde la creación de un instituto sobre la seguridad de la IA en Washington, que reunirá a expertos para establecer “directrices” e “identificar y mitigar” los riesgos de esta tecnología, según un documento de la Casa Blanca.
Representantes políticos de alto nivel participaron el jueves en la cumbre, entre ellos la presidenta de la Comisión Europea Ursula von der Leyen y el secretario general de la ONU, António Guterres.
Pese a la tensión y al miedo al espionaje industrial, China también estuvo representada.
También participaron estrellas del sector de Silicon Valley como Sam Altman y Elon Musk, que co-fundaron OpenAI, la empresa que creó Chat GPT.
El Gobierno británico espera, como mínimo, conseguir una “primera declaración internacional sobre la naturaleza” de los riesgos de esta tecnología. También propone crear un grupo de analistas internacionales, inspirado en el modelo del panel de expertos de la ONU sobre el cambio climático (IPCC).
“Esta cumbre nos brinda la ocasión de asegurarnos que tenemos las buenas personas con las buenas competencias reunidas alrededor de la mesa para debatir la forma en que podemos disminuir estos riesgos en el futuro”, aseguró la ministra británica de Tecnología, Michelle Donelan el martes.
El principal desafío es conseguir definir salvaguardias sin poner trabas a la innovación en los laboratorios de IA y los gigantes tecnológicos.
La Unión Europea (UE) y Estados Unidos han escogido la reglamentación. El presidente estadounidense, Joe Biden, anunció el lunes un amplio conjunto de normas y principios para “marcar el camino” a nivel internacional.
Varias empresas como OpenAI, Meta (Facebook) o DeepMind (Google) aceptaron la semana pasada hacer públicas algunas de sus reglas de seguridad sobre la IA, después de que lo solicitara el Reino Unido.