Mario Romero.- La I.A o Inteligencia Artificial y sus herramientas como Chat GPT y similares nos ha invadido del todo, y si bien ofrece interesantes herramientas que pasean desde la entretención y creación, así como de importante ayuda para labores profesionales o recrear la última canción de The Beatles, no es menor el hecho de que requiere de reglas claras sobre su funcionamiento.
En esa línea, Chile, Estados Unidos, Reino Unido y otros 15 países firmaron un acuerdo en el que se comprometen a tomar medidas para hacer que la IA sea «segura por diseño» y aunque se reconoce que es una declaración básica de principios, la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA) ha dicho que es un primer paso importante.
inDe acuerdo a un reporte de Reuters, un alto funcionario estadounidense descrito oficialmente como el primer acuerdo internacional detallado sobre cómo mantener la inteligencia artificial a salvo de actores deshonestos, presionando para que las empresas creen sistemas de IA que sean «seguros por diseño».
En un documento de 20 páginas, los países, incluido el nuestro, acordaron que las empresas que diseñan y utilizan IA deben desarrollarla e implementarla de manera que mantenga a los clientes y al público en general a salvo del uso indebido.
«Esta es la primera vez que hemos visto una afirmación de que estas capacidades no deberían limitarse a características interesantes y a la rapidez con la que podemos llevarlas al mercado o a cómo podemos competir para reducir los costes», dijo Easterly a Reuters, afirmando que las directrices representan «Un acuerdo de que lo más importante que hay que hacer en la fase de diseño es la seguridad».
Los otros países que se han inscrito hasta el momento son Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Israel, Nigeria y Singapur.
Europa ha tomado una ventaja en esta área, con un intento de crear leyes específicas que regulen el desarrollo y lanzamiento de nuevos sistemas de IA, lo que incluiría un requisito legal para que las empresas realicen pruebas de seguridad periódicas para identificar posibles vulnerabilidades.
La Casa Blanca ha instado al Congreso a desarrollar una regulación de la IA en Estados Unidos, pero hasta la fecha se ha avanzado poco. El mes pasado, el presidente Biden firmó una orden ejecutiva que exige que las empresas de inteligencia artificial realicen pruebas de seguridad, principalmente destinadas a proteger los sistemas de los piratas informáticos.