PODEMOS CONTROLAR A INTELIXENCIA ARTIFICIAL?
Os matemáticos John von Neumann e Irving John Good discutiron as primeiras nocións da singularidade tecnolóxica, o momento en que a tecnoloxía cambiaría para sempre a vida humana tal como a coñecemos. Outros autores como Vernor Vinge ou Ray Kurzweil popularizaron a singularidade asociada á Intelixencia Artificial (IA), a creación dunha superintelixencia que alteraría drasticamente a civilización e que podería destruíla. Se chega o día en que esa ameaza fágase presente, poderemos manter a IA baixo o noso control?
Modelos de linguaxe como ChatGPT, ou xeradores de imaxes como DALL-E ou Midjourney, fixeron saltar as alarmas ao utilizarse con fins maliciosos ou ilexítimos / Pixsell/Alamy Stock
Desde os seus primeiros balbucidos nos anos 40 e 50, a IA medrou de tal modo que hoxe está presente en infinidade de ferramentas tecnolóxicas que usamos a diario no móbil, o computador ou o asistente de voz. Con todo, son os modelos de linguaxe como ChatGPT, ou os xeradores de imaxes como DALL-E ou Midjourney, os que fixeron saltar as alarmas ao utilizarse con fins maliciosos ou ilexítimos. Pero os expertos disienten en prever cando se creará o que se coñece como IA xeral ou forte, a superinteligencia capaz de calquera tarefa que podería alcanzar a singularidade.
Son moitas as voces que alertaron sobre o risco de que estes sistemas futuribles causen unha catástrofe de proporcións incalculables. En 2014 o físico Stephen Hawking advertía na BBC de que a IA “podería traer o fin da raza humana”. Por entón o magnate tecnolóxico Elon Musk cualificou a IA como “a nosa maior ameaza existencial”. Ao ano seguinte ambos se unían a máis de 150 académicos e expertos para asinar unha carta a través do Future of Life Institute en que urxía a investigar “como cultivar os seus beneficios evitando os seus posibles inconvenientes”.
Ante a carreira actual cara á creación de sistemas cada vez máis potentes, en 2023 e a través da mesma institución, o Future of Life Institute, máis de 27.000 asinantes pediron unha moratoria de polo menos seis meses no adestramento de sistemas máis potentes que GPT-4, a versión máis recente de ChatGPT. Os expertos instan a “utilizar esta pausa para desenvolver e implementar conxuntamente un conxunto de protocolos compartidos de seguridade para o deseño e desenvolvemento de IA avanzada que sexan rigorosamente auditados e supervisados por expertos externos independentes”. Así mesmo, piden aos desenvolvedores que traballen cos organismos e gobernos para implantar regulacións de seguridade.
Son moitas as voces que alertaron sobre o risco de que estes sistemas futuribles causen unha catástrofe de proporcións incalculables / Getty Images
A regulación é hoxe o gran cabalo de batalla para limitar os perigos da IA. Italia bloqueou o uso de ChatGPT durante semanas ata que a compañía OpenAI asegurase o cumprimento das normativas de privacidade. Este é un dos aspectos que preocupan ás autoridades e que cubrirá a lei europea sobre IA, a primeira dun gran organismo regulador no mundo, que definirá distintos niveis de risco nas aplicacións. O Global Partnership on Artificial Intelligence lanzado en 2020 por iniciativa do G7 conta actualmente con 29 países membros, e organismos como Nacións Unidas ou a OCDE traballan nos seus propios marcos reguladores.
A regulación é o gran cabalo de batalla para limitar os perigos da IA, de aí iniciativas como a lei europea sobre IA ou iniciativas como o Global Parnership on Artificial Intelligence / John Lund/Getty Images
Pero dado que as compañías non mostraron intencións de frear os seus desenvolvementos, será suficiente unha regulación? Na película Xogos de guerra (1983) unha computadora de IA ameazaba con lanzar os mísiles nucleares. Os guionistas xustificaban que a máquina non podía desconectarse porque os silos dos mísiles interpretarían que a destrución comezara e que debían responder. En ficcións máis recentes, como as últimas entregas da saga Terminator, o problema actualizouse: non é unha máquina, senón todas; é unha rede. Quizá teñamos leis, pero obedeceranas os sistemas? Será posible inculcar nos seus programas as famosas leis da robótica de Isaac Asimov, segundo as cales un robot nunca podía danar a un ser humano? A ciencia ficción chega ao mundo real, e este guión aínda non está escrito.
FONTE: Javier Yanes/bbvaopenmind.com
0 comentarios