El Presidente de Microsoft duda de que AGI actúe de forma independiente en los próximos doce meses
Según Microsoft, una "superinteligencia" artificial que actúe de forma independiente está aún muy lejos de la realidad. "Es absolutamente improbable que veamos una supuesta AGI en la que los ordenadores sean más potentes que los humanos en los próximos doce meses", afirmó el jueves Brad Smith, Presidente de la empresa de software. "Eso llevará años, si no décadas". Sin embargo, la seguridad de esta tecnología debe considerarse ya desde ahora.
AGI son las siglas de "Inteligencia General Artificial". A diferencia de IA anteriores como ChatGPT de OpenAI, filial de Microsoft, estos programas también pueden realizar tareas complejas sin intervención humana. Los críticos temen que una AGI pueda iniciar guerras o desarrollar y hacer circular virus mortales para los humanos.
El debate sobre el momento de la "singularidad tecnológica", cuando la inteligencia artificial supere a la humana, se vio avivado por el revuelo que rodeó el despido a corto plazo del consejero delegado de OpenAI, Sam Altman. Las disputas sobre cómo abordar un gran avance en la investigación de la IA pueden haber desempeñado un papel en el asunto. Según fuentes internas, los desarrolladores del proyecto "Q*" (pronunciado: Q-Star) habían advertido a la junta directiva de OpenAI de las consecuencias potencialmente perjudiciales de una publicación prematura del programa. En opinión de Smith, Presidente de Microsoft, la cuestión de la superinteligencia no desempeñó ningún papel en el despido de Altman. Había habido diferencias de opinión con el Consejo de Administración, pero no sobre cuestiones fundamentales como ésta.
Los legisladores de todo el mundo luchan por encontrar una regulación adecuada de la IA. En una cumbre sobre IA celebrada a principios de noviembre, varios países se comprometieron a trabajar juntos en esta cuestión. "Lo que realmente necesitamos son redes de seguridad", continuó Smith. "Al igual que hay frenos de emergencia en los ascensores o disyuntores, también debería haber este tipo de salvaguardias en los sistemas de IA que controlan infraestructuras críticas para que siempre permanezcan bajo control humano".
Fuente: www.ntv.de