O Presidente da Microsoft duvida que a AGI actue de forma independente nos próximos doze meses
Segundo a Microsoft, uma "superinteligência" artificial que actue de forma independente ainda está longe de ser uma realidade. "É absolutamente improvável que vejamos uma chamada AGI em que os computadores sejam mais poderosos do que os humanos nos próximos doze meses", disse Brad Smith, presidente da empresa de software, na quinta-feira. "Isso levará anos, se não décadas". No entanto, a segurança desta tecnologia deve ser considerada desde já.
AGI significa "Inteligência Geral Artificial". Ao contrário da IA anterior, como o ChatGPT da OpenAI, subsidiária da Microsoft, estes programas também podem realizar tarefas complexas sem intervenção humana. Os críticos receiam que uma AGI possa iniciar guerras ou desenvolver e fazer circular vírus mortais para os seres humanos.
A discussão sobre o momento da "singularidade tecnológica", em que a inteligência artificial ultrapassa a inteligência humana, foi alimentada pela agitação em torno do despedimento a curto prazo do diretor executivo da OpenAI, Sam Altman. As disputas sobre a forma de lidar com um avanço na investigação sobre a IA podem ter desempenhado um papel importante no caso. Segundo fontes internas, os criadores do projeto "Q*" (pronuncia-se: Q-Star) tinham avisado o conselho de administração da OpenAI das consequências potencialmente nefastas de um lançamento prematuro do programa. Segundo o presidente da Microsoft, Smith, a questão da superinteligência não foi determinante para o despedimento de Altman. Houve divergências de opinião com o Conselho de Administração, mas não sobre questões fundamentais como esta.
Os legisladores de todo o mundo estão a lutar para encontrar uma regulamentação adequada para a IA. Numa cimeira sobre IA realizada no início de novembro, vários países comprometeram-se a trabalhar em conjunto nesta questão. "O que realmente precisamos é de redes de segurança", continuou Smith. "Tal como existem travões de emergência nos elevadores ou disjuntores, também devem existir salvaguardas nos sistemas de IA que controlam infra-estruturas críticas, para que estas permaneçam sempre sob controlo humano."
Fonte: www.ntv.de