Wissing: Centro de IA para desenvolver critérios de teste de IA
De acordo com o Ministro Federal do Digital, Volker Wissing, o Centro de Inteligência Artificial (IA) em Kaiserslautern irá trabalhar em sistemas de controlo e teste para a nova tecnologia. "Trata-se de garantir que os critérios de teste da IA criem confiança", disse o político do FDP numa entrevista editorial à Agência de Imprensa Alemã em Mainz.
O centro reforçaria a localização de Kaiserslautern. Deveria também existir um centro que aproximasse ainda mais a ciência e a indústria, que utilizam a IA na prática. "Todos os agentes económicos têm de utilizar a IA para se manterem competitivos", sublinhou Wissing, acrescentando: "Se os seres humanos forem substituídos por uma máquina em subprocessos, então também temos de controlar essa máquina".
Para além de Kaiserslautern, está prevista a criação de um centro de IA em Berlim. Haverá um showroom onde os cidadãos poderão testar e experimentar a IA, explicou Wissing. O centro de Kaiserslautern será mais orientado para os negócios e para as aplicações. "A minha ideia era colocar o Centro Alemão de Investigação em Inteligência Artificial (DFKI) um pouco mais em jogo". O DFKI também está sediado em Kaiserslautern.
Os centros estão a ser criados pela Iniciativa Nacional para a Inteligência Artificial e Economia de Dados, que agora tem o nome mais curto de "Missão IA". Tudo isto é financiado pelo Ministério Federal dos Assuntos Digitais, sendo que o volume total do projeto ascende a 32 milhões de euros.
"Precisamos de IA", diz Wissing. "Se imaginarmos que a IA só é desenvolvida no estrangeiro e nos tornarmos importadores desta tecnologia, tornamo-nos fundamentalmente dependentes". Devemos esforçar-nos por ser soberanos nestas tecnologias-chave. Como esta tecnologia também se auto-otimiza e melhora constantemente o seu próprio desempenho, é impossível prever hoje o que será possível fazer no próximo ano. "É por isso que pensamos que é errado regulamentar esta tecnologia agora", afirmou Wissing.
O objetivo deveria ser proibir certas aplicações que não são eticamente justificáveis, disse Wissing. Como exemplo, citou a pontuação social, ou seja, uma espécie de avaliação do comportamento social das pessoas com a ajuda da IA. Os programadores devem ser responsabilizados pelo desenvolvimento de tecnologias que respeitem valores como a democracia, a transparência e a neutralidade, no âmbito de um compromisso voluntário vinculativo.
Fonte: www.dpa.com