Wissing: centro AI per sviluppare criteri di test AI
Secondo il Ministro federale per il Digitale Volker Wissing, il Centro per l'Intelligenza Artificiale (AI) di Kaiserslautern lavorerà sui sistemi di controllo e di test per la nuova tecnologia. "Si tratta di garantire che si arrivi a criteri di test dell'IA che creino fiducia", ha dichiarato il politico dell'FDP in un'intervista all'agenzia di stampa tedesca a Magonza.
Il centro rafforzerebbe la sede di Kaiserslautern. Dovrebbe esserci anche un centro che avvicini ancora di più la scienza e l'industria, che utilizzano l'IA nella pratica. "Ogni attore economico deve utilizzare l'IA per rimanere competitivo", ha sottolineato Wissing, aggiungendo: "Se gli esseri umani vengono sostituiti da una macchina nei sottoprocessi, allora dobbiamo anche controllare questa macchina".
Oltre a Kaiserslautern, verrà creato un centro AI anche a Berlino. Lì ci sarà uno showroom dove i cittadini potranno testare e provare l'IA, ha spiegato Wissing. Il centro di Kaiserslautern sarà più orientato al business e alle applicazioni. "La mia idea era di coinvolgere maggiormente il Centro di ricerca tedesco per l'intelligenza artificiale (DFKI)". Anche il DFKI ha sede a Kaiserslautern.
I centri sono stati istituiti dall'Iniziativa nazionale per l'intelligenza artificiale e l'economia dei dati, che ora porta il nome più breve di "Mission AI". L'intero progetto è finanziato dal Ministero federale degli Affari Digitali e il volume totale del progetto ammonterebbe a 32 milioni di euro.
"Abbiamo bisogno dell'IA", ha dichiarato Wissing. "Se pensiamo che l'IA sia sviluppata solo all'estero e diventiamo importatori di questa tecnologia, diventiamo fondamentalmente dipendenti". Dobbiamo sforzarci di essere sovrani in queste tecnologie chiave. Poiché questa tecnologia si auto-ottimizza e migliora costantemente le proprie prestazioni, è impossibile prevedere oggi cosa sarà possibile fare l'anno prossimo. "Per questo pensiamo che sia sbagliato regolamentare questa tecnologia adesso", ha detto Wissing.
L'obiettivo dovrebbe essere quello di vietare alcune applicazioni che non sono eticamente giustificabili, ha detto Wissing. Come esempio, ha citato il social scoring, ovvero una sorta di valutazione del comportamento sociale delle persone con l'aiuto dell'IA. Gli sviluppatori dovrebbero essere responsabili dello sviluppo di tecnologie che rispettino valori come la democrazia, la trasparenza e la neutralità, nell'ambito di un impegno volontario vincolante.
Fonte: www.dpa.com