Wissing : Le centre d'IA doit développer des critères de contrôle de l'IA
Selon le ministre fédéral du numérique Volker Wissing, le centre pour l'intelligence artificielle (IA) de Kaiserslautern devrait travailler sur des systèmes de contrôle et de vérification pour cette nouvelle technologie. "Il s'agit d'avoir à la fin des critères de contrôle de l'IA qui créent la confiance", a déclaré le politicien du FDP lors d'un entretien rédactionnel avec l'agence de presse allemande à Mayence.
Le centre renforce le site de Kaiserslautern. Il devrait également y avoir un centre qui rassemble encore plus étroitement la science et l'économie qui utilise l'IA dans la pratique. "Chaque acteur économique doit utiliser l'IA pour rester compétitif", a souligné Wissing, qui a également déclaré : "Si l'homme est remplacé par une machine dans des processus partiels, alors nous devons également contrôler cette machine".
Outre Kaiserslautern, un centre d'IA devrait également voir le jour à Berlin. Il y aura un showroom où les citoyens pourront tester et expérimenter l'IA, a expliqué Wissing. Le centre de Kaiserslautern sera plus orienté vers l'économie et les applications. "Mon idée était de faire entrer un peu plus en jeu le Centre allemand de recherche sur l'intelligence artificielle (DFKI)". Le DFKI est également situé à Kaiserslautern.
Les centres sont mis en place par l'initiative nationale pour l'intelligence artificielle et l'économie des données, qui porte désormais le nom plus court de "Mission KI". Le tout est financé par le ministère fédéral du numérique, le volume total du projet s'élevant, selon les indications, à 32 millions d'euros.
"Nous avons besoin de l'IA", a déclaré Wissing. "Si l'on imagine que l'IA n'est développée qu'à l'étranger et que nous devenons des importateurs de cette technologie, alors nous tombons dans une dépendance fondamentale". Selon lui, il faut s'efforcer d'être souverain dans de telles technologies clés. Comme cette technologie s'optimise elle-même et améliore en permanence ses propres performances, il est impossible de prévoir aujourd'hui ce qui sera possible l'année prochaine. "C'est pourquoi nous pensons qu'il serait erroné de réglementer cette technologie maintenant", a déclaré Wissing.
Il doit s'agir d'interdire certains cas d'utilisation qui ne sont pas justifiables sur le plan éthique, a déclaré Wissing. Il a cité comme exemple le scoring social, c'est-à-dire une sorte d'évaluation du comportement social des personnes à l'aide de l'IA. Les développeurs devraient être tenus responsables, dans le cadre d'un engagement volontaire contraignant, de développer la technologie de manière à ce que des valeurs telles que la démocratie, la transparence et la neutralité soient respectées.
Source: www.dpa.com