Офицеры по защите данных федеральных земель внимательно присматриваются к ChatGPT
Согласно сообщению, сотрудники по защите данных федеральных земель присматриваются к СМС-машине ChatGPT, основанной на искусственном интеллекте. «Целевая группа по ИИ на конференции по защите данных занялась этой темой», – сообщила председатель группы, защитник данных земли Шлезвиг-Гольштейн Марит Хансен, изданию Table.Media. «Очевидно, что риски носят более комплексный характер, чем «просто» защита данных, так что вызов брошен не только надзорным органам по защите данных и государственным органам по СМИ, но и политике и законодательству», – сказала уполномоченный земли.
В ChatGPT уже были утечки данных, пользователи могли видеть запросы незнакомцев или даже разговоры с ChatGPT, сказал Хансен агентству dpa, когда его спросили. «Это особенно тревожно, потому что некоторые пользователи доверяют системе искусственного интеллекта и даже задают интимные вопросы», – сказал Хансен. «Этому способствует тот факт, что ChatGPT лингвистически выглядит как приятный человеческий современник». Кроме того, по его словам, необходимо прояснить вопросы о соответствии Общему положению о защите данных, такие как обработка персональных данных, а также безопасность данных.
Нет надежной поисковой системы
Хансен также указал на проблемы, выходящие за рамки защиты данных, например, когда люди полагаются на неправильные ответы – критический момент, например, при лечении заболеваний. Кроме того, ответы могут выглядеть манипулятивными или вопросы могут быть «цветными ответами». «ChatGPT – это не надежная поисковая система! Но именно так этот инструмент часто используется», – сказал Хансен.
В Италии СМС-машина пока заблокирована. Органы по защите данных в Риме обвиняют стартап OpenAI в том, что он не сообщает своим пользователям, какая информация о них хранится. Кроме того, у компании нет законных оснований для сбора и хранения данных. Кроме того, отсутствуют адекватные фильтры или блокировки для детей младше 13 лет, которым, согласно условиям и положениям, запрещено пользоваться программой ChatGPT.
В последние месяцы ChatGPT произвел впечатление тем, насколько хорошо его программное обеспечение может имитировать человеческую речь. В то же время существуют опасения, что такая технология, основанная на искусственном интеллекте, может быть использована не по назначению, например, для распространения ложной информации.