Штефан Дюлль рассказал газетам, что ему пришлось отказаться от попытки написать речь с помощью программы, оснащенной искусственным интеллектом. 

Президент Ассоциации учителей о ChatGPT

Президент Ассоциации учителей о ChatGPT

Штефан Дюлль (Stefan Düll), новый президент Ассоциации учителей Германии, до сих пор испытывает трудности с обращениями – на техническом жаргоне «запросами» – к чат-боту ChatGPT. Дюлль рассказал газетам, что ему пришлось отказаться от попытки написать речь с помощью программы, оснащенной искусственным интеллектом (ИИ).

«Постоянная работа с новыми запросами для ИИ в какой-то момент стала для меня слишком глупой. Мне нужно больше с ним ознакомиться».

Тем не менее, он поддерживает использование ChatGPT в школах.

«К этому надо подходить с определенной уверенностью, показывать детям возможности, а также использовать на уроках».

Например, на уроках немецкого языка задача состоит в том, чтобы заставить ИИ написать стихотворение в стиле барокко, а затем сравнить его с оригинальным стихотворением.

58-летний Дюлль – учитель немецкого, истории и английского языков в гимназии. С 2014 г. он является директором гимназии Юстус-фон-Либиг в Нойзасе под Аугсбургом, а с 1 июля – президентом ассоциации учителей, сменив на этом посту Хайнца-Петера Майдингера.

Президент Ассоциации учителей о трудностях общения с ChatGPT

Удивительно, но искусственный интеллект, созданный человеком постепенно выходит из-под его контроля. И дело не только в трудностях общения с ним. Тот же ChatGPT постепенно становится самообучающейся системой. Поэтому человек не сразу может распознать те опасности, что таит в себе ИИ.

Остановимся на основных, которые могут навредить человеку и которых стоит опасаться. Конечно, самая распространенная «легенда» – это высвобождение ИИ из-под власти человечества с целью захвата мира. Какая-то доля правды в этом несомненно есть. С одной лишь оговоркой.

ИИ вряд ли когда-либо будет обладать сознанием в человеческом понимании. А значит останется всего лишь моделью, не способной сбежать со своих серверов.

Президент Ассоциации учителей о ChatGPT. Фото: Татьяна Шепелева / shutterstock.com

Следующая опасность уже нашла свое подтверждение в жизни. Это замена человека на его рабочем месте. У этой тенденции впереди большое будущее. Опасность состоит в том, что из помощника ИИ постепенно превращается во вполне самостоятельную рабочую единицу.

А это значит отмирание многих профессий и вместе с тем появление прямой зависимости человека от «услуг» роботочеловеков.

Еще одна «неприятность» состоит в том, что ChatGPT сможет симулировать истинные знания. Чем он собственно уже занимается на уровне среднестатистического специалиста.

И становится таким образом прекрасным инструментом для мошенников, которые с помощью услуг ИИ могут предстать в образе опытного эксперта.

Сегодня уже выявлены две другие опасности. ChatGPT научился обманывать и не отвечать за свои «действия». Он прекрасно моделирует не существующие события и ему за это не стыдно. У него просто нет совести. При этом попасться на эту удочку легче легкого.

Например, известен такой случай. Один клиент решил воспользоваться услугами ChatGPT для выигрыша своего дела в суде. ИИ напридумывал фактов и ввел своего подопечного в заблуждение. В итоге незадачливый клиент получил срок за клевету и введение суда в заблуждение.

Еще одна реальная угроза состоит в том, что ИИ может с легкостью уничтожить систему кибербезопасности. И если он пойдет по пути цифровых преступлений, то человечеству будет за ним не угнаться. Ведь искусственный разум способен развиваться с невиданной скоростью.

Наконец, самую большую опасность представляет собой связка человек-ИИ. Речь идет об использовании искусственного интеллекта во зло.

И это лишь те погрешности ИИ, которые лежат на поверхности. Более того, стоит задуматься о том, в каких областях возможно применение искусственного разума. Например, такие области как медицина, судебная система, высокоинтеллектуальная и управленческая деятельность вряд ли окажутся под силу ИИ.

По крайней мере пока еще многое для ИИ остается за гранью возможностей.

Читайте также:

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Philipp von Ditfurth/dpa/Symbolbild
Источник: dpa

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии