Искусственный интеллект вызывает много надежд, но также и опасений. Два текущих исследования показывают, что приложения ИИ, по крайней мере, окажут сильное влияние на мир труда.

Чатбот ChatGPT

Инструменты искусственного интеллекта, такие как текстовый робот ChatGPT, в настоящее время сотрясают индустрию высоких технологий. Доминирующее положение Google в области интернет-поиска впервые серьезно оспаривается новым программным обеспечением с искусственным интеллектом. Но последствия технологического землетрясения ощущаются не только в далекой Силиконовой долине. Искусственный интеллект также всесторонне изменит повседневную рабочую жизнь многих людей за пределами калифорнийских технологических центров. Таков результат двух исследований, посвященных последствиям революции ИИ для мира труда.

Первое исследование исходит от самих создателей ChatGPT: Исследователи из стартапа OpenAI объединились с учеными из Университета Пенсильвании, чтобы выяснить, на какие профессии ChatGPT окажет наибольшее влияние. Согласно исследованию, бухгалтеры входят в число профессий, на которых возможности генеративного искусственного интеллекта отразятся в наибольшей степени. По крайней мере, половина задач в бухгалтерии может быть выполнена гораздо быстрее с помощью этой технологии.

Согласно исследованию, математики, программисты, переводчики, писатели и журналисты также должны быть готовы к тому, что искусственный интеллект возьмет на себя хотя бы часть их прежних задач. Ведь хотя системы ИИ в настоящее время все еще часто «галлюцинируют» неверные факты в своих ответах, они уже показывают замечательные результаты в таких задачах, как перевод, классификация, творческое письмо и генерация компьютерных кодов.

ИИ почти ни на одном рабочем месте не остается без последствий

Исследователи из OpenAI и Университета Пенсильвании ожидают, что языковые модели ИИ в той или иной степени изменят большинство рабочих мест. По их словам, около 80 процентов работников в США заняты в профессиях, где хотя бы одна задача может быть выполнена быстрее с помощью генеративного ИИ. Но есть и такие профессии, в которых ИИ будет играть лишь незначительную роль: К ним относятся повара, автомеханики и рабочие места в сфере добычи нефти и газа, а также в лесном и сельском хозяйстве.

Исследовательский отдел инвестиционного банка Goldman Sachs в своем исследовании подсчитал, что это развитие может означать для рынка труда. Если так называемый генеративный ИИ реализует свои обещанные возможности, это может привести к «значительным нарушениям на рынке труда». Генеративный ИИ» относится к компьютерным программам, которые могут создавать новые идеи, контент или решения вместо того, чтобы просто следовать заданным правилам или инструкциям.

По оценкам Goldman Sachs, около двух третей нынешних рабочих мест в той или иной степени подвержены автоматизации ИИ. Генеративный ИИ может заменить до четверти текущей работы, считает компания. «Если экстраполировать наши оценки на весь мир, то генеративный ИИ может привести к автоматизации 300 миллионов рабочих мест с полной занятостью».

Хинрих Шютце, директор Центра обработки информации и языка при Мюнхенском университете имени Людвига Максимилиана (LMU), считает развитие генеративного ИИ технологической революцией, сравнимой с появлением интернета или смартфона. Тем не менее, системы ИИ все еще далеки от реального понимания содержания предметов: «Основная технология для языковых паттернов – это просто всегда предсказывать следующее слово, совершенно бездумно, всегда следующее слово». 

Конец многих профессий не за горами

Тем не менее, по его словам, последствия уже огромны: «Произойдут большие изменения в том, как мы пишем, когда мы пишем тексты, как мы программируем». Это также окажет большое влияние на повседневную рабочую жизнь. «Довольно много профессий исчезнет, когда нужно будет просто писать резюме, собирать и конденсировать знания».

Мюнхенский эксперт по ИИ предостерегает, однако, от предоставления искусственному интеллекту слишком большой свободы действий в принятии решений, например, в судебной системе, медицине, налоговом консультировании или управлении активами. По его словам, ИИ делает много заявлений, обладающих большой убеждающей силой, несмотря на то, что факты часто не соответствуют действительности. «Люди думают, что это должно быть правдой, если модель так уверена. Но в действительности модель не может оценить свою собственную уверенность. Это одна из больших проблем, с которыми мы сталкиваемся».

Профессор информатики из Потсдама Кристоф Майнель видит еще одно препятствие для широкого распространения ИИ в мире труда, поскольку системы нуждаются в огромных вычислительных мощностях и, следовательно, требуют огромного количества энергии. «Многие ожидания от ИИ кажутся мне завышенными, а также нереалистичными в отношении его энергопотребления», – говорит уходящий директор Института Хассо Платтнера (HPI). Успешные приложения ИИ основаны на так называемом глубоком обучении, т.е. обучении на огромных объемах данных. «И они пожирают огромное количество энергии». Поэтому широкое внедрение было бы фатальным для климата и достижения климатических целей. «Сначала мы должны разработать значительно более энергоэффективные системы ИИ».

Однако Мейнел видит проблему не только в высоком спросе на электроэнергию, но и в вопросе защиты данных. «Каждый, кто пробует новейшие приложения искусственного интеллекта в Интернете, должен быть осторожен в раскрытии конфиденциальных личных данных», – советует Мейнел. Несмотря на шумиху, все ответственные лица должны понимать, что своими собственными запросами и данными они бесплатно обучают модели искусственного интеллекта провайдеров и делают их умнее». Каждый, кто загружает внутренние финансовые данные на определенные платформы, чтобы они могли автоматически подготовить на их основе презентацию, должен знать, что это также может привести к раскрытию коммерческой тайны.

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Karl-Josef Hildenbrand/dpa
Источник: dpa

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии