Эксперт: языковые модели ИИ имеют смысл – но знайте об опасностях
Компьютерный ученый Петер Лиггесмайер из Кайзерслаутерна испытывает смешанные чувства по поводу быстрого развития языковых моделей ИИ, таких как ChatGPT. «Есть разумное применение, но есть и опасные моменты», – сказал глава Фраунгоферовского института экспериментальной программной инженерии IESE изданию Deutsche Presse-Agentur. «Они могут сделать контент, созданный студентами, более лингвистически красивым». Однако опасным является их бесхитростное использование для создания контента, сказал он.
«Истина не является категорией в этих системах. У них есть тенденция к галлюцинации контента», – объяснил Лиггесмайер. «Тогда часто получается смесь правды и свободного изобретения, но все это выглядит правдоподобно», – предупредил компьютерный ученый. «Трудно отличить правду от псевдоправды». ChatGPT, например, придумывает несуществующие литературные отрывки. Контент, созданный искусственным интеллектом (ИИ), как и контент в Интернете, не должен приниматься без критики. «Нужно быть осторожным».
Контент будет создаваться и воспроизводиться на основе многих текстов в языковых моделях. «Это немного похоже на попугая, который слышал много текстов», – сказал Лиггесмайер. Языковые модели также будут испытывать трудности с человеческими характеристиками, такими как сарказм или разочарование.
Рассматривая свою дисциплину – программную инженерию, то есть планирование и создание программных систем, Лиггесмайер сказал, что программы, подобные ChatGPT, могут довольно оптимально отвечать на вопросы или формулировать определения базовых знаний. «Существуют хорошие образцы ответов для устных экзаменов. Но в программной инженерии необходимо учитывать многие вещи, часто приходится идти на компромиссы», – сказал он. Сравнительно простые вещи, такие как алгоритмы сортировки, могут позаботиться о таких моделях. «Оптимизацию в конкретном случае все равно придется проводить вручную».