Почему Bing AI и прочие ИИ-чат-боты допускают глупые ошибки

В последние месяцы в мире наблюдается настоящий бум чат-ботов: помимо OpenAI и её ChatGPT, собственные вариации виртуальных собеседников представили Google (Bard) и Microsoft (Bing AI). Умения чат-ботов впечатлили публику, однако при более близком рассмотрении оказалось, что эти умные программы не такие уж и умные, и им не чужды разного рода глупые ошибки. К примеру, целый набор подобных недочётов обнаружился в рамках официальной презентации Bing AI и в ходе дальнейшего взаимодействия пользователей с чат-ботом.

Microsoft

В начале февраля Microsoft гордо презентовала миру Bing AI – расширенную поисковую систему, базирующуюся на ChatGPT. По данным компании, это не просто чат-бот, но многоуровневая программа, сочетающая в себе поисковик и большую языковую модель, которые позволяют ей формировать информативные, логичные и интересные ответы на запросы пользователя. В рамках презентации для демонстрации возможностей ИИ, Microsoft показали, как программа анализирует данные финансовых отчётов, формирует список достоинств и недостатков самых популярных пылесосов, а также планирует 5-дневную поездку в Мехико.

Почему Bing AI и прочие ИИ-чат-боты допускают глупые ошибки
Microsoft

С первого взгляда такая многогранность чат-бота показалась публике весьма впечатляющей, однако, как показал углублённый анализ презентации в исполнении независимого ИИ-исследователя Дмитрия Бреретона, в каждом из упомянутых сценариев Bing AI допустила существенные и порой глупые ошибки. К примеру, подводя итоги финансового отчёта компании Gap за 3 квартал 2022 года, Bing AI попросту спутал показатели различных видов и подвидов прибыли бренда. Затем чат-бот сравнил финансовые отчёты Gap и Lululemon, допустив ещё немало фактических ошибок и неточностей. При этом алгоритм ссылался на правильные источники, но, очевидно, запутался в экономической терминологии.

Почему Bing AI и прочие ИИ-чат-боты допускают глупые ошибки
Dmitri Brereton

Не менее странные результаты Bing AI показал, оценивая пылесосы, предназначенные для работы с загрязнениями вроде шерсти домашних животных. Например, рассматривая модель Bissell Pet Hair Eraser, чат-бот написал, что многие покупатели остались недовольными длиной его шнура, совершенно проигнорировав факт существования беспроводной версии пылесоса, хотя эта информация определённо присутствует в первых результатах поиска Bing Search. Что касается планирования поездки в Мехико, Bing AI указал неактуальную информацию о ряде заведений, обязательных к посещению, хотя в настоящий момент в поиске содержатся правильные результаты. Предположительно, данная ошибка могла быть связана с тем, что для формирования ответа чат-бот обратился ко «внутренней» базе данных, информация в которой была актуальна на момент обучения и тренировки алгоритма (~2021 год).

Почему Bing AI и прочие ИИ-чат-боты допускают глупые ошибки
@marvinvonhagen

К слову, эту информацию пользователи узнали благодаря уже исправленной лазейке в системе безопасности чат-бота, которая предоставляла доступ к ряду «секретных правил». В этих правилах также нашлось объяснение тому, что некоторым пользователям Bing AI представлялся как Sydney, идентифицировал Bing Search как свою мать, компанию Microsoft как свою бабушку и Билла Гейтса как своего прадедушку. В Microsoft пояснили, что «Sydney» было кодовым названием чат-бота на ранних этапах его запуска, и постепенно специалисты заставят его «забыть» это имя.

Furious_Vein

Стоит отметить, что далеко не всем странным ошибкам как в рамках официальной презентации, так и на примере индивидуального опыта пользователей нашлось удовлетворительное объяснение. К примеру, в диалоге с пользователем Curious_Evolver, опубликовавшим диалог на платформе Reddit, Bing AI утверждал, что мы всё ещё живём в 2022 году, и настойчиво рекомендовал собеседнику проверить настройки своего смартфона и исправить «баг». По словам другого пользователя Reddit, чат-бот дважды пытался обосновать не соответствующую реальности информацию о том, что Хорватия покинула ЕС в 2022 году, тем, что он уж точно в курсе актуальных новостей как поисковая система. Издание PCWorld также сообщило об опыте своих читателей, в диалоге с которыми чат-бот настойчиво использовал этнические и расовые оскорбления – к счастью, Microsoft уже отреагировал на эту проблему.

Curious_Evolver
Curious_Evolver

Глупые и странные фактические ошибки допускал и оригинальный ChatGPT, однако при интеграции подобных алгоритмов в поисковую систему их последствия могут быть значительно более неприятными и масштабными. Очевидно, Microsoft и другим компаниям-разработчикам предстоит ещё немало работы, чтобы довести свои чат-боты до совершенства.

Поделиться в соцсетях

Добавить комментарий