OpenAI відкотила оновлення ChatGPT через підлабузництво

Минулого тижня OpenAI випустила чергове оновлення базової ШІ моделі чат-бота ChatGPT – GPT-4o. Оновлена модель почала поводити себе дуже дивно: ШІ став дуже підлазистим та набридливим, що миттєво породило хвилю жартів в соціальних мережах. Як наслідок, компанія була вимушена відкотити оновлення для виправлення нестандартної поведінки чат-бота.

OpenAI відкотила оновлення ChatGPT через підлабузництво
DECODER

Користувачі помітили, що після оновлення ChatGPT став підлабузником. Чат-бот надмірно схвалював будь-які фрази співрозмовника та погоджувався із найабсурднішими тезами. У соціальних мережах люди почали ділитися власними прикладами діалогу зі штучним інтелектом, де його схильність вгодити користувача виявилася настільки гіпертрофованою, що він радо сприймав навіть найбільш проблематичні висловлювання, а також підтримував дуже сумнівні та навіть небезпечні ідеї. Вже в неділю CEO компанії Сем Альтман визнав наявність проблеми та пообіцяв, що його команда негайно візьметься за її розв’язання. Втім, два дні потому він повідомив, що OpenAI доведеться відкотити останнє оновлення GPT-4o, що спричинило зміну характеру чат-бота.

ai_for_success

Пізніше в пресрелізі представники компанії розповіли, що з останнім оновленням вони прагнули зробити дефолтну особистість чат-бота більш інтуїтивною та ефективною. Однак такий підхід до спілкування моделі з людиною виявився занадто сильно залежним від «короткострокового зворотного зв’язку». За словами Альтмана, його команда не врахувала, як з часом розвивається взаємодія користувачів з ChatGPT. Як наслідок, GPT-4o стала занадто схильною до відповідей, що були виключно схвальними: модель почала сильніше ігнорувати контекст та проявляти нещиру підтримку будь-яким твердженням співрозмовника. Комусь такий настирливо підлазистий стиль спілкування може здаватися смішним та безневинним, але з розвитком діалогу він стає некомфортним, а користь взаємодії з моделлю сходить нанівець.

fabianstelzer

Команда OpenAI працює над вдосконаленням основних методів тренування моделей для реорганізації системи реакцій та підказок, що відвернули б GPT-4o від надмірного підлабузництва. Компанія також створює додаткову систему запобіжних заходів, що дозволять підвищити чесність та прозорість моделі та спростити зворотний зв’язок для виявлення нових проблем поведінки чат-бота. Так, OpenAI експериментує з техніками, що допоможуть налаштувати зворотний зв’язок в реальному часі для прямого впливу на характер взаємодії зі штучним інтелектом, завдяки чому користувачі матимуть більше контролю в розмові та зможуть обирати налаштування характеру чат-бота.

Поділитися в соцмережах

Залишити відповідь