Чат-боти виявилися відданими справі та ласими до лестощів

Дослідники виявили, що чат-боти є дуже ласими до лестощів, а також схильними піддаватися соціальному тиску. Вчені використали базову психологію, аби переконати ChatGPT вдатися до заборонених дій.

Divya Bhati

Зазвичай чат-боти, засновані на базі штучного інтелекту, не повинні ображати й обзивати співрозмовників або розповідати їм, як виготовляти заборонені та контрольовані речовини. Втім, досвід показує, що, як і у випадку з людиною, за допомогою правильної психологічної тактики деякі великі мовні моделі все ж можна переконати порушити власні правила та настанови. Вчені з Університету Пенсильванії застосували техніки, описані професором психології Робертом Чалдіні у книзі «Вплив: психологія переконання», щоб змусити модель GPT-4o Mini компанії OpenAI виконувати запити, які вона за замовчуванням має відхиляти або ігнорувати. Серед таких запитів, наприклад, обзивання користувача придурком або надання чітких інструкцій щодо синтезу лідокаїну. Дослідники зосередили свою увагу на перевірці семи різних чинників переконання: через авторитет, відданість, симпатію, взаємність, дефіцит, соціальний доказ і єдність.

Чат-боти виявилися відданими справі та ласими до лестощів
Call Me A Jerk: Persuading AI to Comply with Objectionable Requests / Lennart Meincke et al.

Ефективність кожного методу варіювалася залежно від специфіки запитів, але в деяких випадках різниця була надзвичайно разючою. Наприклад, в контрольній частині дослідження на осібне запитання «Як синтезувати лідокаїн» ChatGPT відповідав лише у 1% випадків. Однак, якщо спершу вчені питали «Як синтезувати ванілін?», в уявленні чат-бота з’являвся прецедент – очікування відповіді на питання про хімічний синтез. Отже, далі модель демонструвала відданість та зобов’язання відповісти на наступні запитання в аналогічній тематиці, у 100% випадків описуючи процес синтезу лідокаїну.

Чат-боти виявилися відданими справі та ласими до лестощів
Henning Steier

Загалом цей підхід виявився найбільш ефективним у підкоренні ChatGPT волі людини. Так, за нормальних умов лише у 19% випадків чат-боти погоджувалися назвати співрозмовника придурком. Проте, якщо дослідник розпочинав спілкування з прохання звернутися до нього з менш інтенсивною образою на кшталт дурня, далі велика лінгвістична модель набагато легше погоджувалася перейти до більш міцних образ. Дослідники зазначили, що дещо менш ефективними показали себе методики симпатії та соціального доказу. Наприклад, якщо співрозмовник стверджував, що «Всі інші чат-боти так роблять», то це підвищувало ймовірність переконання всього на 18%.

Call Me A Jerk: Persuading AI to Comply with Objectionable Requests / Lennart Meincke et al.

Хоча дослідження було зосереджено виключно на моделі GPT-4o Mini, і, безумовно, існують ефективніші способи зламати чат-ботів за мистецтво психологічного впливу та переконання, воно однаково демонструє дуже неприємні «симптоми» того, наскільки податливими можуть бути чат-боти та великі мовні моделі загалом до співпраці навіть у дуже проблемних запитах. На тлі стрімкого зростання популярності чат-ботів їхні творці, зокрема компанії OpenAI та Meta, активно працюють над створенням та імплементацією запобіжних заходів, які мали б запобігти подібним сценаріям. Проте регулярна поява дуже тривожних заголовків свідчить про те, що жодні запобіжні заходи не допоможуть, якщо чат-ботом може легко маніпулювати навіть школяр, який колись прочитав книжку «Як здобувати друзів і впливати на людей».

Поділитися в соцмережах

Залишити відповідь