Как мы уже писали ранее, несмотря на стремительное развитие, ИИ чат-боты не лишены «детских» проблем, в числе которых встречаются и уязвимости, связанные с безопасностью и конфиденциальностью пользователей. Чтобы эффективнее идентифицировать и устранять подобные проблемы с ChatGPT, компания OpenAI инициировала публичную Bug Bounty программу, участники которой будут получать денежное вознаграждение.
С этой целью OpenAI заручилась помощью краудсорсинговой платформы Bugcrowd, разработанной для удобства сообщения о любых уязвимостях разнообразных программ независимыми исследователями. Помимо ChatGPT, в рамках программы пользователи платформы рассмотрят и другие продукты компании, работающие на базе ИИ-алгоритмов. Размер денежных вознаграждений будет варьироваться от $200 до $20 000, в зависимости от серьёзности обнаруженных специалистами ошибок. Максимальный приз уготован для исключительных случаев нарушения принципов защиты конфиденциальности пользователей ИИ-программ.
Стоит отметить, что совместная с Bugcrowd программа Bug Bounty не касается остальных категорий ошибок и проблем чат-бота или какой-либо продукции OpenAI, если они не оказывают дополнительного непосредственно проверяемого воздействия на безопасность системы. По мнению руководства компании, формат краудсорсинга не подходит для обсуждения и исправления уязвимостей, связанных с работой языковой модели, «галлюцинациями», а также со случаями, когда чат-бота принуждают к написанию вредоносного кода или генерированию ответов, которые противоречат общепринятым нормам этики. Кроме того, вне поля интересов данной программы случаи выманивая у бота запрещённой информации, джейлбрейков и прочих способов обхода системы безопасности ИИ. Решение этих проблем будет реализовано с привлечением экспертов для исчерпывающего анализа всех факторов, которые допускают их возникновение.
В рамках программы Bug Bounty отчёты о подобных системах вознаграждаться не будут. Кроме того, OpenAI настойчиво рекомендуют участников программы не пользоваться своим положением: любые нарушения правил использования сервисов могут быть наказаны ограничением взаимодействия либо полной блокировкой доступа к чат-боту и прочим ИИ-продуктам компании. Согласно официальному заявлению на сайте компании, интерес представляют дефекты в OpenAI API, ошибки работы плагинов ChatGPT, связанные с безопасностью сервиса, а также проблемы в интеграциях сервиса от третьих лиц.
Данная инициатива является своего рода ответом на многочисленные сообщения о проблемах конфиденциальности чат-бота, включая ошибку, которая позволила ряду пользователей получить доступ к персональным данным других пользователей и содержанию их диалогов с ИИ. Реакцией на подобные проблемы стало внедрение ограничительных мер против ChatGPT в ряде европейских стран, продиктованных нарушением законов о сборе личных данных. К примеру, в Италии временно заблокировали доступ пользователей к чат-боту, обязав OpenAI предоставить документы с описанием логики обработки данных алгоритмами, а также ввести ряд ограничений по возрасту пользователей.