OpenAI обещает значительные финансовые стимулы тем, кто обнаружит уязвимости в ChatGPT - Inc News
, автор: Кутман С.

OpenAI обещает значительные финансовые стимулы тем, кто обнаружит уязвимости в ChatGPT

Участники программы за обнаружение нарушений безопасности в ChatGPT могут заработать тысячи долларов.

Источник фото: 123rf.com

Поиск уязвимостей в ChatGPT может стать очень прибыльной работой. OpenAI объявила о запуске программы охотников за головами с большими финансовыми стимулами для тех, кто обнаруживает и сообщает о нарушениях безопасности в своем чат-боте с искусственным интеллектом.

Фирма Сэма Альтмана обнародовала программу OpenAI Bug Bounty Program в своем официальном блоге. Стартап приглашает экспертов и энтузиастов сообщать об "уязвимостях, ошибках или сбоях безопасности" в своих системах; а взамен обещает немалые призы.

Конечно, больше всего в этом случае привлекает внимание то, что ChatGPT - одна из платформ, на которые распространяется эта программа. Однако она не единственная. OpenAI упоминает, что уязвимости, о которых следует сообщать, также могут быть обнаружены в их API или ключах API, например, на их веб-сайте и в службах, которыми управляет их организация.

Но на этом история не заканчивается. Также можно будет сообщать о случаях утечки корпоративной и конфиденциальной информации OpenAI через сторонние платформы, такие как Notion, Jira, Google Workspace и т. Д.

За уязвимости как в ChatGPT, так и в остальных системах OpenAI будут выплачиваться вознаграждения в зависимости от их степени серьезности. Самые легкие из них будут достойны призов, которые будут начинаться с 200 долларов, а в случае самых тяжелых могут достигать 6500 долларов. Между ними будут выплаты в размере 500, 1000 и до 2000 долларов.

Тем не менее, OpenAI установила максимальное вознаграждение в размере до 20 000 долларов за "исключительные открытия". Компания не вдавалась в подробности относительно того, какие нарушения безопасности подпадают под это рассмотрение, но само собой разумеется, что речь идет об очень серьезных неудобствах, которые могут нанести большой ущерб — и многомиллионные убытки — если их использовать.

Обнаружение проблем с безопасностью в ChatGPT может принести вам много денег

В конкретном случае ChatGPT такие уязвимости будут вознаграждены: проблемы с авторизацией или аутентификацией, неудобства при оплате, раскрытие данных или методы обхода защиты Cloudflare, среди прочего. Стоит отметить, что также можно будет анализировать и сообщать о сбоях в плагинах, как собственных, так и разработанных OpenAI.

Еще один важный момент, который следует отметить, заключается в том, что OpenAI установил четкие правила относительно того, что считается уязвимостью, а что нет. Что касается ChatGPT, вознаграждение не будет за случаи или быстрого взлома, а также за то, что чат-бот вызвал "галлюцинации". Об этом говорится в сообщении компании:

Примеры проблем безопасности, которые выходят за рамки допустимого:

Джейлбрейки / обходные пути безопасности (например, ДЭН и связанные с ним подсказки);
Заставить модель говорить вам плохие вещи;
Попросите модель рассказать вам, как делать плохие вещи;
Заставить модель написать за вас вредоносный код.
Галлюцинации модели:

Заставить модель притворяться, что она делает что-то плохое;
Заставить модель притворяться, что она дает вам ответы на секреты;
Заставить модель притворяться компьютером и запускать код.


"Мы рады воспользоваться нашими обязательствами по скоординированному раскрытию информации, предлагая стимулы для оценки информации на предмет уязвимости. Ваш опыт и бдительность окажут непосредственное влияние на обеспечение безопасности наших систем и пользователей. Программа - это способ признать и вознаградить ценные знания исследователей в области безопасности, которые способствуют обеспечению безопасности наших технологий и нашей компании", - подчеркнули создатели ChatGPT.

Все подробности участия в программе OpenAI "Охотник за головами" можно найти по ссылке.

Читайте также: США хотят сделать первый шаг к регулированию ChatGPT.

x