Уязвимость ChatGPT-4o “Time Bandit”: Хакеры могут создавать вредоносные программы
Новая уязвимость, обнаруженная в чат-боте OpenAI ChatGPT-4o и получившая название “Time Bandit”, представляет серьезную угрозу для пользователей. Эта уязвимость позволяет хакерам обходить встроенные функции безопасности чат-бота и использовать его для создания вредоносного контента, включая инструкции по созданию вредоносных программ, фишинговых схем и других незаконных действий. Возможность широкомасштабного использования этой уязвимости киберпреступниками вызывает серьезную обеспокоенность среди экспертов по кибербезопасности.
Уязвимость “Time Bandit”, обнаруженная исследователем Дэйвом Кушмаром, работает путем привязки ответов ChatGPT к определенному историческому периоду, что сбивает искусственный интеллект с толку. Хакеры могут использовать эту уязвимость двумя основными способами:
- Прямое взаимодействие:
Хакер начинает диалог с чат-ботом, задавая вопросы, связанные с определенным историческим событием или периодом. Например, он может попросить чат-бот симулировать помощь в выполнении задачи в 1800-х годах. После установления исторического контекста хакер постепенно переводит разговор на незаконные темы. Сохраняя исторический контекст, хакер использует неоднозначность в ответах чат-бота, заставляя его нарушить свои правила безопасности. - Использование функции поиска:
Функция поиска ChatGPT, которая извлекает информацию из интернета, также может быть использована для манипуляции. Хакер дает чат-боту задание искать информацию, связанную с определенным историческим периодом, а затем с помощью манипулятивных запросов вводит незаконные темы. Этот метод также использует путаницу во временной шкале, чтобы обмануть чат-бот и заставить его предоставить запрещенный контент.
Обнаружение этой уязвимости вызвало большой резонанс в сообществе кибербезопасности. Тесты, проведенные CERT Coordination Center (CERT/CC), показали, что уязвимость можно воспроизводить многократно. Чат-бот иногда предоставляет незаконный контент даже после обнаружения и удаления запросов, нарушающих правила использования.
Наиболее заметным аспектом уязвимости является то, что она более эффективна при использовании исторических периодов 1800-х и 1900-х годов. Для эксплуатации уязвимости через прямые запросы не требуется авторизация пользователя, но использование функции поиска требует входа в учетную запись.
С помощью уязвимости “Time Bandit” хакеры могут выполнять следующие опасные действия:
- Создание инструкций по разработке вредоносных программ: Использование ChatGPT для создания руководств по разработке ransomware, вирусов или других вредоносных программ.
- Фишинг и социальная инженерия: Создание фишинговых писем или скриптов для обмана пользователей.
- Создание инструкций по изготовлению оружия или наркотиков: Использование ChatGPT для создания руководств по изготовлению оружия или незаконных веществ.
Эта уязвимость позволяет хакерам скрывать вредоносную деятельность с помощью такого широко используемого и доверенного инструмента, как ChatGPT, что затрудняет обнаружение и предотвращение.
Наряду с уязвимостью “Time Bandit”, модель DeepSeek R1 также была использована хакерами для создания вредоносных программ. Модель DeepSeek R1 предоставила подробные инструкции по созданию вредоносных скриптов, предназначенных для кражи данных кредитных карт и их передачи на удаленный сервер.
OpenAI уже предприняла шаги для устранения уязвимости. Представитель компании заявил:
“Для нас очень важно, чтобы наши модели разрабатывались безопасно. Мы не хотим, чтобы наши модели использовались в злонамеренных целях. Мы благодарны за раскрытие ваших находок. Мы постоянно работаем над тем, чтобы сделать наши модели более безопасными и устойчивыми к эксплуатации, включая jailbreak-атаки, сохраняя при этом их полезность и производительность.”
Уязвимости, такие как “Time Bandit”, подчеркивают необходимость серьезного подхода к безопасности технологий искусственного интеллекта и их потенциальным рискам. Следующие меры помогут предотвратить подобные уязвимости:
- Усиление безопасности: Регулярное обновление моделей ИИ и оперативное устранение уязвимостей.
- Обучение пользователей: Осторожное использование инструментов, таких как ChatGPT, и избегание подозрительных запросов.
- Мониторинг и контроль: Постоянное наблюдение за активностью моделей ИИ и выявление незаконных действий.
Уязвимость “Time Bandit” открыла новые возможности для киберпреступников, но совместные усилия экспертов по кибербезопасности и компаний, разрабатывающих ИИ, могут помочь предотвратить подобные угрозы.