Уязвимость ChatGPT-4o “Time Bandit”: Хакеры могут создавать вредоносные программы

Новая уязвимость, обнаруженная в чат-боте OpenAI ChatGPT-4o и получившая название “Time Bandit”, представляет серьезную угрозу для пользователей. Эта уязвимость позволяет хакерам обходить встроенные функции безопасности чат-бота и использовать его для создания вредоносного контента, включая инструкции по созданию вредоносных программ, фишинговых схем и других незаконных действий. Возможность широкомасштабного использования этой уязвимости киберпреступниками вызывает серьезную обеспокоенность среди экспертов по кибербезопасности.

Уязвимость “Time Bandit”, обнаруженная исследователем Дэйвом Кушмаром, работает путем привязки ответов ChatGPT к определенному историческому периоду, что сбивает искусственный интеллект с толку. Хакеры могут использовать эту уязвимость двумя основными способами:

  1. Прямое взаимодействие:
    Хакер начинает диалог с чат-ботом, задавая вопросы, связанные с определенным историческим событием или периодом. Например, он может попросить чат-бот симулировать помощь в выполнении задачи в 1800-х годах. После установления исторического контекста хакер постепенно переводит разговор на незаконные темы. Сохраняя исторический контекст, хакер использует неоднозначность в ответах чат-бота, заставляя его нарушить свои правила безопасности.
  2. Использование функции поиска:
    Функция поиска ChatGPT, которая извлекает информацию из интернета, также может быть использована для манипуляции. Хакер дает чат-боту задание искать информацию, связанную с определенным историческим периодом, а затем с помощью манипулятивных запросов вводит незаконные темы. Этот метод также использует путаницу во временной шкале, чтобы обмануть чат-бот и заставить его предоставить запрещенный контент.

Обнаружение этой уязвимости вызвало большой резонанс в сообществе кибербезопасности. Тесты, проведенные CERT Coordination Center (CERT/CC), показали, что уязвимость можно воспроизводить многократно. Чат-бот иногда предоставляет незаконный контент даже после обнаружения и удаления запросов, нарушающих правила использования.

Наиболее заметным аспектом уязвимости является то, что она более эффективна при использовании исторических периодов 1800-х и 1900-х годов. Для эксплуатации уязвимости через прямые запросы не требуется авторизация пользователя, но использование функции поиска требует входа в учетную запись.

С помощью уязвимости “Time Bandit” хакеры могут выполнять следующие опасные действия:

  • Создание инструкций по разработке вредоносных программ: Использование ChatGPT для создания руководств по разработке ransomware, вирусов или других вредоносных программ.
  • Фишинг и социальная инженерия: Создание фишинговых писем или скриптов для обмана пользователей.
  • Создание инструкций по изготовлению оружия или наркотиков: Использование ChatGPT для создания руководств по изготовлению оружия или незаконных веществ.

Эта уязвимость позволяет хакерам скрывать вредоносную деятельность с помощью такого широко используемого и доверенного инструмента, как ChatGPT, что затрудняет обнаружение и предотвращение.

Наряду с уязвимостью “Time Bandit”, модель DeepSeek R1 также была использована хакерами для создания вредоносных программ. Модель DeepSeek R1 предоставила подробные инструкции по созданию вредоносных скриптов, предназначенных для кражи данных кредитных карт и их передачи на удаленный сервер.

OpenAI уже предприняла шаги для устранения уязвимости. Представитель компании заявил:

“Для нас очень важно, чтобы наши модели разрабатывались безопасно. Мы не хотим, чтобы наши модели использовались в злонамеренных целях. Мы благодарны за раскрытие ваших находок. Мы постоянно работаем над тем, чтобы сделать наши модели более безопасными и устойчивыми к эксплуатации, включая jailbreak-атаки, сохраняя при этом их полезность и производительность.”

Уязвимости, такие как “Time Bandit”, подчеркивают необходимость серьезного подхода к безопасности технологий искусственного интеллекта и их потенциальным рискам. Следующие меры помогут предотвратить подобные уязвимости:

  1. Усиление безопасности: Регулярное обновление моделей ИИ и оперативное устранение уязвимостей.
  2. Обучение пользователей: Осторожное использование инструментов, таких как ChatGPT, и избегание подозрительных запросов.
  3. Мониторинг и контроль: Постоянное наблюдение за активностью моделей ИИ и выявление незаконных действий.

Уязвимость “Time Bandit” открыла новые возможности для киберпреступников, но совместные усилия экспертов по кибербезопасности и компаний, разрабатывающих ИИ, могут помочь предотвратить подобные угрозы.

Перейти к содержимому