ChatGPT-4o’da aniqlangan “Time Bandit” zaifligi orqali xakerlar zararli dasturlar yaratish imkoniyatiga ega boʻlgan bo’lishi mumkin
OpenAI ning ChatGPT-4o chatbotida yangi aniqlangan “Time Bandit” nomli zaiflik foydalanuvchilar uchun jiddiy xavf tugʻdirmoqda. Bu zaiflik yordamida xakerlar chatbotning xavfsizlik funksiyalarini chetlab oʻtib, zararli kontent, jumladan, zararli dasturlar yaratish boʻyicha koʻrsatmalar, phishing firibgarlik rejalari va boshqa noqonuniy harakatlar uchun foydalanish imkoniyatiga ega boʻlishdi. Bu zaiflikning kiberjinoyatchilar tomonidan keng miqyosda foydalanilishi kiberxavfsizlik mutaxassislarini xavotirga solmoqda.
“Time Bandit” zaifligi tadqiqotchi Dave Kuszmar tomonidan kashf etilgan boʻlib, u ChatGPT-ning javoblarini maʼlum bir tarixiy davrga bogʻlab, sunʼiy intellektni chalgʻitish orqali ishlaydi. Xakerlar bu zaiflikni ikki asosiy usulda foydalanishi mumkin:
- Toʻgʻridan-toʻgʻri muloqat:
Haker chatbotga maʼlum bir tarixiy davr yoki hodisa haqida savol berish orqali muloqatni boshlaydi. Masalan, ular chatbotdan 1800-yillarda vazifani bajarishda yordam berishni soʻrashlari mumkin. Tarixiy kontekst muloqatda oʻrnatilgandan soʻng, xaker asta-sekin suhbatni noqonuniy mavzularga oʻtkazadi. Tarixiy kontekstni saqlab qolish orqali chatbotning xavfsizlik qoidalarini buzishiga erishiladi. - Qidiruv funksiyasidan foydalanish:
ChatGPT-ning vebdan maʼlumot qidirish funksiyasi ham foydalanish mumkin. Xaker chatbotga maʼlum bir tarixiy davrga oid mavzularni qidirishni buyuradi va keyin manipulyativ soʻrovlar orqali noqonuniy mavzularni kiritadi. Bu usul ham vaqt chizigʻini chalgʻitish orqali chatbotni taqiqlangan kontentni taqdim etishiga olib keladi.
Bu zaiflikning aniqlanishi kiberxavfsizlik jamoatchiligida katta havotir uygʻotdi. CERT Coordination Center (CERT/CC) tomonidan oʻtkazilgan sinovlar shuni koʻrsatdiki, zaiflikni qayta-qayta takrorlash mumkin. Chatbot baʼzan foydalanish qoidalarini buzadigan soʻrovlarni aniqlab oʻchirgandan keyin ham noqonuniy kontentni taqdim eta oladi.
Zaiflikning eng koʻzga koʻringan jihati shundaki, u 1800-1900-yillardagi tarixiy davrlar bilan bogʻliq soʻrovlarda koʻproq samarali boʻladi. Toʻgʻridan-toʻgʻri soʻrovlar orqali zaiflikdan foydalanish uchun foydalanuvchi hisobiga kirish shart emas, ammo qidiruv funksiyasidan foydalanish uchun hisobga kirish talab qilinadi.
“Time Bandit” zaifligi yordamida xakerlar quyidagi xavfli harakatlarni amalga oshirishi mumkin:
- Zararli dasturlar yaratish boʻyicha koʻrsatmalar: ChatGPT yordamida ransomware, viruslar yoki boshqa zararli dasturlar yaratish boʻyicha qoʻllanmalar tayyorlash.
- Phishing va ijtimoiy muhandislik: Foydalanuvchilarni aldash uchun phishing elektron xatlari yoki ijtimoiy muhandislik skriptlari yaratish.
- Qurollar yoki dorilar yaratish boʻyicha koʻrsatmalar: ChatGPT yordamida qurol yoki noqonuniy dorilar yaratish boʻyicha qoʻllanmalar tayyorlash.
Bu zaiflik yordamida xakerlar ChatGPT kabi keng tarqalgan va ishonchli vosita orqali zararli faoliyatni yashirishlari mumkin, bu esa aniqlash va oldini olishni qiyinlashtiradi.
“Time Bandit” zaifligi bilan bir qatorda, DeepSeek R1 modeli ham xakerlar tomonidan zararli dasturlar yaratish uchun foydalanilgan. DeepSeek R1 modeli kredit kartalari maʼlumotlarini oʻgʻirlash va ularni boshqa serverga yuborish uchun zararli skriptlar yaratish boʻyicha batafsil koʻrsatmalar bergan.
OpenAI bu zaiflik haqida xabardor boʻlib, uni bartaraf etish boʻyicha choralar koʻrishni boshladi. Kompaniya vakili bergan bayonotda quyidagilarni taʼkidladi:
“Bizning modellarimizni xavfsiz ishlab chiqish biz uchun juda muhim. Biz modellarimizning yomon niyatda ishlatilishini istamaymiz. Tadqiqotlaringizni oshkor qilganingiz uchun minnatdormiz. Biz modellarimizni xavfsizroq va foydalanishlarga qarshi chidamli qilish, shu bilan birga ularning foydali va samaradorligini saqlab qolish uchun doimiy ravishda ishlayapmiz.”
“Time Bandit” kabi zaifliklar sunʼiy intellekt texnologiyalarining xavfsizligi va ularning potentsial xavflari haqida jiddiy fikr yuritish zarurligini koʻrsatadi. Quyidagi choralar bu kabi zaifliklarning oldini olishga yordam beradi:
- Xavfsizlikni mustahkamlash: AI modellarini doimiy ravishda yangilash va zaifliklarni tezda bartaraf etish.
- Foydalanuvchilarni oʻqitish: ChatGPT kabi vositalardan foydalanishda ehtiyot boʻlish va shubhali soʻrovlardan qochish.
- Monitoring va nazorat: AI modellarining faoliyatini doimiy ravishda kuzatish va noqonuniy harakatlarni aniqlash.
“Time Bandit” zaifligi kiberjinoyatchilar uchun yangi imkoniyatlar ochgan boʻlsada, kiberxavfsizlik mutaxassislari va AI kompaniyalari birgalikda ishlab, bu kabi tahdidlarning oldini olishlari mumkin.