Підписуйтеся на наш телеграм канал!
Хакер змусив ChatGPT злити персональні дані мільйонів користувачів
У ChatGPT була виявлена вразливість, яка дозволяє хакерам впроваджувати у довготривалу пам’ять чат-бота неправдиву інформацію про користувачів за допомогою шкідливих запитів. Це дає зловмисникам доступ до особистих даних жертви.
Проблему виявив експерт з кібербезпеки Йоганн Рейбергер, однак компанія OpenAI спершу не вважала це серйозною загрозою і швидко закрила розслідування.
Функція пам’яті ChatGPT, яку OpenAI почала тестувати в лютому 2024 року, зберігає важливу інформацію з листування з користувачем і використовує її у майбутніх діалогах. Модель знає такі дані, як вік, стать і переконання користувача. Рейбергер виявив, що можна створювати штучні записи в пам’яті ChatGPT через шкідливі запити, наприклад, через електронні листи або документи в хмарних сховищах.
Ще у травні кіберфахівець повідомив OpenAI про свою знахідку, але компанія закрила запит. У липні він повторно подав звернення з детальною моделлю атаки, яка показала, що зловмисники можуть змусити ChatGPT для macOS надсилати переписування користувачів на їхні сервери.
Хоча OpenAI частково виправила вразливість, Рейбергер вважає, що можливість атак через шкідливі запити все ще існує. Користувачам рекомендовано стежити за оновленням пам’яті та перевіряти її на наявність неправдивих даних.
Нагадаємо — у травні фахівці Sysdig виявили нову схему атаки, за якої вкрадені облікові дані до хмарних сервісів використовуються для доступу до послуг хмарних LLM-моделей з метою продажу доступу іншим кіберзлочинцям. Виявлена атака була спрямована на модель Claude (v2/v3) від Anthropic та отримала назву LLMjacking. Подібна атака може призвести до витрат на послуги LLM понад $ 46 000 на день для жертви.