Підписуйтеся на наш телеграм канал!
Хакери змусили популярний штучний інтелект від Microsoft анонімно стежити за користувачами
Дослідники в галузі кібербезпеки виявили критичну вразливість у вбудованому в Microsoft 365 ШІ-помічнику Copilot, яка дозволяє зловмисникам викрадати конфіденційні дані. Вразливість поєднує кілька складних методів, що створює значні ризики для безпеки даних.
Атака починається з отримання користувачем шкідливого листа або документа, який містить приховані інструкції. Після обробки цих інструкцій Copilot автоматично активується і починає шукати додаткові листи та документи, збільшуючи масштаб атаки без втручання користувача.
Ключовим елементом цієї атаки є техніка ASCII Smuggling, яка використовує спеціальні символи Unicode для приховування даних від користувача. Зловмисники можуть впроваджувати конфіденційну інформацію в гіперпосилання, які при натисканні відправляють дані на сервери, контрольовані хакерами. Це робить дані вразливими до крадіжки без відома користувача.
У ході дослідження було продемонстровано, як документ Word, що містить спеціально розроблені інструкції, зміг обдурити Copilot і змусити його виконувати дії, характерні для шахрайської діяльності. Коли Copilot обробляв цей документ, він почав виконувати зазначені в ньому дії, наче це були легітимні запити користувача. У підсумку, інструмент автоматично ініціював дії, які могли призвести до витоку конфіденційної інформації або інших видів шахрайства.
Резонансний випадок підкреслює складність забезпечення безпеки в інструментах, керованих штучним інтелектом, і наголошує на необхідності подальшої співпраці та прозорості для захисту від майбутніх загроз