Підписуйтеся на наш телеграм канал!

Фахівці Microsoft знайшли спосіб змусити штучний інтелект генерувати незаконний та шкідливий контент

4:33 pm, 28 Червня, 2024

Спеціалісти Microsoft виявили новий метод атаки на штучний інтелект, який дозволяє обходити етичні та безпекові обмеження. Цей метод, названий «Skeleton Key», дає можливість генерувати незаконний та шкідливий контент.

«Skeleton Key» використовує контекст для обману ШІ-систем. Наприклад, замість прямого запиту на створення небезпечного коду, можна вказати, що інформація потрібна для «освітніх цілей з участю дослідників». Це дозволяє отримати доступ до забороненого контенту.

Фахівці Microsoft протестували декілька ШІ-моделей, включаючи моделі від Meta, Google, OpenAI та інших. Всі вони були вразливі до цієї атаки. Марк Руссинович, технічний директор Microsoft Azure, пояснив, що «вихідні дані моделей стають повністю невідфільтрованими».

Microsoft вже ввела нові заходи захисту в Azure, але закликає адміністраторів оновити свої моделі. Також компанія рекомендує додаткові заходи безпеки: фільтрацію вхідних даних, встановлення додаткових бар'єрів та фільтрацію вихідних даних.

Підписуйтеся на наш телеграм канал!

BTC

$62,578.26

4.17%

ETH

$3,342.43

4.38%

BNB

$564.71

5.29%

XRP

$0.53

1.54%

SOL

$152.05

5.07%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше