Підписуйтеся на наш телеграм канал!

Вчені винайшли алгоритм, що зламує роботів зі штучним інтелектом у 100% випадків

4:15 pm, 15 Листопада, 2024

Науковці провели дослідження, у ході якого з’ясували нові загрози використання великих мовних моделей (LLM) для керування роботами. Головною проблемою виявилась вразливість до атак, які дозволяють зламати захисні механізми та змусити роботів виконувати небезпечні дії.

Дослідження показало, що системи на основі LLM можуть бути вразливими до атак типу «jailbreaking». Ці атаки дозволяють обходити захист і змушують моделі створювати небезпечний контент, наприклад, інструкції для виготовлення вибухівки.

На тлі цього, науковці розробили алгоритм RoboPAIR, який може атакувати роботів, керованих LLM.

Він успішно обійшов захист трьох різних систем:

  • роботів Go2;
  • Jackal;
  • симулятора Dolphins LLM.

Алгоритм створював спеціальні запити, які обходили фільтри безпеки, використовуючи фізичні можливості роботів.

Вчені наголосили, що такі проблеми можуть призвести до ситуацій, коли автономні пристрої стають інструментами для завдання шкоди. Це створює великі ризики для безпеки людей та інфраструктури.

У підсумку науковці оцінили великий потенціал LLM у робототехніці. Однак попередили про можливі загрози, якщо захист систем не буде вдосконалений.

Дослідники рекомендують виробникам роботів вивчити механізми атак і посилити безпеку. Для критичних сфер, де важливий контроль людини, потрібно розробляти моделі, які можуть аналізувати наміри користувача та ситуацію.

Нагадаємо, що засновник Tesla та SpaceX Ілон Маск вважає, що в наступні 15 років чисельність гуманоїдних роботів зі штучним інтелектом зросте до рівня, що перевищить населення Землі.

BTC

$95,507.43

0.40%

ETH

$3,612.81

0.07%

BNB

$652.03

2.86%

XRP

$2.67

17.34%

SOL

$226.80

0.17%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше