Підписуйтеся на наш телеграм канал!

Вчені назвали причину, яка заважає штучному інтелекту знищити людство ядерною зброєю

4:50 pm, 29 Вересня, 2023

Науковий співробітник Центру військової модернізації Кетрін Оуенс досліджує, чи може машина запустити ядерні ракети та знищити людську цивілізацію.

Як зазначила науковиця, роботів зі штучним інтелектом не збираються «допускати до кнопок запуску ядерної зброї» — це було прописано в рекомендаціях Комісії національної безпеки зі штучного інтелекту та в Огляді ядерної політики Міністерства оборони США. Однак це не означає, що військові технології та технології ШІ тримають окремо одна від одної. Навпаки, військові чиновники, дослідники та керівники оборонної промисловості планують збільшити роль ШІ у збройних силах і системах озброєнь, включно з ядерними.

На цей час існує два рівні технологій штучного інтелекту, що використовуються у військовому контексті. Перший — обчислення на основі правил. Людина-військовий задає правила «якщо-то» для програми ШІ, щоби вона могла генерувати відповіді при отриманні певних вхідних даних. Другий передбачає ШІ-програми, які використовують можливості машинного навчання для обробки мільйонів точок даних для виявлення і подальшого «вивчення» закономірностей. Що більше даних має доступ до програми, то краще вона може порівнювати й оцінювати сценарії.

Двома основними галузями, в яких ШІ вписується у військові системи, є системи командування, контролю та зв’язку, а також стратегічна безпека і моделювання військових ігор (wargame). За словами аналітикині, ці дві категорії вже зазнали удосконалень у сфері ШІ і є основним напрямком для його подальшого впровадження.

Штучний інтелект відіграє допоміжну роль у командуванні, управлінні та зв’язку систем ядерної зброї (NC3). Нейромережа робить це, перш за все, шляхом участі в оцінці ситуації, розробці та прогнозуванні заходів реагування, а також перерозподілу сил.

ШІ-технологія може отримувати та аналізувати структуровані дані із супутників, розвідувальних БПЛА та інших джерел. Своєю чергою, «неструктуровані дані» ШІ дістає з інтернет-джерел і вчиться виконувати так зване «кондиціонування даних».

Подальше впровадження ШІ стикається, на думку Кетрін Оуенс, з трьома основними перешкодами:

  • Парадокс людської участі. Люди часто упереджено ставляться до результатів, наданих ШІ, і намагаються власноруч зберігати контроль, а не довіряти алгоритмам.
  • Парадокс браку даних. Ядерні ракети запускають рідко і не застосовують для справжніх ударів, тому ефективність алгоритмів ШІ вельми обмежена — вони просто не можуть вивчити це явище і передбачити ядерний удар.
  • Парадокс глобальної ядерної безпеки ШІ. Штучний інтелект і його можливості машинного навчання дають людям більше часу для ухвалення обґрунтованих рішень. Це може як стабілізувати відносини між ядерними державами, як ще один інструмент стримування, так і загострити їх, якщо алгоритми ШІ здадуться серйозною загрозою для безпеки.

«Зрештою, зв’язок між технологією штучного інтелекту та ядерною зброєю визначається парадоксами», — пише науковиця. — «Попри ці суперечливі теми, штучний інтелект у військових технологіях нікуди не дінеться».

Підписуйтеся на наш телеграм канал!

BTC

$63,241.57

5.50%

ETH

$3,380.72

5.92%

BNB

$574.67

7.09%

XRP

$0.53

-0.17%

SOL

$153.78

5.87%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше