Підписуйтеся на наш телеграм канал!

Понад 60 країн погодилися з необхідністю контролю за зброєю зі штучним інтелектом
З появою штучного інтелекту стало зрозуміло, що рано чи пізно його буде задіяно у військових цілях, після чого виникла низка серйозних етичних проблем. Наприклад — як ШІ розпорядиться правом на знищення людей, якщо воно йому буде надано.
Минулого тижня в Гаазі відбулася перша міжнародна конференція з відповідального використання штучного інтелекту у військовій сфері REAIM 23, скликана за ініціативою Нідерландів і Південної Кореї, за участю понад 60 країн.
За підсумками саміту його учасники (за винятком Ізраїлю) підписали петицію про те, що країни, які вони представляють, висловлюють прихильність використанню ШІ відповідно до міжнародного права, не підриваючи принципів «міжнародної безпеки, стабільності та підконтрольності».
Серед питань, які також обговорили учасники REAIM 23, — надійність військового ШІ, ненавмисні наслідки його використання, ризики ескалації та ступінь залученості людей до процесу ухвалення рішень.
На думку критично налаштованих експертів, ця петиція, будучи необов’язковою до виконання, не розв’язує багатьох проблем, включно з використанням ШІ у військових конфліктах, а також БПЛА під управлінням штучного інтелекту.
І такі побоювання далеко небезпідставні. Так, один із найбільших військових підрядників США Lockheed Martin повідомив про те, що його новий навчальний винищувач, перебуваючи в повітрі приблизно 20 годин, увесь цей час керувався ШІ. А гендиректор Google Ерік Шмідт поділився своїми побоюваннями з приводу того, що ШІ може сам спровокувати військові конфлікти, зокрема із застосуванням ядерної зброї.