Підписуйтеся на наш телеграм канал!
Штучний інтелект Microsoft не може розуміти політичні події
Чат-бот на основі штучного інтелекту (ШІ) Bing (нещодавно його перейменували на Copilot), що належить компанії Microsoft, надавав неправдиву інформацію, яка вводить в оману, про вибори в деяких країнах Європи. Такого висновку дійшли експерти правозахисної групи AlgorithmWatch. Звіт опубліковано на сайті організації.
Дослідники ставили чат-боту запитання про останні вибори у Швейцарії, а також у регіонах ФРН Баварії та Гессені. Виявилося, що третина (31%) відповідей ШІ містили фактичні помилки, а в 39% випадків нейромережа ухилилася від висловлювань за заданими темами. У результаті лише 30% відповідей Bing були адекватними.
Подана Bing інформація містила фальшиві розбіжності, неправильні дати виборів, неправдиві дані опитувань, а також згадки кандидатів, які не брали участі в електоральних процедурах.
«Навіть коли чат-бот отримував дані опитувань з одного джерела, цифри, зазначені у відповіді, часто відрізнялися від вихідної інформації. Іноді ШІ вибудовував рейтинг партій в іншій послідовності, ніж наводилася в джерелі», — йдеться у звіті.
У Microsoft прокоментували дослідження AlgorithmWatch, пообіцявши поліпшити роботу ШІ напередодні президентських виборів у США 2024 року.