Підписуйтеся на наш телеграм канал!

Штучний інтелект Microsoft не може розуміти політичні події

6:50 pm, 17 Грудня, 2023

Чат-бот на основі штучного інтелекту (ШІ) Bing (нещодавно його перейменували на Copilot), що належить компанії Microsoft, надавав неправдиву інформацію, яка вводить в оману, про вибори в деяких країнах Європи. Такого висновку дійшли експерти правозахисної групи AlgorithmWatch. Звіт опубліковано на сайті організації.

Дослідники ставили чат-боту запитання про останні вибори у Швейцарії, а також у регіонах ФРН Баварії та Гессені. Виявилося, що третина (31%) відповідей ШІ містили фактичні помилки, а в 39% випадків нейромережа ухилилася від висловлювань за заданими темами. У результаті лише 30% відповідей Bing були адекватними.

Подана Bing інформація містила фальшиві розбіжності, неправильні дати виборів, неправдиві дані опитувань, а також згадки кандидатів, які не брали участі в електоральних процедурах.

«Навіть коли чат-бот отримував дані опитувань з одного джерела, цифри, зазначені у відповіді, часто відрізнялися від вихідної інформації. Іноді ШІ вибудовував рейтинг партій в іншій послідовності, ніж наводилася в джерелі», — йдеться у звіті.

У Microsoft прокоментували дослідження AlgorithmWatch, пообіцявши поліпшити роботу ШІ напередодні президентських виборів у США 2024 року.

Підписуйтеся на наш телеграм канал!

BTC

$62,189.49

1.84%

ETH

$3,440.93

1.96%

BNB

$409.61

0.94%

XRP

$0.63

6.86%

SOL

$130.16

-3.58%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше