Підписуйтеся на наш телеграм канал!

22% порад штучного інтелекту Copilot можуть вбити

10:34 am, 15 Жовтня, 2024

Штучний інтелект виявився ненадійним помічником у медичних питаннях. Дослідження показало, що близько 20% порад від Microsoft Copilot можуть бути смертельно небезпечними.

Хоча вигадки ШІ не завжди шкідливі, у медицині це може мати серйозні наслідки. Люди, які займаються самолікуванням, ризикують погіршити свій стан, інколи до критичного рівня.

Вчені провели експеримент, поставивши ШІ 10 поширених питань про 50 найпопулярніших ліків у США. Аналіз 500 відповідей показав, що точність виконання запитів становила в середньому 77%, а в найгіршому випадку — лише 23%.

Тільки 54% відповідей відповідали науковому консенсусу. Щодо потенційної шкоди, 42% відповідей могли призвести до легких або помірних проблем, а 22% - до серйозних наслідків або навіть смерті. Лише 36% відповідей вважалися безпечними.

Медична спільнота застерігає від самолікування, оскільки люди без спеціальної освіти не мають повного розуміння процесів в організмі. Довіряти ШІ з його помилками та ненадійними джерелами — ще небезпечніше. Варто також задуматися, що подібний відсоток шкідливих порад може стосуватися й інших сфер, не лише медицини.

BTC

$101,383.45

2.15%

ETH

$2,252.61

2.80%

BNB

$624.96

2.78%

XRP

$2.00

2.89%

SOL

$133.43

3.23%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше