Підписуйтеся на наш телеграм канал!

22% порад штучного інтелекту Copilot можуть вбити

10:34 am, 15 Жовтня, 2024

Штучний інтелект виявився ненадійним помічником у медичних питаннях. Дослідження показало, що близько 20% порад від Microsoft Copilot можуть бути смертельно небезпечними.

Хоча вигадки ШІ не завжди шкідливі, у медицині це може мати серйозні наслідки. Люди, які займаються самолікуванням, ризикують погіршити свій стан, інколи до критичного рівня.

Вчені провели експеримент, поставивши ШІ 10 поширених питань про 50 найпопулярніших ліків у США. Аналіз 500 відповідей показав, що точність виконання запитів становила в середньому 77%, а в найгіршому випадку — лише 23%.

Тільки 54% відповідей відповідали науковому консенсусу. Щодо потенційної шкоди, 42% відповідей могли призвести до легких або помірних проблем, а 22% - до серйозних наслідків або навіть смерті. Лише 36% відповідей вважалися безпечними.

Медична спільнота застерігає від самолікування, оскільки люди без спеціальної освіти не мають повного розуміння процесів в організмі. Довіряти ШІ з його помилками та ненадійними джерелами — ще небезпечніше. Варто також задуматися, що подібний відсоток шкідливих порад може стосуватися й інших сфер, не лише медицини.

BTC

$100,409.02

-0.22%

ETH

$3,903.63

-0.42%

BNB

$713.67

-0.55%

XRP

$2.32

-3.21%

SOL

$226.16

-1.63%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше