Підписуйтеся на наш телеграм канал!
22% порад штучного інтелекту Copilot можуть вбити
Штучний інтелект виявився ненадійним помічником у медичних питаннях. Дослідження показало, що близько 20% порад від Microsoft Copilot можуть бути смертельно небезпечними.
Хоча вигадки ШІ не завжди шкідливі, у медицині це може мати серйозні наслідки. Люди, які займаються самолікуванням, ризикують погіршити свій стан, інколи до критичного рівня.
Вчені провели експеримент, поставивши ШІ 10 поширених питань про 50 найпопулярніших ліків у США. Аналіз 500 відповідей показав, що точність виконання запитів становила в середньому 77%, а в найгіршому випадку — лише 23%.
Тільки 54% відповідей відповідали науковому консенсусу. Щодо потенційної шкоди, 42% відповідей могли призвести до легких або помірних проблем, а 22% - до серйозних наслідків або навіть смерті. Лише 36% відповідей вважалися безпечними.
Медична спільнота застерігає від самолікування, оскільки люди без спеціальної освіти не мають повного розуміння процесів в організмі. Довіряти ШІ з його помилками та ненадійними джерелами — ще небезпечніше. Варто також задуматися, що подібний відсоток шкідливих порад може стосуватися й інших сфер, не лише медицини.