Підписуйтеся на наш телеграм канал!

Американський вчений вважає, що штучний інтелект загрожує людству повним вимиранням

12:15 pm, 7 Вересня, 2022

У своїй статті для The Washington Post американський вчений Еміль Торрес роздумує над доцільністю створення суперінтелекту. За його словами, сила ASI (асихронного послідовного інтерфейсу) значно перевершить когнітивні здібності людства. У майбутньому це може стати основною причиною вимирання населення планети.

Торрес вважає, що дослідження штучного інтелекту необхідно уповільнити чи навіть призупинити. Якщо вчені не зроблять цього, рішення мають ухвалити уряди.

«Здається, це лише питання часу, коли комп’ютери стануть розумнішими за людей. Це один із прогнозів, у якому ми можемо бути впевнені, тому що ми вже його бачимо. Багато систем набули надлюдських здібностей у певних завданнях — грі в скрабл, шахи та покер. Тепер люди регулярно програють ботам», — пояснює вчений.

Згідно з опитуванням науковців, існує 50%-а ймовірність досягнення «машинного інтелекту на рівні людини» до 2050 року та 90%-а до 2075 року. Інше дослідження Інституту глобальних катастрофічних ризиків виявило щонайменше 72 проекти по всьому світу, які займаються створенням суперінтелекту або ж ASI.

Торрес описує переваги суперінтелекту: ASI може допомогти вилікувати рак і хворобу Альцгеймера, очистити довкілля та слідкувати за високим рівнем екології планети. Але аргументи на користь того, чому ASI може знищити людство, теж вагомі - оскільки когнітивні функції ASI можуть кардинально відрізнятися від наших, їх неможливо буде передбачити.

«Неясно, чи буде людство коли-небудь готове до суперінтелекту, але зараз ми точно не готові», — підсумовує дослідник.

Підписуйтеся на наш телеграм канал!

BTC

$64,275.79

1.39%

ETH

$3,097.79

1.16%

BNB

$560.69

2.08%

XRP

$0.51

0.82%

SOL

$144.98

3.55%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше