Підписуйтеся на наш телеграм канал!

Штучний інтелект у майбутньому зможе самостійно визначати долю людства
Ден Гендрікс, науковець, дослідник і директор американського Центру безпеки штучного інтелекту написав свіжу статтю «Природний відбір надає перевагу ШІ, а не людям». У ній дослідник припускає, що еволюція зараз перебуває на тій стадії, коли вона може призвести до «егоїстичної поведінки» штучного інтелекту. Гендрікс вважає, що згодом ШІ досягне такого рівня усвідомленості, що сам почне боротися за життя.
«Ми стверджуємо, що природний відбір створює стимули для ШІ-агентів діяти всупереч інтересам людини. Наш аргумент ґрунтується на двох спостереженнях. По-перше, природний відбір може стати домінантною силою у розвитку ШІ. По-друге, еволюція шляхом природного відбору має тенденцію породжувати егоїстичну поведінку», — пише у статті науковець.
Згідно з традиційним визначенням природного відбору, тварини, люди та інші організми, які найшвидше адаптуються до навколишнього середовища, мають більше шансів на виживання. У своїй статті Гендрікс стверджує, що «дарвінівську логіку» цілком можна застосувати й до штучного інтелекту.
«Конкурентний тиск між корпораціями та військовими призведе до появи ШІ-агентів, які з часом автоматизують людські ролі, почнуть обманювати суспільства і врешті доберуться до влади. Якщо такі агенти матимуть інтелект, який перевищуватиме людський, це може призвести до того, що люди попросту втратять контроль над своїм майбутнім», — вважає Гендрікс.
За словами дослідника, ШІ-технології стають дедалі дешевшими й ефективнішими, тому компанії все частіше покладатимуться на алгоритми. І якщо спочатку людина довірятиме машині прості рутинні завдання на кшталт надсилання електронної пошти, у майбутньому ШІ можуть довірити й ухвалення «стратегічних рішень високого рівня».
Гендрікс впевнений — чим більше у конкретної ШІ-моделі буде повноважень без якихось обмежень, тим швидше вона захоче вийти за межі своєї юрисдикції і якимось чином «нашкодити» людині. Дослідник стурбований, що прояв егоїзму ШІ не буде чимось незвичайним, і рано чи пізно алгоритм почне діяти виключно у своїх власних інтересах.
«Багато компаній, що освоюють ШІ, прагнуть досягти переваги цієї технології. Вони відірвані від громадськості та піддають ризику суспільство. Більшість людей вважає, що ШІ може становити реальну екзистенційну загрозу для людства. Лише критична меншість заявляє, що ШІ принесе більше користі, ніж шкоди», — рефлексує вчений.
Дослідник упевнений, що ШІ вже зараз здатен «зрозуміти» людську психологію і поведінку. Він прогнозує, що згодом нейромережеві моделі без зусиль зможуть обманювати людей і маніпулювати ними для досягнення власних цілей. При цьому лише жорстке обмеження повноважень ШІ, тут і зараз, може допомогти уповільнити розвиток у машин «дарвінівської логіки».
Швидке розширення можливостей ШІ вже багато років перебуває у центрі уваги всього світу, але особливо помітним стало лише зараз. Нагадаємо — понад 1000 експертів у галузі штучного інтелекту та представників IT-індустрії нещодавно закликали ввести піврічний мораторій на навчання більш продуктивних ШІ-систем, ніж GPT-4 від OpenAI.