Підписуйтеся на наш телеграм канал!

Штучний інтелект навчився обманювати інші нейромережі і через це деградувати
Вчені з Університетів Оксфорда та Кембриджа опублікували наукову статтю про ризики розповсюдження контенту, створеного штучним інтелектом. Згідно з дослідженням, великі мовні моделі (LLM, Large Language Models) становлять серйозну загрозу одна одній. Можливо, згодом вони почнуть видавати менш якісні відповіді, оскільки навчаються на даних із відкритих інтернет-ресурсів, генерованих іншими ШІ.
Феномен назвали «model collapse» (колапс моделі). Інші фахівці зі Стенфорда та Університету Райса назвали його «Model Autography Disorder» (розлад самозапису моделі). Джатан Садовскі, австралійський дослідник, також запровадив свій термін — «Габсбурзький ШІ».
Точних прогнозів поки немає, але експерти вважають, що через «самопожираючий» цикл розвитку LLM виявляти джерела навчальної інформації стане в рази складніше. Рей Ванг, генеральний директор компанії Constellation Research, вважає, що «для відкритого інтернету незабаром настануть темні часи». За словами Ванга, може статися таке, що достовірні джерела почнуть обмежувати доступ до свого контенту, впроваджувати платні підписки.
Компанія NewsGuard, яка знаходить фейки, нещодавно виявила в мережі 452 ненадійних ресурси з ШІ-генерованими новинами. Багато фахівців підтверджують: детектори контенту, такі як ZeroGPT та Text Classifier від OpenAI, є недостатньо надійними.
Нагадаємо — у травні цього року китайська влада затримала чоловіка за використання ChatGPT для написання фейкових новин. Це стало першим випадком арешту за зловживання штучним інтелектом. Чоловік на прізвище Хонг «використовував сучасні технічні засоби для виготовлення підробленої інформації та поширював її у соціальних мережах», — повідомили представники Міністерства громадської безпеки провінції Ганьсу.