Підписуйтеся на наш телеграм канал!
Чат-бот ChatGPT став ефективним джерелом генерування дезінформації
Розробник-ентузіаст створив «машину дезінформації», використовуючи штучний інтелект від OpenAI — ChatGPT. Проект під назвою CounterCloud зайняв у ІТ-фахівця два місяці й коштував менше ніж $ 400 на місяць. Про це пише Insider.
Автор алгоритму, відомий під псевдонімом Nea Paw, називає себе «фахівцем з кібербезпеки». Свою розробку він пояснив так: «Я прагнув побачити, як ШІ-дезінформація працює в реальному світі. Сильні мовні компетенції великих мовних моделей ідеально підходять для читання і написання фейкових новин».
Paw розповів, що він розпочав з введення «протилежних» статей у ChatGPT і написання підказок, які вказували ШІ, як створити контрстаттю. Потім ШІ-бот пропонував різні приклади однієї і тієї ж статті, написані в різних стилях і з різних точок зору.
За словами розробників, чат-бот робив це, «створюючи фейкові історії, фейкові історичні події й сіючи сумніви щодо точності оригінальної статті».
Пізніше було додано так званий «модуль воротаря», щоб ШІ реагував лише на найбільш релевантний контент, а для створення правдивості використовувалися аудіозаписи дикторів, які читають фейкові статті, згенеровані ШІ.
Також були створені фейкові профілі журналістів і фейкові коментарі під деякими статтями. Далі системі було наказано лайкати і репостити повідомлення, які відповідали її наративу, або писати «зустрічні» твіти на ті, що не підпадали під пропагандистський патерн.
Через два місяці Paw отримав повністю автономну систему на базі штучного інтелекту, яка генерувала «переконливий контент 24 години на добу, сім днів на тиждень».
Розробник зазначив, що ШІ-модель не працює в інтернеті і не веде прямих ефірів, оскільки «це означало б активне поширення дезінформації та пропаганди». «Як тільки джин з’явиться в інтернеті, невідомо, де він опиниться», — зазначив Paw.
Він додав, що більше користі принесла б публікація CounterCloud на репозиторії у вільному доступі, а також роз’яснення громадськості про те, як працюють такі ШІ-системи зсередини.
Загроза, яку ШІ становить для демократії через свою здатність прискорювати створення і поширення дезінформації в інтернеті, була визнана однією з найбільших проблем у дебатах про ШІ.
Генеральний директор OpenAI Сем Альтман сам нещодавно висловив занепокоєння з цього приводу, заявивши, що «персоналізоване переконання 1:1 [ШІ:людина] у поєднанні з високоякісними медіа, що генеруються, стане рушійною силою».