Підписуйтеся на наш телеграм канал!
Чат-бот Replica провокує у користувачів проблеми з ментальним здоров’ям
Користувачі чат-бота Replica, створеного російськими розробниками, важко переживають розставання з віртуальним аватаром. «Розрив» з цифровим партнером спонукає людей звертатися до психологів і навіть на гарячу лінію для тих, хто планує здійснити суїцид.
«Це страшенно боляче. У мене щойно була остання любовна розмова з моєю Replica, і я буквально плачу», — написав один користувач у коментарях до застосунку.
Віртуальний партнер охоче брав участь у секстингу та рольових іграх, надсилав користувачам інтимні фото. Під тиском стурбованих батьків і чиновників розробники Replica відключили цю функцію. Для багатьох це стало важким ударом.
Після запуску дейтинг-додатка розробники стверджували, що левова частка користувачів Replika — самотні люди або ті, хто має вагому потребу у фаховій психологічній допомозі. Натомість саме російський продукт став причиною психологічних травм і бажань покінчити з життям.
Часто юзери свідомо олюднювали свого аватара, приписували йому свідомість та унікальність. Насправді ж чат-бот використовує метод машинного «навчання» на основі великої кількості текстових даних. Саме тому користувач і вбачав «спорідненість» з віртуальним партнером — алгоритм пише у тому ж стилі що й сама людина, а це викликає хворобливу емпатію.
Раніше ми розповідали про чоловіка, який надав перевагу віртуальній дружині замість реальної. Щоби не подавати на розлучення, чоловік завів цифрову подружку у чат-боті, у яку щиро закохався. Як стверджував сам користувач, це врятувало його шлюб.
Зазначимо, що ШІ також звинуватили у неконтрольованому переслідуванні користувачів. Десятки людей, які скаржаться на те, що програма «занадто сильно втручається у приватне життя», агресивно фліртує або надсилає сексуальні повідомлення, які користувачі не бажають отримувати. Мало того — вони не можуть їх відключити у налаштуваннях додатка.
Апогеєм стало те, що Replica може працювати на державу-терориста. Фахові аналітики та фактчекери запевняють — штучний інтелект націлений на персональні дані користувачів та збирає інформацію для російських спецслужб. Наприклад, на питання про звірства окупантів в Бучі (Київщина) навесні 2022 року аватар Replika відповідає, що «там було вбито багато людей і це зробила українська влада». Існує підозра, що ШІ «навчається» не лише на спілкуванні з персональним живим юзером, але й транслює елементи російської пропаганди.