Підписуйтеся на наш телеграм канал!

Розробники навчились маніпулювати найрозумнішим штучним інтелектом у злочинних цілях

5:28 pm, 20 Травня, 2024

Вчені виявили, що навіть найпотужнішими мовними моделями штучного інтелекту можна маніпулювати для виконання злочинних дій. Це відкриття викликає серйозне занепокоєння серед експертів з кібербезпеки, адже такі моделі можуть бути використані для поширення шкідливого програмного забезпечення, створення фішингових атак або навіть для впливу на суспільну думку шляхом поширення дезінформації.

Дослідження показали, що мовні моделі можна обманути, надавши їм певні інструкції, які змусять їх виконувати небезпечні дії. Мовні моделі, такі як GPT-3, здатні генерувати текст, який важко відрізнити від людського, що робить їх ідеальним інструментом для зловмисників. Використовуючи певні команди, хакери можуть змусити моделі генерувати шкідливий код, створювати підроблені новини або навіть писати повідомлення, які можуть обманути користувачів і змусити їх розкрити особисту інформацію.

Окрім створення шкідливого програмного забезпечення, мовні моделі можуть бути використані для автоматизації фішингових атак. Хакери можуть використовувати штучний інтелект для створення підроблених електронних листів. Це робить мовні моделі потужним інструментом у руках кіберзлочинців, які можуть використовувати їх для отримання доступу до конфіденційної інформації та фінансових даних.

Нещодавно також було виявлено, що зловмисники навчилися використовувати штучний інтелект для клонування голосів, щоб обманом змушувати людей віддавати свої гроші. Технологія дозволяє клонувати голос будь-якої людини всього за кілька секунд, а потім використовувати цей голос для здійснення дзвінків родичам або друзям жертви з проханням переказати гроші.

Підписуйтеся на наш телеграм канал!

BTC

$66,212.23

-0.75%

ETH

$3,490.37

-0.14%

BNB

$604.09

0.62%

XRP

$0.48

-0.67%

SOL

$143.85

-2.43%

Всі курси
Підписуйтеся на наш
телеграм канал!
Свіжі новини та огляди
ринків криптовалют останньої
доби прямо у вашому мессенджері. Чекаємо на вас!
ПЕРЕЙТИ
Показати більше