Підписуйтеся на наш телеграм канал!
Штучний інтелект, який сам генерує програмний код, може загрожувати безпеці продукту
Дослідники зі Стенфордського університету довели, що програмісти, які використовують системи ШІ для генерації коду, з більшою ймовірністю спричинять вразливості безпеки у кінцевому продукті. Науковців стривожило те, що неякісний код можна знайти у відкритому доступі на GitHub, й чимало розробників не гребують його продавати.
«Системи генерації коду наразі не замінюють програмістів-людей», — підкреслив Ніл Перрі, доктор філософії в Стенфордському університеті та провідний співавтор дослідження. — «Розробникам, які використовують штучний інтелект для виконання завдань поза межами своєї компетенції, слід хвилюватися. А тим, хто використовує алгоритми для прискорення завдань, варто ретельно перевірити результати та контекст, у якому вони використовуються, перш ніж демонструвати готовий продукт».
У Стенфордському дослідженні розглянуто ШІ Codex — алгоритм, розроблений дослідницькою лабораторією OpenAI. Вчені залучили 47 розробників — в експерименті взяли участь як студенти-програмісти, так і професіонали галузі з десятиліттями досвіду програмування. Codex тестували для розв’язання проблем, пов’язаних із безпекою на мовах програмування Python, JavaScript і C.
За словами вчених, учасники дослідження, які програмували з Codex, частіше писали «неправильні та ризиковані» з погляду кібербезпеки коди. Ще більше занепокоєння викликало те, що і профі, і аматори були впевнені у правильності написання коду.
Науковці акцентували, що результати не є дискредитацією Codex та інших систем генерування коду. Учасники дослідження не мали досвіду у галузі кібербезпеки, який міг би їм краще виявляти вразливості. Крім цього, вчені вважають, що системи генерування коду надійно допомагають у задачах, які не мають високого ступеня ризику.
Нагадаємо — на початку грудня дослідницька технологічна компанія OpenAI розробила чат-бота ChatGPT, який вміє відповідати на запитання, шукати помилки у смартконтрактах та відхиляти недоречні запити. Деякі користувачі Twitter припустили, що бот потенційно може бути використаний як з добрими намірами, так і з шахрайськими. Алгоритм, до слова, вже встиг покритикувати Віталік Бутерін. За словами розробника, ChatGPT допустив ряд помилок, коли він попросив ШІ надати конкретні фрагменти коду за запитом. Батько ефіріума, як і стенфордські науковці, дійшов висновку, що штучний інтелект не зможе замінити людей-програмістів у найближчому майбутньому.