Підписуйтеся на наш телеграм канал!
Розробники ChatGPT відстежуватимуть ризики штучного інтелекту, щоб врятувати людство
Компанія-розробник найвідомішого чат-бота у світі OpenAI впроваджує нові заходи безпеки для боротьби з можливими загрозами штучного інтелекту. Спеціалісти створили «консультативну групу з безпеки», яка контролюватиме роботу технічних команд та даватиме рекомендації керівництву.
Раді директорів OpenAI надано право вето щодо рішень гендиректора. Ці заходи, як вважає Сем Альтман, що повернувся до управління OpenAI, дозволять компанії зняти питання прозорості та безпеки роботи над передовими системами ШІ. Одним із ключових компонентів нової системи безпеки є використання «оцінювальних карток» ризиків для моделей ШІ, які відстежують різні показники потенційної шкоди, такі як можливості моделі, вразливості та наслідки.
Передбачаються різні заходи для пом’якшення наслідків, наприклад, стриманість ChatGPT в описі процесу виготовлення напалму або саморобних бомб. Якщо після вживання заходів щодо зниження ризику, модель, як і раніше, оцінюється як така, що має «високий ризик», її не запускатимуть.
Декількома днями раніше компанія Anthropic, заснована колишніми дослідниками OpenAI, опублікувала свою політику відповідального масштабування ШІ. Розробники представили структуру, що визначає конкретні рівні безпеки ШІ та відповідні протоколи для розробки та впровадження моделей.
Нагадаємо — на початку грудня компанії IBM і Meta оголосили про створення AI Alliance — альянсу з більш ніж 50 компаній, що займаються штучним інтелектом, і дослідницьких інститутів, які просувають відкриту модель ШІ. Головна мета коаліції - сприяти розвитку «відкритих інновацій і відкритої науки» у галузі ШІ, спираючись на принципи відкритого вихідного коду та співробітництво між великими корпораціями, вченими й незалежними розробниками.