Підписуйтеся на наш телеграм канал!

Розробники Meta працюють над створенням безкомпромісного штучного інтелекту, який неможливо зламати
Meta готується до випуску чергової версії своєї моделі штучного інтелекту під назвою Llama 3. На відміну від консервативного підходу в Llama 2, де Meta уникала будь-яких піар-скандалів, нова Llama 3 покликана розрізняти небезпечний і шкідливий зміст слів з подвійним значенням.
Для цього в команді є фахівець, який займатиметься навчанням моделі і відповідатиме за те, щоб її відповіді стали більш гнучкими. Однак тільки за останній місяць Meta залишили відразу троє провідних експертів у сфері безпеки ШІ, наразі невідомо, як це позначиться на якості розробки.
Не повідомляється, чи стане Llama 3 мовною моделлю, подібно до Llama 2, чи мультимодальною, здатною розуміти і генерувати не тільки текст, а й зображення. Згідно з наявними даними, ця модель, що розробляється як альтернатива GPT-4, може містити до 140 млрд параметрів. Це приблизно вдвічі більше, ніж у попередній версії. Проте, 140 млрд параметрів — лише частина від заявленого обсягу GPT-4, яка спочатку повинна була бути ще масштабнішою.
Навчання Llama 3 поки не почалося, але очікується, що за якістю генерації вона все ж таки досягне рівня GPT-4. Нагадаємо, випуск Llama 2 відбувся у липні минулого року.
У 2023 році компанія Meta також створила комплекс інструментів з безпеки та оцінки генеративних моделей штучного інтелекту на запит Білого Дому. Набір інструментів отримав назву Purple Llama — він призначений для безпечної взаємодії розробників з інструментами генеративного ШІ, включно з відкритою моделлю Meta, Llama-2.