Підписуйтеся на наш телеграм канал!


Через штучний інтелект ChatGPT працівники Samsung злили конфіденційну інформацію
Згідно з даними закордонних видань, у компанії Samsung стався витік конфіденційної інформації через неправильне використання чат-бота ChatGPT. Три тижні тому співробітники південнокорейського технологічного гіганта почали використовувати чат-бот, що призвело до ненавмисного розголошення важливих даних.
Витік даних відбувся, коли один зі співробітників Samsung поділився з чат-ботом вихідним кодом із внутрішнього репозиторію, що стосується напівпровідникового обладнання, щоб оптимізувати код. Працівник попросив ШІ знайти вирішення задачі, не враховуючи, що це може призвести до передачі інформації в базу чат-бота. Інші працівники також намагалися оптимізувати код у такий же спосіб. Третій витік стався, коли співробітник запросив у ШІ розробити протокол зустрічі, ввівши чат-боту у запиті інформацію, що знаходиться під NDA (договір про конфіденційність).
Керівництво Samsung вжило заходів, щоб запобігти повторенню подібних ситуацій. Відтепер співробітникам заборонено ділитися з чат-ботом будь-якою конфіденційною інформацією та чутливими для бізнесу даними компанії. У компанії обмежили розмір кожного запиту до ChatGPT до 1024 байт із робочих ПК.
Раніше Amazon попросила своїх співробітників не ділитися конфіденційною інформацією з ChatGPT через появу у відповідях чат-бота даних, дуже схожих на внутрішні матеріали компанії. Також наприкінці лютого Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo та JPMorgan Chase заборонили своїм співробітникам використовувати чат-бота ChatGPT у робочих цілях навіть у найпростіших завданнях. Компанії з’ясували, що ChatGPT та подібні системи видають часто неактуальну чи хибну інформацію, використання якої може призвести до значних прорахунків на фінансовому ринку та збитків.