Samsung забороняє співробітникам використовувати популярні AI-інструменти, як-от ChatGPT. Причина — хтось завантажив приватний код компанії в чатбота.
У квітні інженери Samsung виклали вихідний код в ChatGPT. Невідомо, що саме містила ця інформація, проте керівництво компанії залишилось незадоволеним. Після випадку у Samsung провели опитування — 65% респондентів погодились, що генеративні мовні моделі становлять загрозу безпеці.
У новому службовому листуванні компанія зазначила, що стурбована системами як Google Bard і Bing, бо вони «зберігаються на зовнішніх серверах». На думку Samsung, це може призвести до розголошення конфіденційних даних третім особам.
Тепер штучний інтелект заборонили на комп’ютерах, планшетах і телефонах, що належать компанії, а також у її внутрішніх мережах. Також Samsung попросила співробітників, не передавати ChatGPT інформацію, пов’язану з компанією, або персональні дані. За порушення правил обіцяють покарати звільненням.
Попри свою боротьбу з AI-ботами, Samsung вже створює власні внутрішні інструменти штучного інтелекту. Їх планують використовувати для перекладу та узагальнення документів, а також для розробки ПЗ.
Раніше ми розповідали, як ChatGPT може вести канал в Telegram за людину. Й поки людство звикає до нової технології, OpenAI, яка створила ChatGPT, почне платити за знайдені баги у своєму чат-боті.