Нещодавно компанія Samsung представила своїм співробітникам ChatGPT , чат-бота зі штучним інтелектом, щоб оптимізувати процеси та підвищити бізнес виробництва мікросхем. Однак лише через три тижні сталося три витоки конфіденційної інформації про напівпровідники, що викликало занепокоєння щодо безпеки даних і порушень конфіденційності.
Витік стався, коли співробітники Samsung ввели конфіденційну інформацію, таку як дані вимірювань напівпровідникового обладнання та вихідний код, у ChatGPT. У результаті ця інформація стала частиною навчальної бази даних ШІ, доступною не лише для Samsung, але й для всіх, хто використовує ChatGPT.
Перший витік стався, коли співробітник відділу Semiconductor and Device Solutions ввів у ChatGPT вихідний код, пов’язаний із базою даних вимірювань напівпровідникового обладнання, щоб знайти швидке вирішення проблеми. Другий витік стався, коли інший співробітник ввів код, пов’язаний з прибутковістю та оптимізацією, а третій витік стався, коли співробітник попросив ChatGPT створити протокол зустрічі.
Samsung вжила заходів, щоб запобігти подальшим витокам, зокрема наказала співробітникам бути обережними щодо даних, якими вони діляться з ChatGPT, і обмежила ємність кожного запису максимум 1024 байтами. Компанія також уточнила, що як тільки інформація надходить до чат-бота AI, вона передається на зовнішні сервери, де її неможливо відновити або видалити.
Цей інцидент підкреслює важливість безпеки даних і необхідність для компаній уважно розглянути потенційні ризики та переваги впровадження чат-ботів ШІ на своїх робочих місцях. Хоча чат-боти штучного інтелекту можуть підвищити ефективність і оптимізувати процеси, вони також потребують належних заходів безпеки та навчання для забезпечення конфіденційності та безпеки конфіденційної інформації.