Спустя 3 недели после внедрения «Самсунгом» чат-бота ChatGPT произошло не менее трех утечек конфиденциальной информации о полупроводниках, что вызвало опасения по поводу нарушения конфиденциальности и безопасности данных.
Подробности
Утечки произошли, когда сотрудники южнокорейского бренда ввели в ChatGPT конфиденциальные данные измерений полупроводникового оборудования и исходный код. В результате эта информация становилась частью базы данных обучения ИИ, доступной для всех пользователей ChatGPT, а не только для сотрудников “Самсунга”.
Первая утечка произошла, когда сотрудник отдела решений для полупроводников и устройств ввел в ChatGPT исходный код, относящийся к базе данных измерений полупроводникового оборудования, чтобы найти быстрое решение проблемы. Вторая утечка произошла, когда другой работник ввел код, связанный с оптимизацией, а третья – при запросе на создание протокола собрания.
«Самсунг» принял меры для предотвращения дальнейших утечек, в том числе проинструктировал сотрудников быть осторожными с данными, которыми они делятся с ChatGPT, и ограничил объем каждой записи максимум 1 024 байтами. Компания также уточнила, что после попадания информации в чат-бот ИИ происходит ее передача на внешние серверы, откуда ее невозможно удалить.
Этот инцидент подчеркивает необходимость взвешивания потенциальных рисков и преимуществ внедрения чат-ботов ИИ на рабочих местах. Хотя чат-боты ИИ могут повысить эффективность и оптимизировать процессы, они также требуют надлежащих мер предосторожности и обучения для обеспечения конфиденциальности и безопасности информации.