Posted 2 мая 2023, 13:09
Published 2 мая 2023, 13:09
Modified 7 марта, 11:34
Updated 7 марта, 11:34
Как сообщает «Коммерсант» со ссылкой на данные Bloomberg, поводом для скандала с утечкой чувствительных данных стала неосторожность инженеров компании Samsung Electronics, которые загрузили в нейросеть исходный код одного из продуктов Samsung. В результате код оказался в открытом доступе.
После такого недоразумения Samsung Electronics строжайше запретила всем своим сотрудникам использование чат-ботов с искусственным интеллектом типа ChatGPT, Bard или Bing на корпоративных компьютерах, телефонах, планшетах и прочих устройствах.
В письме к сотрудникам руководство компании отметило, что платформы на основе ИИ интересны и эффективны, однако нельзя пренебрегать мерами безопасности. Работников предупредили, что если они решат пообщаться с чат-ботами, им запрещается загружать в нейросети конфиденциальную информацию компании.
Те, кто нарушат запрет, будут уволены.
Ранее аналогичный запрет на использование чат-ботов в США ввели ряд банков. Кроме того, ограничения разработали итальянские власти. В России использование программ с ИИ уже привело к серии скандалов. В частности, в отношении одного из студентов РГГУ начали проверку после того, как в соцсетях он заявил, что дипломный проект за него, отвечая на наводящие вопросы, всего лишь за 24 часа написала программа ChatGPT. По итогам расследования студента решили все же не наказывать. В Минобре предложили считать произошедшее «проверкой знаний студента».