Вероятность утечки конфиденциальной информации при работе с крупными нейросетевыми платформами сохраняется, несмотря на меры безопасности. Как пояснил основатель AI-платформы Clipstorm Тимур Турсунов, инцидент с инженерами Samsung в апреле 2023 года продемонстрировал потенциальные риски, когда секретный код компании оказался на серверах ChatGPT.
Современные системы, включая Grok и OpenAI, работают по принципу изоляции пользовательских данных, однако полную гарантию конфиденциальности исключить нельзя. Особую опасность представляют различные надстройки и производные продукты на базе нейросетей, которые могут самостоятельно хранить введенную информацию.
Специалист рекомендует воздерживаться от передачи паролей, банковских реквизий и паспортных данных в любые нейросетевые сервисы. Обсуждение условий сделок и сотрудничества допустимо, но финансовые операции и обработка персональной информации должны осуществляться исключительно через защищенные процессинговые платформы.