Специалист по IT Антон Запольский в колонке Донецкого агентства новостей рассказал, какую информацию не стоит передавать чат-ботам на основе искусственного интеллекта.
Какой бы чат-бот вы ни открыли — будь то помощник от крупной корпорации или экспериментальный стартап — важно помнить: каждый ваш ввод делает его умнее. Кто-то загружает медицинские обследования, кто-то — копирует код для исправления ошибок. Но специалисты по кибербезопасности и этике ИИ предостерегают: с машиной не стоит делиться тем, что вы не готовы отдать в чужие руки. Особенно если речь о паспортных данных, медицинской истории или коммерческой информации.
Компании, создающие ИИ, активно накапливают данные для улучшения моделей, однако сами просят пользователей быть осмотрительными. OpenAI прямо указывает: не передавайте боту конфиденциальную информацию. Google просит пользователей Gemini избегать ввода данных, которые вы не хотели бы раскрыть даже случайно.
Обсуждение личных проблем, ошибок на работе или просто приватных тем может быть использовано в обучающих выборках будущих ИИ — или утечь при кибератаке. Поэтому важно понимать, что именно нельзя писать чат-ботам, и как защитить свои данные при взаимодействии с ними.
Что не стоит писать чат-ботам:
- Личные данные. Номера паспортов, даты рождения, адреса и телефоны — все это может «утечь». OpenAI заявляет, что стремится обучать ИИ на общедоступной информации, а не на данных отдельных людей.
- Медицинские сведения. Если вы хотите анализировать результаты обследований с помощью ИИ, лучше предварительно удалить имя и другие личные данные из файлов.
- Финансовая информация. Номера карт, банковских счетов и реквизиты инвестиций — все это может быть использовано мошенниками при утечке.
- Корпоративные документы. Даже при написании делового письма лучше избегать использования ИИ, если в нем содержится информация о внутренней кухне вашего предприятия или, тем паче, данные, которые представляют коммерческую тайну.
- Пароли и логины. Несмотря на рост числа ИИ-инструментов, способных выполнять действия от имени пользователя, передавать им пароли нельзя. Конечно, идея делегировать механическому интеллекту отслеживание важной почты в вашем ящике — соблазнительная идея. Робот прекрасно удалит спам и сообщит, что пришел счет за коммунальные услуги…, но уверены ли вы, что ваша переписка потом не всплывет при очередной поломке?
Как обезопасить себя:
- Удаляйте историю переписок. Некоторые компании (например, OpenAI) дают возможность удалить чаты, которые могут использоваться для обучения. Лучше делать это сразу после завершения общения с вашим электронным помощником.
- Используйте режим временного чата. В ChatGPT доступен Temporary Chat — аналог режима инкогнито в браузере. В этом режиме история не сохраняется и не передается для обучения нейросети.
- Пользуйтесь анонимными сервисами. Например, Duck.ai от DuckDuckGo позволяет задавать вопросы разным ИИ без привязки к аккаунту, а запросы не сохраняются и не попадают в обучающие выборки. Правда, функциональность таких платформ ограничена.
- Проверяйте настройки. В ChatGPT, Gemini и других платформах можно отключить использование ваших данных для обучения моделей.
Наконец, помните: чат-бот не знает границ в разговоре, но вы можете их установить. Конфиденциальность — это ваша ответственность