Если ChatGPT начнёт угадывать ваши кофейные привычки точнее, чем соседка по лестнице, не паникуйте — просто займитесь цифровой гигиеной. Да, карикатуры от ChatGPT милы и щекочут самолюбие, но за экраном всегда стоит вопрос: а сколько бот действительно знает о нас?
Тренд с карикатурами взорвался в соцсетях: люди получают мультяшные портреты, окружённые предметами, которые якобы «рассказывают» о них. Часто это просто набор тропов — наушники, кружка, ноутбук — но чем правдивее и детальнее изображение, тем больше мыслей о приватности возникает. Авторитетные публикации советуют не терять бдительности и объясняют, как ограничить данные, которые сохраняет OpenAI.
Первое и простое — удаляйте историю чатов. В боковой панели ChatGPT рядом с каждым чатом есть меню (три точки) → «Удалить». Если хочется радикальней — в Профиле → Настройки → Контроль данных можно стереть все чаты и отключить опцию «Improve the model for everyone», чтобы ваши сообщения не шли на общее обучение моделей.
Второе — используйте портал приватности OpenAI для формальных запросов: скачать свои данные, попросить не использовать ваши сообщения для обучения, удалить аккаунт или кастомные GPTs и удалить персональную информацию из ответов. Есть и контактная почта для дополнительных запросов и разъяснений.
И, наконец, пересмотрите свои отношения с ботами. Лёгкая дружба с ИИ — нормально, но если чат превращается в единственного собеседника или даёт эмоциональную подпитку в ущерб живым людям, лучше сделать паузу. Последствия эмоциональной зависимости от моделей пока не до конца изучены, и немного осторожности не помешает.
В итоге: улыбайтесь карикатурам, но не забывайте — приватность в ваших руках. Немного порядка в настройках спасёт от многих неожиданностей, а здоровая дистанция с ИИ сохранит вам здравый смысл и хорошие отношения в реальном мире.
