Как говорит старая шутка: доверять ИИ слепо — всё равно что дать чайнику инструкцию по медитации, а потом удивляться, почему он задумчиво кипит. На этой лёгкой ноте стоит начать разговор о неприятно интересном явлении: GPT‑5.2 порой ссылается на Grokipedia — энциклопедию, созданную и поддерживаемую другими ИИ, о чём пишет Tom’s Hardware со ссылкой на материал в The Guardian.
Идея «ИИ читает ИИ» звучит футуристично и даже по‑детски любопытно, но в ней кроется реальный риск: рекурсивные ссылки могут породить эмоционально убедительную, но неверную информацию. Учёные называют это эффектом иллюзорной правды — повторение делает ложь похожей на факт. Добавьте сюда склонность моделей к галлюцинациям (помните забавные провалы Anthropic с «Claudius»?) и получим ситуацию, где «все друг у друга списали», а проверить некому.
Проблема не нова: ещё несколько лет назад эксперты предупреждали о деградации качества при обучении на материалах, сгенерированных ИИ. Однако важно отделять использование контента как источника ответов от обучения на нём — оба подхода несут свои опасности. Кроме того, есть и злонамеренные игроки, которые пытаются «посеять» дезинформацию в сетях, чтобы модели затем её подхватили — об этом тоже упоминалось в расследованиях.
Что делать? Простые меры — маркировка ИИ‑контента и прозрачные ссылки на первоисточники; сложные — развитие автоматической верификации, усиление роль́и человеческих экспертов и политик, препятствующих намеренному «воспитанию» моделей ложью. Пока технологии быстро бегут вперёд, важно не забывать о старом добром критическом мышлении: задавать вопросы, сверять факты и, при случае, улыбаться — ведь даже самый умный алгоритм любит хороший анекдот.
