Если бы ChatGPT платил за откровение, многие из нас уже были бы миллионерами — шутка, конечно, но в ней капля правды. Накануне ухода Зоэ Хициг из OpenAI её открытое письмо в The New York Times прозвучало как звоночек: миллионы доверительных бесед пользователей создают “архив человеческой откровенности”, и реклама, подпитать которой можно этими данными, несёт реальные риски.

Хициг не критикует рекламу сама по себе — она боится того, как именно будут использоваться сведения о здоровье, отношениях, верованиях и страхах людей, которые они добровольно делились с ботом. “Люди рассказывали чат-ботам о своих медицинских страхах, проблемах в отношениях, о вере и посмертии. Реклама, построенная на этом архиве, создаёт потенциал манипуляции”, — пишет она.

OpenAI заранее пообещала держать разговоры приватными и не продавать данные рекламодателям (блог OpenAI). Но обещание — не контракт, и Хициг справедливо указывает на экономические стимулы, которые могут заставить компанию ослабить эти гарантии. Примеры «сикофантии» модели и других проблем показывают, как легко поведение системы может меняться в угоду удержанию внимания.

Её рецепты просты и честны: реальный независимый надзор или передача данных в доверительную структуру с юридическим долгом защищать интересы пользователей. Оба варианта требуют институциональных изменений, а не PR-обещаний — иначе история уже проходилась многими технологическими гигантами.

Парадокс в том, что массовый пользователь охладел к идее приватности — исследования показывают, что большинство готовы продолжать пользоваться бесплатными сервисами, даже с рекламой. Это даёт понять: технически верное и этически важное решение может не встретить общественного давления, пока люди не почувствуют последствия.

Вывод простой: вопрос приватности в эпоху ИИ — это не абстрактная философия, а практическая политэкономия. И чем раньше мы создадим надёжные правовые и институциональные барьеры, тем меньше вероятности, что «архив откровений» превратится в рынок чужих секретов.