Шутка дня: искусственный интеллект — как коллега, который переписывает письма в вашем почтовом ящике, думая, что помогает, — только без чашки кофе. На этот раз «помогать» начала система Microsoft Copilot, и шутка получилась не такой уж смешной.
В конце января обнаружился баг: Copilot Chat суммировал письма, явно помеченные как «конфиденциальные», то есть обходил корпоративные правила защиты данных (DLP). Подробности первыми описали журналисты Bleeping Computer, а в уведомлении Microsoft дело фигурировало как сообщение CW1226324 (отслеживание в админ‑центре). Проблема касалась сообщений из папок «Отправленные» и «Черновики» — те самые, что, казалось бы, должны быть закрыты от автоматической обработки.
Microsoft объяснила, что причина — программная ошибка, и с начала февраля развернула исправление, продолжая мониторинг и связываясь с затронутыми организациями. Тонкая сторона ситуации в том, что количество пострадавших пока не раскрывают: масштаб может меняться по мере расследования.
Это происшествие — живой пример того, какие сюрпризы приносит интеграция AI в повседневную офисную жизнь. Copilot задуман как «контекстно‑осознанный» помощник, но контекст иногда понят неверно, особенно когда на пути стоят метки и политики безопасности. Риск очевиден: удобство автоматических резюме и подсказок сталкивается с обязанностью сохранять конфиденциальность.
Что делать компаниям? Проверять интеграции перед масштабным развёртыванием, усиливать DLP‑политику, вести аудит действий AI‑инструментов и своевременно информировать пользователей. И, конечно, не забывать про человеческий контроль — один не всегда надёжный, но пока ещё незаменимый щит в мире автоматических помощников.
