Представьте урок: в журнале — 17 оценок, от 27% до 100%. Учитель хмурится, а ИИ бодро шепчет: «Всё норм, выбросов нет!» Если это не комедия положений, то как минимум стендап для дата-аналитиков.
В демонстрации Copilot в Excel показали мечту любого, кто когда-то боялся сводных таблиц: задаёшь вопрос простыми словами — получаешь готовый анализ. Увы, реальность лукаво подмигнула. Ассистент уверенно сообщил, что «аномалий не обнаружено», хотя даже беглый взгляд ловит тот самый 27-процентный айсберг. Скорее всего, был применён неподходящий метод выявления выбросов для небольшой группы и шкалы 0–100: в таких случаях классические правила вроде IQR или 3σ легко промахиваются, особенно если распределение далёко от нормального.
Дальше — больше. Визуализации тоже подвели. Там, где напрашивалась гистограмма, мелькнула вертикальная столбчатая диаграмма, которая не показывает форму распределения. А горизонтальный график с баллами умудрился скрыть половину имён и не показать сами значения — типичная «детская болезнь» форматирования. Формально графики есть, фактически — смысла меньше, чем хотелось бы.
И это не обвинительный акт против ИИ, а напоминание нам всем: инструмент силён ровно настолько, насколько осмысленно его применяют. Подбор метрик, проверка допущений, осознанный выбор диаграмм — это не прихоть, а ремесло. Ассистент ускорит рутину, подскажет путь, но ответственность за интерпретацию остаётся на человеке.
Хочется верить, что такие демо — полезные шишки на пути к зрелости. Пусть Copilot не заметил «выброс», зато показал главный вывод урока: прежде чем соглашаться с уверенным тоном машины, спросите у данных, а не у интерфейса. И да, 27% — это повод не паниковать, а разобраться. Но уж точно не повод говорить, что всё «в порядке».