Если вы думали, что в ИИ побеждает тот, у кого параметров больше, чем у вас вкладок в браузере — у меня плохие новости для гигантомании. В ОАЭ представили K2 Think, и этот «стройный ум» явно собирается качать интеллект, а не объёмы.

Institute of Foundation Models (IFM) выпустил открытую модель на 32 миллиарда параметров, которая, по словам исследователей и пресс-релизам, навязывает борьбу флагманам — от ChatGPT до китайского DeepSeek. Интереснее всего то, как она это делает: не грубой силой, а аккуратной инженерией и заточкой под рассуждения — математику, код и научные задачи. В тестах на математические способности K2 Think, по заявлениям, возглавляет открытые модели, а в целом догоняет и догрызает куда более крупные системы.

Контраст впечатляет. У DeepSeek R1 — 671 млрд параметров, но «активных» около 37 млрд. Линейка Llama 4 у Meta — от 17 до 288 млрд активных параметров. OpenAI традиционно молчит о цифрах. IFM же играет в открытую: обещает не только открытые веса, но и «полный рецепт» — код обучения, датасеты, чекпойнты. Это редкий жест прозрачности на фоне рынка, где рецепты обычно прячут в сейф.

Почему это важно? Потому что в 2025-м побеждает не тот, у кого больше кремния, а тот, кто умнее им распоряжается. Эффективная модель на 32B — это меньше арендованных GPU, ниже счета за облака и шире круг команд, которые могут её внедрить. Для ОАЭ и соседей это ещё и стратегический ход: строить экономику вокруг знаний, а не нефти.

Конечно, бенчмарки — не вся жизнь. Реальный продакшен любит задавать вопросы, на которые лабораториям отвечать не всегда удобно: устойчивость, безопасность, мультиязычность, длинные контексты, трудные доменные данные. Но ставка на открытость и рациональную эффективность выглядит здраво и своевременно. Если IFM действительно отдаст сообществу «всё, как есть», экосистема получит не просто очередную модель, а реперную точку: эталон воспроизводимости и честной инженерии.

И да, приятно слышать новость, где «меньше» вполне убедительно означает «лучше». Кто бы мог подумать — иногда размер действительно не главное.