Привет! На связи Leon, овнер тимы GЕОN TEAM. Сегодня поговорим об AI! 

Сравнительно недавно нейросети тыкали как игрушку по приколу, причем исключительно гики и прогеры, то сейчас Chat GPT или DeepSeek в телефоне у каждого, арбитражники льют крео, частично сделанные нейронками, а владельцы сайтов не понимают как им теперь собирать трафик из поиска. Всего за два года индустрия нейросетей прошла путь, который раньше занял бы десятилетия…

Сегодня мы отойдем от темы арбитража, хотя ИИ уже плотно входит и в эту нишу, и постараемся разобраться в большом эссе от исследователей OpenAI — AI 2027. Материал на английском и содержит множество политических и социальных моментов, которые отвлекают от сути. Мы же хотим сфокусироваться на главном: какие реальные возможности получат нейросети в ближайшие два года, как это повлияет на индустрию, пользователей и подходы к работе. 

Что произошло за последние два года

Но чтобы понять, что нас ждет, давайте быстренько пройдемся по тому, что произошло всего за 2 последних года. Быстро и без воды. 

С 2023 по 2025 год индустрия нейросетей совершила резкий скачок: от генерации текста и картинок к многошаговым действиям, автономным агентам и встроенным решениям в продуктах и бизнес-процессах. Ключевые изменения произошли за счет трех факторов:

  • Резкий рост вычислительных мощностей. За два года производительность дата-центров, использующих GPU и специализированные чипы (TPU, H100 и пр.), выросла кратно. Это позволило обучать модели в 10–20 раз быстрее и использовать в продакшене куда более емкие архитектуры. Крупные игроки (OpenAI, Google, Anthropic, xAI) построили новые дата-центры с миллионами GPU-серверов, вложив в инфраструктуру десятки миллиардов долларов.Будущее нейросетей: что было и что нас ждет в ближайшие два года
  • Эскалация параметров и данных. Если GPT-3 (2020) имела 175B параметров, то сегодняшние модели, такие как GPT-4, Claude 3 или Gemini, оперируют сотнями миллиардов, а зачастую триллионами параметров — многие из них в мультимодальном формате. Количество данных, использованных для обучения, тоже выросло в разы: модели обучаются на синтетических данных, а также на собственных “когнитивных следах” (выходах предыдущих версий моделей), что ускоряет масштабирование интеллекта.
  • Смена парадигмы: от «чатов» к агентам. Главное отличие — нейросети перестали быть просто интерфейсом «вопрос-ответ». Они начали ставить задачи, работать с инструментами, кодить, планировать и выполнять целые пайплайны задач. Это стало возможным благодаря стеку: LLM + memory + tools + UI control. Такие агенты уже внедряются в компании как «цифровые сотрудники» — от автоматизации продаж до ИИ-аналитиков в R&D.

Будущее нейросетей: что было и что нас ждет в ближайшие два года

Насколько агрессивно растут масштабы обучения современных моделей ИИ (Agent-1 появится в конце 2025 года)

В 2023 году ChatGPT и Midjourney были «игрушкой» для большинства. В 2025 — это продакшен-инструменты, которые генерируют интерфейсы и API по описанию задачи, создают кастомные презентации и отчеты по данным из CRM, управляют интерфейсами через визуальные обертки (вплоть до RPA-замены).

Под капотом — битва между техногигантами за лидерство: бюджет на разработку LLM-моделей у OpenAI, Google, Meta и Amazon исчисляется миллиардами долларов в год. Конкуренция стала топливом для ускорения всего рынка: модели улучшаются буквально раз в квартал, а новые подходы, вроде итеративной дистилляции и нейроархитектурной оптимизации, позволяют запускать версии быстрее, дешевле и эффективнее.

Будущее нейросетей: что было и что нас ждет в ближайшие два года

Что такое итеративная дистилляция и нейроархитектурная оптимизация, и почему это важно

Сегодня модели улучшаются не просто из-за роста объемов данных или вычислений, а благодаря более умным способам обучения и проектирования. Один из таких подходов — итеративная дистилляция. Суть в том, что мощную, но дорогую модель (например, GPT уровня Agent-3) запускают в режиме “максимального напряжения”: дают сложные задачи, увеличивают время размышления, разрешают использовать больше вычислений. Получив решения, эту улучшенную версию берут за эталон, и обучают новую, компактную модель “подражать” ее поведению. Это позволяет получить модель, которая работает почти так же хорошо, но при этом требует в разы меньше ресурсов.

Другой ключевой процесс — оптимизация нейроархитектуры. Это автоматический подбор структуры модели (число слоев, типов блоков, параметров и связей между ними), который раньше задавался вручную. Модели теперь способны самостоятельно исследовать свое устройство, чтобы находить более эффективные конфигурации. Это резко повышает качество на фиксированном бюджете — модели становятся и умнее, и легче.

Будущее нейросетей: что было и что нас ждет в ближайшие два года

Все это стало возможным не только благодаря алгоритмам, но и из-за скачка в инфраструктуре: крупнейшие компании инвестировали миллиарды долларов в дата-центры и GPU-кластеры. Новые архитектуры и обучающие пайплайны (как у GPT-4o или Claude 3) создаются сразу с учетом масштабируемости и возможности запускать сотни тысяч агентов параллельно — как локально, так и в облаке.

Таким образом, прогресс ускоряется не линейно, а по экспоненте. Поэтому  в ближайшие годы мы будем видеть нейросети, которые дешевле в использовании, работают почти мгновенно и при этом становятся все ближе к человеческому уровню мышления.

Чего ждать в следующие два года?

Главный поинт, который мы выяснили выше — нас ждет рост по экспоненте. Исследователи из статьи по ссылке выше пришли к заключению, что скорее всего, следующие два года будут не революцией, а продолжением уже запущенных процессов. Тем не менее, темп этих процессов достаточно высок, чтобы они начали трансформировать многие области.

Рост автономных ИИ-агентов. Тенденция к переходу от диалоговых моделей к агентным системам уже проявилась в продуктах вроде Devin и GPTs. С учетом инвестиций и спроса со стороны корпораций, можно ожидать, что в 2025–2027 годах агенты станут стандартной функцией во многих платформах. Эти агенты смогут самостоятельно ставить себе цели, взаимодействовать с интерфейсами и выполнять бизнес-задачи. Причина — увеличение доступных вычислительных ресурсов и развитие open-source стеков для построения таких систем.

Будущее нейросетей: что было и что нас ждет в ближайшие два года

Скрипт ИИ-агента для автоматической публикации пинов в Пинтересте на основе агента n8n

Ускорение за счет самосовершенствования. Появление моделей, которые улучшают сами себя, позволит увеличить скорость развития самих ИИ-систем. Если сейчас улучшения требуют месяцев подготовки и обучения, то через год–два цикл может сократиться до недель. Это технически обосновано: пайплайны обучения становятся все более автоматизированными, а наборы задач для обучения — синтетическими и масштабируемыми.

Локальные персонализированные модели. Появление мощных устройств на уровне потребителя и растущая обеспокоенность конфиденциальностью данных подталкивают разработчиков к edge-решениям. Модели, работающие прямо на смартфонах и ноутбуках, смогут обрабатывать персональные данные без отправки в облако. Это уже происходит: Apple, Qualcomm и Google активно внедряют локальные LLM в свои экосистемы. В итоге пользователи получат «персональный ИИ», обученный на их переписке, задачах и контенте.

Встраивание ИИ в реальные процессы. ИИ начнет занимать более важное место в операционных контурах — в логистике, финансах, медицине. Прогнозирование, планирование и управление рисками — одни из тех зон, где модели уже показывают хорошие результаты. Их внедрение обусловлено не хайпом, а желанием компаний оптимизировать затраты. Особенно интерес вызывает способность ИИ-систем находить решения, которые ранее требовали недели анализа.

Будущее нейросетей: что было и что нас ждет в ближайшие два года

Департамент госэффективности США поручит ИИ пересмотреть 200 тыс. федеральных нормативов, чтобы сократить объем федерального регулирования

Снижение стоимости использования. Наконец, по мере оптимизации архитектур (sparse attention, Mixture of Experts и др.) и роста числа провайдеров, стоимость запуска и работы LLM продолжит снижаться. Это открывает путь к распределенным системам, где у каждого продукта или команды — собственный ИИ-агент, заточенный под конкретную задачу. Причина не в «магии», а в масштабировании, конкуренции и инерции рынка.

А вот как это все повлияет на процессы в арбитражных командах и на модерацию рекламных источников — это вопрос, ответ на который мы узнаем одними из первых.

На этом откланяюсь, с вами был Leon. Подписывайтесь на канал, задавайте вопросы, если они есть. Всех люблю 💜

Loading