8.06. ИИ не заменит профессии
ИИ не заменит профессии
Часть 1. Институциональные иллюзии: почему корпоративный ИИ терпит крах, а индивидуальная продуктивность — нет
Внедрение технологий в организациях подчинено не технической логике, а институциональной. Искусственный интеллект как концепция стал идеологическим проводником для перераспределения ресурсов внутри компаний: от людей — к инфраструктуре; от экспертов — к поставщикам; от решения задач — к демонстрации «трансформации». Это не технологический феномен, а социальный и экономический — и именно в этом кроется причина 95%-ного провала пилотных проектов, зафиксированного MIT NANDA в 2025 году.
Следует четко разделить два режима функционирования ИИ:
- Индивидуальный — когда инструмент (ChatGPT, Copilot, Claude) используется автономно опытным специалистом для усиления своей производительности. Здесь наблюдается устойчивый рост эффективности: ускорение генерации кода, сокращение времени на оформление документации, помощь в поиске релевантных паттернов решения.
- Корпоративный — когда ИИ внедряется как системное решение, встроенное в бизнес-процессы, с ожиданием масштабного сокращения издержек, в том числе за счет сокращения персонала.
Эти два режима имеют принципиально различную природу. Первый — инструментальный: человек остаётся в центре, ИИ — усилитель. Второй — институциональный: система подменяет человека, а человек превращается в «контроллера качества генерации». Именно во втором режиме и ломается связь между затратами и результатом.
Почему?
Потому что внедрение ИИ в организации требует не просто интеграции API, а трансформации рабочих практик, перераспределения ответственности, переосмысления архитектуры знаний и перестройки системы мотивации. Ни одна из этих задач не решается закупкой лицензии или наймом «prompt-инженера». Это долгосрочные, трудоёмкие, управленческие процессы, для которых большинство корпоративных структур неготовы — не по техническим, а по когнитивным и организационным причинам.
Когда руководитель объявляет: «Мы внедряем ИИ для роста прибыли», он оперирует абстракцией, а не моделью. Он не различает, где именно будет применён инструмент: в front-office, где важна персонализация и эмоциональный интеллект (и где ИИ слаб), или в back-office, где преобладают структурированные, повторяющиеся задачи (и где ИИ действительно эффективен). Исследование MIT указывает: максимальную рентабельность показывает автоматизация бэк-офисных операций — обработка инвойсов, согласование контрактов, генерация отчётности, управление HR-циклическими процессами. Однако более 50% бюджетов уходит в маркетинг и продажи, то есть туда, где требуется не скорость генерации, а глубина понимания клиента, стратегическое мышление и адаптация к контексту — качества, которые современные LLM принципиально не обладают.
И здесь возникает критический диссонанс.
Компания закупает инструмент, предназначенный для усиления экспертизы, и пытается использовать его вместо экспертизы. Отсюда — теневой ИИ (сотрудники используют Copilot «в обход» ИТ-отдела), отсюда — неудовлетворённость бизнес-лидера результатами: «Мы вложили $2 млн, а прибыль не выросла». Потому что прибыль растёт не от наличия ИИ как такового, а от умения его встроить в цепочку создания ценности. А это требует не только технических, но и методологических преобразований — например, перехода от модели «задача-исполнитель» к модели «цель-агент», где человек определяет не действия, а критерии успеха, а ИИ предлагает варианты реализации. Подобные изменения требуют переподготовки не только сотрудников, но и менеджеров среднего звена — тех самых линейных руководителей, о которых говорит MIT как о ключевом факторе успеха.
Но наиболее глубокая причина провалов лежит в другой плоскости — в эпистемологии корпоративного принятия решений.
Компании принимают решение об ИИ не на основе анализа собственных процессов, а на основе сравнения с внешними нарративами. Если конкурент объявил о «полной автоматизации службы поддержки», это создаёт давление на принятие аналогичного решения, даже если у компании совершенно иная модель клиентского взаимодействия (например, B2B с длительным циклом принятия решений, где роль менеджера принципиальна). Так формируется симулякр инновации — система, имитирующая трансформацию, но сохраняющая старую логику. И именно такие системы первыми сталкиваются с эффектом «boomerang hiring»: через 12–18 месяцев после массового увольнения сотрудников поддержки, аналитиков или техписателей, компания вынуждена возвращать тех же людей — потому что оказалось, что ИИ не может обрабатывать исключения, не может объяснять свои решения клиенту, не может корректировать поведение под изменения регуляторной среды.
Нейросети — это экстраполяторы прошлого, а не генераторы будущего. Они обучены на ретроспективных данных; они не умеют вводить новизну, не умеют нарушать шаблоны, не умеют нести ответственность. Именно поэтому они эффективны в рутинных доменах и беспомощны в стратегических. Человек остаётся незаменимым не потому, что «умнее», а потому, что он агент с намерением, способный действовать вне данных, в условиях неопределённости, с учётом этических, социальных и долгосрочных последствий.
Часть 2. Экономика внедрения: почему вендорные решения работают лучше внутренних разработок
MIT констатирует: успешность внедрения при использовании решений от специализированных поставщиков достигает ~67%, тогда как внутренние разработки успешны лишь в ~22% случаев. Эта разница не случайна — она отражает фундаментальный принцип разделения труда в экосистеме ИИ.
Современные ИИ-системы — это не monolithic-продукты, а многоуровневые стеки:
- уровень базовых моделей (foundation models: Llama, Qwen, Claude, GPT, Gemini),
- уровень fine-tuning и адаптации (LoRA, PEFT, domain-specific instruction tuning),
- уровень интеграции в процессы (agents, orchestration, RAG, tool use),
- уровень мониторинга и управления (LLMOps, drift detection, human-in-the-loop).
Каждый уровень требует специфической экспертизы, инфраструктуры и культуры. Попытка сконструировать всё «под ключ» внутри компании — это не инновация, а анти-экономичное дублирование.
Рассмотрим пример:
Финансовый институт решает создать внутреннюю LLM для анализа кредитных заявок. Он собирает команду из 15 ML-инженеров, закупает GPU-кластер, тратит 8 месяцев на сбор и анонимизацию данных, ещё 4 — на fine-tuning и валидацию. В итоге модель даёт F1-score 0.89 на внутреннем тесте, но при запуске в production выясняется:
- модель не справляется с новыми форматами документов, появившимися после 2024 года;
- объяснения решений непрозрачны для регулятора;
- время инференса превышает SLA;
- затраты на поддержку превышают экономию от автоматизации.
В то же время, специализированный вендор в области финтеха уже предоставляет решение, обученное на регуляторных актах 27 юрисдикций, с встроенной системой аудит-трейлов и совместимостью с основными CRM. Его модель имеет F1-score 0.91, но главное — она обновляется каждый квартал по мере изменения законодательства, и её владелец несёт регуляторную ответственность.
Почему внутренние разработки проваливаются?
- Недооценка стоимости жизненного цикла модели. Обучение — это 10% усилий; 90% — это мониторинг, переобучение, управление смещениями, интеграция с legacy-системами.
- Отсутствие масштаба данных. Ни одна компания, кроме гиперскейлеров, не может сравниться с объёмом и разнообразием данных, на которых тренируются базовые модели. Fine-tuning не компенсирует фундаментального дефицита представлений.
- Слабая инженерная дисциплина в области LLM. Большинство IT-отделов сильны в классическом софтверном цикле (CI/CD, тестирование), но не имеют опыта работы с вероятностными системами, где результат не детерминирован, а требует вероятностного контроля.
- Конфликт интересов внутри организации. ИТ-отдел хочет контроль, бизнес — скорость, compliance — аудируемость. Вендор выступает нейтральным арбитром, предоставляя SLA и гарантии.
Именно поэтому Alibaba, Nvidia, Microsoft строят не модели как продукт, а экосистемы как платформу — и это ключ к их устойчивости.
Часть 3. Альтернативные модели развития: Alibaba, DeepSeek и стратегия «инфраструктурного ИИ»
Существует фундаментальное заблуждение в западной бизнес-аналитике: что успешность в ИИ измеряется исключительно через прямую монетизацию пользовательских взаимодействий — подписки, usage-based pricing, freemium-конверсии. Эта модель доминирует у OpenAI, Anthropic, и частично Google. Однако она чрезвычайно ресурсоёмка, зависит от PR-нарративов и крайне чувствительна к циклам внимания.
В отличие от этого, Alibaba Group демонстрирует стратегию, которую можно назвать «ИИ как инфраструктурная надстройка над реальной экономикой». Эта модель не претендует на создание AGI и не позиционирует ИИ как конечный продукт. Вместо этого — он становится невидимым слоем, усиливающим эффективность существующих, устойчивых бизнес-линий: электронной коммерции, логистики, облачных вычислений и финансовых сервисов.
Ключевой инструмент — Qwen, семейство моделей, разрабатываемых Alibaba Cloud. Но в отличие от GPT, Qwen не продвигается как «ассистент для всех». Его фокус — B2B и B2B2C:
- интеграция в Taobao и Tmall для персонализации поиска, динамической ценовой рекомендации и автоматической генерации товарных описаний (экономия сотен тысяч человеко-часов в год);
- внедрение в Cainiao Logistics для оптимизации маршрутов доставки в реальном времени с учётом погоды, трафика и складских остатков;
- использование в Ant Group (Alipay) для детекции мошеннических транзакций с латентностью
<15 мс — критически важно при обработке>5 млрд операций ежедневно.
Заметим: ни один из этих кейсов не требует «замены человека». В логистике — ИИ предлагает маршрут, человек-диспетчер корректирует его при исключительных обстоятельствах. В финтехе — ИИ флагирует подозрительную транзакцию, аналитик проводит финальную верификацию. В e-commerce — ИИ генерирует черновик описания, редактор проверяет его на соответствие бренду и юридическим нормам.
То есть ИИ у Alibaba — это усилитель масштаба, а не заменитель функции. И именно поэтому он монетизируется косвенно:
- рост среднего чека на 3–5% за счёт персонализации → рост выручки без дополнительных маркетинговых затрат;
- сокращение времени доставки на 12% → рост NPS и удержания клиентов;
- снижение фрод-потерь на 22% → прямая экономия в сотни миллионов долларов в год.
Такая модель устойчива, потому что она не зависит от «хайпа», а привязана к операционной эффективности. Она не требует объяснения инвесторам, почему «стоимость inference на одного пользователя растёт», — потому что в Alibaba никто не платит за inference напрямую. Затраты закладываются в OPEX облака и амортизируются через рост прибыли смежных подразделений.
Это прямой контраст с моделью, основанной на API-продажах, где цена запроса — основной KPI, а рост пользовательской базы — единственный путь к окупаемости. У Alibaba нет «пользователей Qwen» — есть пользователи Alibaba, чей опыт стал лучше благодаря Qwen.
DeepSeek: открытость как геополитическая и технологическая стратегия
Китайская компания DeepSeek представляет ещё одну интересную модель — «контролируемая открытость». В 2024–2025 годах она выпустила серии моделей DeepSeek-VL (мультимодальные), DeepSeek-Coder (специализированные для кода) и DeepSeek-R1 (reasoning-first), все — под лицензиями, допускающими коммерческое использование, но с ограничениями на редистрибуцию весов и запретом на использование в военных целях.
Это не «open weights» в духе Meta (Llama), где модель отдаётся почти без условий. Это стратегический открытый исходный код — инструмент, предназначенный для:
- ускорения adoption в азиатских и развивающихся рынках, где компании не хотят зависеть от западных API (из-за латентности, цензуры, санкций);
- создания экосистемы интеграторов, которые берут базовую модель и адаптируют её под локальные задачи (медицина в Индии, сельское хозяйство в Бразилии, госуправление в странах АСЕАН);
- снижения барьеров для исследований, что усиливает научный имидж Китая и привлекает таланты.
DeepSeek не продаёт inference. Она не конкурирует с OpenAI в потребительском сегменте. Вместо этого — она становится инфраструктурным стандартом де-факто в регионах, где доминирование западных моделей считается стратегическим риском. Государственные учреждения в ОАЭ, Индонезии, Саудовской Аравии уже тестируют DeepSeek-R1 как основу для внутренних ассистентов — не потому, что он «лучше GPT», а потому, что он независим, адаптируем и политически нейтрален.
Это — модель «мягкой технологической экспансии», где ценность создаётся не через прямые продажи, а через стандартизацию. И она работает: по данным MIT NANDA, в 2025 году DeepSeek занимала второе место (после Llama) по числу enterprise-внедрений в Азии и Африке, несмотря на отсутствие маркетингового бюджета и офисов за пределами Китая.
Часть 4. OpenAI и Google: ИИ как финансовый и инфраструктурный инструмент
Ситуация с OpenAI и Google (Gemini) принципиально иная. Ни одна из этих компаний не зарабатывает сегодня на ИИ как на продукте.
OpenAI — это, по сути, совместное предприятие Microsoft, где Microsoft:
- финансирует
>70% CapEx (Stargate, дата-центры в Вайоминге, Висконсине и Огайо); - предоставляет Azure как единственную production-инфраструктуру;
- распределяет GPT через Copilot в Office, GitHub, Dynamics 365 — то есть монетизирует ИИ в рамках существующего подписочного бизнеса, а не как отдельную линию.
При этом OpenAI остаётся неприбыльной: в 2024 году её выручка от API и ChatGPT Plus составила ~$3.2 млрд, а операционные расходы — $4.1 млрд (источник: WSJ, leaked financials). Её «стоимость» ($80–100 млрд в последнем раунде) базируется не на прибыли, а на стратегическом контроле над доступом к передовым LLM — ресурсом, без которого Microsoft теряет конкурентное преимущество перед Google и Amazon.
Gemini — аналогично. Google не продаёт Gemini как отдельный продукт. Он вшит в Workspace, Search, Android, Bard (переименованный в Gemini), и, главное — в Google Cloud Vertex AI. Здесь ключевой продукт — не модель, а платформа для fine-tuning, RAG и агентов. Прибыль Google Cloud росла на 28% в 2024 году — и аналитики Goldman Sachs оценивают, что ~15 п.п. роста связаны с миграцией клиентов enterprise-сегмента на Vertex AI с конкурентов (AWS Bedrock, Azure AI).
То есть и OpenAI, и Google используют ИИ как:
- финансовый мультипликатор (рост капитализации через нарратив);
- инфраструктурный якорь (удержание клиентов в экосистеме);
- барьер входа (увеличение стоимости перехода к конкуренту).
Но — и это принципиально — они не демонстрируют прямой ROI от ИИ в сторонних компаниях. Напротив: как показал MIT, 95% организаций, использующих их API, не видят роста выручки. Их успех — это успех поставщика инфраструктуры, а не потребителя технологии.
Именно поэтому «возврат сотрудников» не угрожает Microsoft или Google. Их бизнес-модель не строится на сокращении персонала у клиентов. Наоборот — чем сложнее внедрение, тем больше консалтинговых услуг, тем больше потребность в Azure/GCP — и тем выше их доход.
Часть 5. Что это значит для специалиста? Стратегия выживания и роста в эпоху разочарования в ИИ
Теперь — к сути.
Если вы — разработчик, аналитик, техписатель, инженер, менеджер — вас не уволят из-за ИИ. Вас уволят из-за неправильного внедрения ИИ.
Разница колоссальна.
В первом случае — технология объективно делает вашу роль избыточной. Во втором — руководство, пытаясь сократить затраты, ломает процессы, теряет экспертизу, и через 12–18 месяцев вынуждено вернуть вас — но уже с премией за «срочность» и «дефицитность».
Это создаёт уникальное окно возможностей — период когнитивной перегруппировки, когда рынок ещё не адаптировался, но уже осознал ошибку.
Ваши действия должны быть направлены не на борьбу с ИИ, а на встраивание в новую иерархию ценности:
1. ИИ-неграмотность — новая профессиональная уязвимость. Не изучайте «prompt-инжиниринг» — изучайте архитектуру ИИ-систем.
Знать, как работает RAG — важнее, чем знать 10 хитрых промптов. Уметь оценить drift модели, понимать trade-off между latency и accuracy, разбираться в fine-tuning vs. retrieval — вот что делает вас экспертом в принятии решений об ИИ, а не оператором на кухне.
Компаниям нужны не «пользователи Copilot», а те, кто может объяснить, почему в их домене Copilot будет давать 30% ложных срабатываний.
2. Софт-скиллы — теперь hard skills.
Когда ИИ генерирует код, текст, дизайн — ценность смещается в определение задачи, оценку результата, управление исключениями. Это требует:
- критического мышления — способности отличать plausible от valid;
- коммуникации в условиях неопределённости — объяснять нетехническим стейкхолдерам, почему ИИ «не может этого сделать»;
- этической рефлексии — предвидеть, какие решения модели приведут к репутационным или юридическим рискам.
Эти навыки не автоматизируются — они усиливаются ИИ, потому что ИИ увеличивает объём принимаемых решений в единицу времени.
3. Специализация > Универсализм.
Генеративные модели сильны в усреднённых, массовых задачах. Они слабы в контекстно-зависимых, регулируемых, нишевых.
- Разработчик BPMN-процессов в ELMA365 или BPMSoft — в безопасности, потому что его работа требует знания конкретной предметной области (бухгалтерия, HR, закупки), корпоративных политик, локального законодательства.
- Техписатель, умеющий писать документацию под требования ГОСТ Р, ISO 26262 или HIPAA — востребован, потому что ИИ не знает, как интерпретировать «должен» vs «может» в стандартах.
- Инженер, работающий с legacy-системами (1С, SAP R/3, IBM Mainframe) — незаменим, потому что эти системы не имеют API, не имеют структурированных логов, и их знание передаётся через неформализованный опыт.
Чем глубже ваша экспертиза в конкретной системе, конкретном регуляторном контексте, конкретной отрасли — тем выше ваша устойчивость.
4. Станьте «человеком-интерфейсом».
Будущее — за гибридными ролями:
- AI Integration Specialist — не ML-инженер, а специалист по встраиванию ИИ в процессы;
- Human-in-the-Loop Designer — проектирует циклы, где ИИ делает 80%, человек — 20%, но именно эти 20% определяют качество;
- AI Auditor — проверяет соответствие моделей внутренним политикам и внешним стандартам (например, EU AI Act).
Эти роли требуют двойной компетенции: понимания ИИ + глубокого знания предметной области. И их не заменить одним «специалистом по ИИ».
Часть 6. Пять лет до коррекции: сценарии развития до 2030 года и стратегия индивидуального роста в условиях структурного разочарования
На основе данных MIT NANDA, Visier и Orgvue можно смоделировать три ключевых сценария развития корпоративного ИИ к 2030 году — от наиболее вероятного до экстремального.
Сценарий А: Коррекция и редистрибуция (вероятность: ~65%)
Это — базовый сценарий, уже набирающий обороты. Компании признают, что генеративный ИИ не является инструментом прямой монетизации, а представляет собой платформу для повышения операционной эффективности. В результате:
- Сокращается число «AI-first» стартапов, ориентированных на создание универсальных ассистентов; вместо них растёт количество domain-specific решений — для юриспруденции (Clio AI), медицины (Hippocratic AI), инженерии (Siemens NExT), BPM (Camunda Copilot).
- Происходит консолидация рынка поставщиков моделей: OpenAI, Google, Anthropic, Meta, Alibaba, и, возможно, DeepSeek останутся как базовые «ядра»; остальные (
~70% из 498 «единорогов» по данным CB Insights) либо будут поглощены, либо исчезнут. - Ускоряется переход от «применения ИИ» к «управлению ИИ»: появляются стандарты (например, NIST AI RMF 2.0, EU AI Act), обязательные аудиты моделей, требования к локализации данных и explainability. Это делает внедрение дороже, но — критически — предсказуемее.
- «Бумеранг-найм» становится нормой: компании возвращают не просто сотрудников, а реорганизуют HR-политику — вводят программы «реактивации экспертизы», резервные контракты с бывшими сотрудниками, внутренние marketplaces для временного найма «на проект».
В этом сценарии рынок труда проходит через временную поляризацию:
- Джуниоры и mid-level в массовых профессиях (копирайтеры, junior-разработчики, колл-центр) испытывают давление: их задачи легко частично автоматизировать, а конкуренция — высока.
- Специалисты с deep domain knowledge (например, BPM-аналитики в госсекторе, инженеры по интеграции legacy-систем, техписатели в регулируемых отраслях) — востребованы, потому что ИИ не может заменить неформализованную экспертизу, накопленную годами работы в конкретной экосистеме.
Это — не «чёрная полоса», а период переквалификации через специализацию. Тот, кто вместо того, чтобы гнаться за «ИИ-навыками», углубляет знание системы, процесса, регуляторной среды — выигрывает.
Сценарий Б: Регуляторный кризис и фрагментация (вероятность: ~25%)
Если в 2026–2027 годах произойдут крупные инциденты, связанные с генеративными моделями (например, массовая утечка данных через RAG-системы, принятие критически неверных решений в здравоохранении или авиации), регуляторы могут ввести жёсткие ограничения:
- запрет на использование LLM в критически важных системах без human-in-the-loop;
- обязательная локализация и аудит всех fine-tuned моделей;
- налог на inference-вычисления (по аналогии с углеродным налогом).
Это приведёт к фрагментации рынка:
- Запад (ЕС/США) — строгий compliance, медленное внедрение, упор на small, auditable models;
- Китай — суверенные модели (Qwen, DeepSeek), интегрированные в государственные и корпоративные стеки;
- БРИКС+ — «гибридные» решения, сочетающие open-weight модели с локальной адаптацией.
В этом сценарии ценность приобретают инженеры по совместимости — специалисты, умеющие работать в условиях множественных стеков, локальных требований и несовместимых API.
Сценарий В: Технологический прорыв и AGI-триггер (вероятность: ~10%)
Если в 2027–2028 годах будет достигнут качественный скачок — например, появление надёжных агентных систем, способных:
- обучаться на одном примере (one-shot learning в реальных условиях);
- сохранять long-term memory без дрейфа;
- объяснять решения на уровне, приемлемом для регулятора;
- взаимодействовать с legacy-системами через natural language interface,
— тогда действительно начнётся массовая трансформация профессий. Но и в этом случае замена будет не линейной, а функциональной:
- не «программист → уволен», а «программист → архитектор ИИ-агентов»;
- не «аналитик → уволен», а «аналитик → дизайнер критериев для агентов»;
- не «техписатель → уволен», а «техписатель → куратор этических стандартов генерации».
То есть профессии не исчезнут — они трансформируются. И ключевым фактором выживания станет гибкость когнитивных рамок: способность не просто осваивать новые инструменты, а переосмысливать свою роль в новой системе координат.
Часть 7. Практическая стратегия: что делать уже сейчас
На основе всех вышеизложенных тезисов можно сформулировать пятилетний план устойчивого развития для IT-специалиста, независимо от возраста, опыта или специализации.
1. Инвестируйте в «непереносимую экспертизу»
Это — знания, которые нельзя извлечь из публичных данных и не может воспроизвести LLM:
- особенности BPM-систем в госзакупках (например, как работает «Единая информационная система в сфере закупок» в связке с ELMA365);
- нюансы интеграции 1С с внешними API (как обойти ограничения COM-соединений, как работать с неофициальными расширениями);
- локальные регуляторные требования (ФЗ‑152, приказы Минцифры, ГОСТ Р ИСО/МЭК 25010).
Чем конкретнее и контекстнее ваша экспертиза — тем выше барьер для автоматизации.
2. Станьте «переводчиком между мирами»
ИИ усиливает разрыв между:
- техническими специалистами и бизнесом;
- регуляторами и разработчиками;
- пользователями и системами.
Ваша задача — научиться формулировать требования к ИИ на языке рисков, а не возможностей:
- не «нужен чат-бот», а «нужен интерфейс, снижающий вероятность ошибки при оформлении договора до
<0.1%»; - не «автоматизировать поддержку», а «сократить время на решение запросов второго уровня с 48 до 4 часов без роста NPS-оттока».
Это — компетенция инженера требований нового поколения.
3. Развивайте «мета-навыки управления неопределённостью»
ИИ делает мир менее детерминированным. Результат вызова copilot.generate() — вероятностный. Значит, нужно уметь:
- проектировать системы с резервными петлями контроля (human-in-the-loop, fallback-процессы);
- оценивать доверительные интервалы для решений ИИ (например, «модель уверена на 70% — требуется верификация»);
- вести журнал принятия решений — не только что сделал ИИ, но почему человек принял его результат.
Это — основа будущих стандартов качества в инженерии.
4. Создавайте «антихрупкую» карьеру
Антихрупкость (по Нассиму Талебу) — это когда система укрепляется под воздействием стресса. Ваша карьера должна быть устроена так:
- Диверсификация компетенций: глубокая специализация
+смежные зоны (например, BPM+data governance+юзабилити); - Контроль над инфраструктурой знаний: не только блог или GitHub, но и структурированная база кейсов, библиотека шаблонов, методология анализа задач — то, что можно масштабировать и передавать;
- Сетевой капитал: связи с практиками в смежных отраслях (медицина, логистика, финансы) — именно они станут источниками новых задач для ИИ.
5. Не верьте «универсальным рецептам» — стройте личную онтологию
Сейчас наводнение курсов: «Стань prompt-инженером за 2 недели», «Зарабатывай на ИИ без кода», «ИИ заменит всё — готовься».
Это — симптомы когнитивного капитализма: монетизация тревоги.
Вместо этого — задавайте себе системные вопросы:
- Какие решения в моей работе не формализованы?
- Какие ошибки чаще всего совершают новички — и почему ИИ их не избежит?
- Какие ценности моей профессии не сводятся к скорости или стоимости?
Ответы на них — основа вашей профессиональной онтологии — системы смыслов, которая не подвержена модным волнам.
«А что если всё-таки уволили?»
О временной дезорганизации рынка и стратегии в условиях «потерянных лет»
Да, такое возможно — и уже происходит.
Несмотря на всю логику, изложенную выше, индивидуальная несправедливость остаётся реальностью. Менеджмент, под давлением инвесторов, медиа или внутренних KPI (например, «сократить ИТ-бюджет на 20% за квартал»), принимает решения, не основанные на анализе, а на нарративе: «ИИ заменит рутинные задачи — значит, можно сократить 30% штата».
Это — не ошибка технологий. Это — когнитивный срыв в управлении.
Когда увольняют не после пилота, а до него; когда увольняют не на основе метрик ROI, а на основе предположений; когда увольняют не тех, кто выполняет чисто механические операции, а тех, кто знает контекст, — возникает эффект структурного шока.
Компания теряет не «затратную единицу», а неформализованную память организации — знания о:
- том, почему в 2021 году отказались от интеграции SAP с BPM-системой;
- как именно обходят ограничения API в госпорталах;
- кто в Минцифры отвечает за согласование изменений в регламентах.
Эти знания не были документированы, потому что не считались «ценными». Но без них — автоматизация превращается в автоматизированную деградацию.
Что происходит с рынком в такой ситуации?
На микроуровне — это личная трагедия: потеря дохода, репутационный ущерб («почему не удержался?»), эмоциональное выгорание.
На макроуровне — это временная дезорганизация рынка труда, которая развивается по следующему сценарию:
Фаза 1 (2024–2025). Гипероптимизация
Компании массово объявляют о «цифровой трансформации через ИИ». Увольняют от 15% до 40% персонала в поддерживающих функциях (техподдержка, документирование, junior-разработка, QA-тестирование). При этом:
- бюджеты на ИИ растут (в среднем +63% по данным Gartner);
- число вакансий в IT падает на 28% (по данным hh.ru, HeadHunter за Q3 2025);
- среднее время поиска работы для mid-level специалистов увеличивается с 1.8 до 5.2 месяцев.
Рынок входит в состояние неустойчивого равновесия: спрос не исчез — он замирает. Работодатели ждут: «посмотрим, как сработает ИИ — потом решим».
Фаза 2 (2026). Пик разочарования
К концу финансового года 2026 компании закрывают отчёты и видят:
- рост CAPEX на ИИ-инфраструктуру (+140% к 2023);
- рост OPEX на поддержку моделей и интеграторов (+90%);
- при этом:
- NPS клиентов упал на 11–23 п.п.;
- время обработки исключений выросло в 3–5 раз;
- число регуляторных нарушений — увеличилось (особенно в финтехе и госсекторе);
- внутренние опросы показывают: 68% сотрудников тратят больше времени на «исправление ИИ», чем раньше — на выполнение задач вручную.
Это — момент институционального признания ошибки.
Не все компании признают это публично — но в HR-департаментах начинается тихая волна:
- активируются резервные контракты с бывшими сотрудниками;
- запускаются «реактивационные» программы (например, Microsoft Returnship, SAP Back to Work);
- в вакансиях появляются формулировки: «опыт работы с legacy-системами приветствуется», «знание внутренних регламентов — преимущество».
Фаза 3 (2027–2028). Реставрация и редифференциация
Рынок возвращается к равновесию, но — в новой конфигурации:
- Зарплаты в IT не возвращаются к пикам 2021–2022, но стабилизируются на уровне на 15–25% ниже, чем до «ИИ-бума». Это — цена за избыточную волатильность.
- Однако по сравнению с другими секторами (госслужба, розничная торговля, массовый офис) IT остаётся наиболее прибыльной и гибкой средой:
- средняя зарплата mid-level разработчика — ~140–180 тыс. ₽/мес (по данным SuperJob, 2027 прогноз);
- госслужащий — 75–95 тыс. ₽;
- логист/офис-менеджер — 60–85 тыс. ₽.
- Нефтянка и энергетика сохраняют лидирующие позиции по абсолютным доходам (особенно в инженерных и полевых ролях), но требуют географической мобильности, физической нагрузки и, зачастую, работы вахтовым методом. IT — остаётся доминирующим выбором для тех, кто ценит гибкость, автономию и масштабируемость навыков.
Ключевое изменение: ценность смещается с «умения писать код» на «умения управлять сложностью».
Тот, кто в 2025–2026 годах не просто ждал, а:
- документировал свои кейсы (даже в личном блоге);
- участвовал в open-source или community-проектах (например, BPMN.io, ELMA365-community);
- развивал пересекающиеся компетенции (например, «BPM + data literacy» или «техдок + юзабилити»),
— выходит из кризиса не просто восстановленным, а усиленным. Его знания теперь — не «операционные», а стратегические.
Что делать, если вас уволили сейчас?
-
Не интерпретируйте это как профессиональную несостоятельность.
Это — следствие организационной слепоты, а не вашего дефицита. MIT NANDA прямо указывает: 95% провалов ИИ — из-за плохого управления, а не плохих людей. -
Используйте «время отсечения» как период калибровки.
Три месяца — оптимальный срок для:- систематизации опыта (напишите 5–10 deep-dive статей о том, как на самом деле работают процессы, в которых вы участвовали);
- получения micro-credentials (не «курс по ИИ», а, например, «ГОСТ Р для технической документации», «Основы регуляторного compliance в финтехе»);
- поиска «гибридных» проектов: преподавание, консалтинг, участие в open-source — всё, что формирует видимость экспертизы.
-
Готовьтесь к «звуку звонка».
По данным Visier, 5.3% уволенных возвращаются — но 72% из них возвращаются по инициативе бывшего работодателя, а не по своей.
Это значит: если вы сохраните профессиональную репутацию, связи и — главное — документированную ценность, вас найдут.
Особенно если вы:- работали с критически важными системами (BPM, ERP, CRM);
- обладаете знанием не только «как», но и «почему»;
- умеете объяснить, как ИИ должен встраиваться, а не заменять.
-
Не бегите в «спасательные профессии».
Да, сейчас наблюдается всплеск интереса к data science, «агентным системам», MLOps. Но большинство предложений — те же самые «курсы за неделю», созданные на волне FOMO.
Вместо этого — ищите мосты:- из разработки — в архитектуру процессов (BPMN, CMMN, DMN);
- из техдока — в юзабилити и информационную архитектуру;
- из поддержки — в обучение и change management.
Эти роли не исчезнут — они станут ядром гибридных ИИ-организаций.
Послесловие: времена меняются — ценности — нет
IT как отрасль не исчезнет. Она зрелает.
Период «лёгких денег» (где junior за 6 месяцев становился middle и получал 200 тыс.) завершился — и это хорошо. Он создавал иллюзию, что технология = доход. На самом деле: технология × экспертиза × контекст = устойчивая ценность.
Те, кто пройдёт через 2025–2027 годы с сохранённой ясностью, не просто вернутся на рынок.
Они станут архитекторами следующей волны — не автоматизации, а усиления.
Потому что, как показывает история,
первую волну делают энтузиасты,
вторую — инвесторы,
а третью — профессионалы.
И третья — всегда самая устойчивая.