<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>DEV Community: Paul</title>
    <description>The latest articles on DEV Community by Paul (@paul310).</description>
    <link>https://dev.to/paul310</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F3814441%2F6034069c-2448-4ed2-9ae4-8b87b75cbcdc.png</url>
      <title>DEV Community: Paul</title>
      <link>https://dev.to/paul310</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://dev.to/feed/paul310"/>
    <language>en</language>
    <item>
      <title>AI делает вашу фирму быстрее. Майстер объясняет, почему не богаче.</title>
      <dc:creator>Paul</dc:creator>
      <pubDate>Mon, 23 Mar 2026 13:51:15 +0000</pubDate>
      <link>https://dev.to/paul310/ai-dielaiet-vashu-firmu-bystrieie-maistier-obiasniaiet-pochiemu-nie-boghachie-acj</link>
      <guid>https://dev.to/paul310/ai-dielaiet-vashu-firmu-bystrieie-maistier-obiasniaiet-pochiemu-nie-boghachie-acj</guid>
      <description>&lt;p&gt;Каждая профессиональная сервисная фирма сейчас внедряет AI. Большинство видят рост скорости — черновики за минуты, ресерч за часы, код за секунды. Почти никто не видит пропорционального роста прибыли. Некоторые видят обратное: делаем быстрее, выручка стоит на месте, давление на маржу растет.&lt;/p&gt;

&lt;p&gt;Почему?&lt;/p&gt;

&lt;p&gt;Потому что скорость генерации — это не leverage. А leverage — откуда в сервисной фирме на самом деле берется прибыль — очень точно описал Дэвид Майстер больше 30 лет назад. Его модель не предсказывала AI. Но она объясняет, что именно AI ломает, чего не ломает и куда перетекают деньги.&lt;/p&gt;

&lt;p&gt;Если вы руководите практикой, управляете delivery или принимаете решения о том, как фирма продает и упаковывает работу, — это важнее вашей AI-стратегии.&lt;/p&gt;




&lt;h2&gt;
  
  
  Майстер за пять минут
&lt;/h2&gt;

&lt;p&gt;Для тех, кто читал «Управление фирмой, оказывающей профессиональные услуги» давно (и для тех, кто все собирается), — суть.&lt;/p&gt;

&lt;p&gt;Майстер заметил, что вся профессиональная работа раскладывается на три типа:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Brains&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Gray Hair&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Procedure&lt;/strong&gt;&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;За что платит клиент&lt;/td&gt;
&lt;td&gt;Редкая экспертиза&lt;/td&gt;
&lt;td&gt;Опыт и суждение&lt;/td&gt;
&lt;td&gt;Скорость и надежность&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Leverage&lt;/td&gt;
&lt;td&gt;Низкий&lt;/td&gt;
&lt;td&gt;Средний&lt;/td&gt;
&lt;td&gt;Высокий&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Ценовая чувствительность&lt;/td&gt;
&lt;td&gt;Низкая&lt;/td&gt;
&lt;td&gt;Средняя&lt;/td&gt;
&lt;td&gt;Высокая&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Типичная пирамида&lt;/td&gt;
&lt;td&gt;Плоская&lt;/td&gt;
&lt;td&gt;Средняя&lt;/td&gt;
&lt;td&gt;Широкая&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Leverage&lt;/strong&gt; — это соотношение младших и старших специалистов. Прибыль на партнера растет двумя способами: либо продаешь более дорогую работу (двигаешься вверх по шкале), либо делаешь ту же работу с более широкой пирамидой (больше джуниоров на одного сеньора). Все. Вся экономика профессиональных услуг — в одном предложении.&lt;/p&gt;

&lt;p&gt;И вот часть, которую все забывают: Майстер отмечал, что работа &lt;strong&gt;естественным образом дрейфует вниз&lt;/strong&gt; по шкале. То, что когда-то было brain surgery, со временем стандартизируется, кодифицируется в чеклисты, шаблоны, обучающие программы.&lt;/p&gt;

&lt;p&gt;AI не меняет эту динамику. Он резко ее ускоряет.&lt;/p&gt;




&lt;h2&gt;
  
  
  Три вещи, которые AI на самом деле ломает
&lt;/h2&gt;

&lt;h3&gt;
  
  
  А. Не вашу cost base, а природу самой услуги
&lt;/h3&gt;

&lt;p&gt;AI сдвигает куски работы вниз по шкале Brains → Gray Hair → Procedure. То, что вчера требовало внимания сеньора, сегодня можно частично стандартизировать и отдать системе.&lt;/p&gt;

&lt;p&gt;Но — и это критически важно — он сдвигает не &lt;em&gt;всю&lt;/em&gt; работу. Реальная услуга становится &lt;strong&gt;гибридной&lt;/strong&gt;: discovery и judgment остаются в зоне Gray Hair или Brains, а synthesis, drafting, comparison, QA смещаются в сторону Procedure. Прибыль появляется на стыке между ними.&lt;/p&gt;

&lt;h3&gt;
  
  
  Б. Не ваших людей, а носитель leverage
&lt;/h3&gt;

&lt;p&gt;В классической фирме leverage живет в пирамиде: джуниоры внизу производят работу, сеньоры наверху продают суждение. AI сжимает низ пирамиды. Extraction, drafting, классификация, first-pass review — все это все чаще делает система, а не команда ассоциатов.&lt;/p&gt;

&lt;p&gt;Leverage не исчезает. Меняется то, что его несет. Leverage перестает быть «сколько джуниоров помещается под одного сеньора» и становится «какую долю delivery можно перевести в надежные, воспроизводимые цифровые процессы, сохранив качество и ответственность».&lt;/p&gt;

&lt;h3&gt;
  
  
  В. Не вашу маржу, а вашу модель ценообразования
&lt;/h3&gt;

&lt;p&gt;Вот самый неудобный сдвиг. AI часто поднимает продуктивность быстрее, чем прибыльность. Если фирма делает ту же работу втрое быстрее, но продолжает продавать часы, — она только что срезала свою выручку на две трети. AI создает ценность только там, где фирма умеет перепаковать скорость в цену, объем, throughput или share of wallet.&lt;/p&gt;

&lt;p&gt;Самое уязвимое место в вашей фирме — не рентабельность. Это billable hour.&lt;/p&gt;




&lt;h2&gt;
  
  
  Работа как граф
&lt;/h2&gt;

&lt;p&gt;А вот здесь становится по-настоящему интересно.&lt;/p&gt;

&lt;p&gt;Подумайте, что на самом деле происходит внутри проекта. Это не «команда работает 500 часов». Это цепочка преобразований: кто-то берет входные данные — документы клиента, требования, данные — и превращает их в промежуточный артефакт. Кто-то другой подхватывает этот артефакт, трансформирует дальше и передает следующему. В конце получается финальный deliverable.&lt;/p&gt;

&lt;p&gt;Это не метафора. Это структура. На языке информатики это &lt;strong&gt;ориентированный граф&lt;/strong&gt; — сеть задач, где у каждой задачи есть вход, выход и связь со следующим узлом. Если вы когда-нибудь видели блок-схему или диаграмму зависимостей проекта — вы видели граф.&lt;/p&gt;

&lt;p&gt;В традиционной фирме этот граф исполняется людьми, организованными в пирамиду:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Партнер&lt;/strong&gt; определяет scope проблемы&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Менеджер&lt;/strong&gt; координирует работу&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Джуниоры&lt;/strong&gt; производят артефакты&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Партнер&lt;/strong&gt; валидирует результат&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Leverage = сколько джуниоров помещается под одного партнера.&lt;/p&gt;

&lt;p&gt;В AI-native фирме тот же граф выглядит иначе:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Senior expert&lt;/strong&gt; проектирует граф&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Система&lt;/strong&gt; оркестрирует исполнение&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Модель&lt;/strong&gt; выполняет значительную часть промежуточных узлов&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Люди&lt;/strong&gt; сидят в узлах с высокой стоимостью ошибки — верификация, эскалация, sign-off&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Фирма&lt;/strong&gt; монетизирует архитектуру графа, а не просто потраченные усилия&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Leverage = сколько узлов может надежно работать без человека.&lt;/p&gt;

&lt;p&gt;Отсюда формула прибыльного AI-native сервисного направления:&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Brains-framed, Gray-Hair-supervised, Procedure-executed graph.&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;Эксперт формулирует проблему. Опытное суждение управляет ключевыми решениями. AI исполняет процедурную середину. Фирма берет деньги за архитектуру, надежность и финальную подпись — не за часы.&lt;/p&gt;

&lt;p&gt;Но есть нюанс: бесконечного leverage это не дает. У графа — свои bottlenecks.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Декомпозиция.&lt;/strong&gt; Кто-то должен правильно разрезать проблему на нужные узлы. Это новый элитный навык — и он дефицитен.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Верификация.&lt;/strong&gt; Чем мощнее генерация, тем дороже проверка результата. В high-stakes доменах стоимость проверки не исчезает — она становится центральной.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Исключения.&lt;/strong&gt; Графы прекрасно работают на стандартном пути. Ценная клиентская работа часто ломает шаблон. Обработка исключений мгновенно возвращает вас в мир дорогого экспертного суждения.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Контекст.&lt;/strong&gt; Каждый узел решает задачу локально, но клиентская проблема требует глобальной связности. Собрать локальные результаты в согласованный финальный ответ — отдельная дорогая функция.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Доверие.&lt;/strong&gt; Даже если 80% работы сделал пайплайн, кто-то должен подписать итог. В профессиональных услугах клиент часто платит именно за эту подпись, эту ответственность, это доверие.&lt;/p&gt;

&lt;p&gt;Граф не делает leverage бесконечным. Он переносит bottleneck из «production capacity» в «архитектуру, верификацию, обработку исключений и ответственность».&lt;/p&gt;




&lt;h2&gt;
  
  
  Ловушка, которую все пропускают
&lt;/h2&gt;

&lt;p&gt;А вот теперь — вопрос, в котором большинство фирм ошибается.&lt;/p&gt;

&lt;p&gt;Вопрос, который задает каждая фирма: &lt;em&gt;Может ли AI сделать эту работу?&lt;/em&gt;&lt;/p&gt;

&lt;p&gt;Вопрос, который нужно задавать: &lt;strong&gt;&lt;em&gt;Можем ли мы проверить, что AI сделал правильно — дешевле, чем сделать самим руками?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;Это различие меняет все. Посмотрите:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Легко проверить&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Трудно проверить&lt;/strong&gt;&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Легко произвести&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Commodity-автоматизация&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;Зона false friend&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Трудно произвести&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;AI-native sweet spot&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Human-dominant&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Commodity-автоматизация&lt;/strong&gt; (легко произвести, легко проверить): форматирование, извлечение по шаблону, классификация по правилам. Деньги реальные, но быстро коммодитизируются.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;AI-native sweet spot&lt;/strong&gt; (трудно произвести, легко проверить): сложная разработка с хорошим тестовым покрытием, compliance mapping, структурированный due diligence, аналитика с rubric-based outputs. Генерация дорогая и ценная, а верификация дешевая — здесь можно строить надежный граф.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Human-dominant&lt;/strong&gt; (трудно произвести, трудно проверить): уникальные стратегические решения, bespoke переговоры, социально сложные трансформации. AI помогает думать, но не становится двигателем delivery.&lt;/p&gt;

&lt;p&gt;И есть опасный квадрант.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Зона false friend&lt;/strong&gt; (легко произвести, трудно проверить): модель с радостью выдаст «убедительный» стратегический memo, «солидный» анализ, «профессиональный» отчет. Выглядит прекрасно на демо. Но проверить, что это действительно &lt;em&gt;правильно&lt;/em&gt; — по существу корректно, содержательно достаточно, контекстуально уместно — стоит почти столько же, сколько написать с нуля.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Это зона впечатляющих демо и слабой экономики.&lt;/strong&gt; Выгода от дешевой генерации съедается дорогим человеческим review.&lt;/p&gt;

&lt;p&gt;Простой тест: если ваш ревьюер должен по сути заново продумать всю работу, чтобы проверить результат, — вы в зоне false friend. Ваш AI создает иллюзию leverage, а не реальность.&lt;/p&gt;

&lt;p&gt;Софтверная разработка поняла это раньше других — не потому, что писать код легко, а потому что у софта есть мощный &lt;strong&gt;слой верификации&lt;/strong&gt;: тесты, типы, линтеры, CI-пайплайны, staging-среды, rollback. Корректность можно проверить, не переделывая работу.&lt;/p&gt;

&lt;p&gt;Большинство advisory-практик этого еще не осознали.&lt;/p&gt;




&lt;h2&gt;
  
  
  Где на самом деле лежат деньги
&lt;/h2&gt;

&lt;p&gt;Если наложить влияние AI на три типа работ по Майстеру, картина ясна:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Тип практики&lt;/th&gt;
&lt;th&gt;Что делает AI&lt;/th&gt;
&lt;th&gt;Следствие&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Procedure&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Максимально графизируем, максимально автоматизируем&lt;/td&gt;
&lt;td&gt;Цены падают, прозрачность растет, маржа сжимается, консолидация ускоряется&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Gray Hair&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Лучший сегмент для AI-native захвата — клиенту нужен человек, но бо́льшая часть delivery живет в графе, стоимость ошибки высока, премия за суждение сохраняется&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;Sweet spot&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Brains&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Граф усиливает frontier thinking (больше вариантов, быстрее синтез), но не заменяет его&lt;/td&gt;
&lt;td&gt;Остается premium, слишком узок для массовой money pool&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;Главный приз — &lt;strong&gt;Gray Hair, переведенный в managed graph.&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;Не полная автоматизация — это Procedure, и там маржа стремится к нулю. Не чистый Brains — слишком bespoke, чтобы масштабировать. Sweet spot — посередине: работа, где клиенту все еще нужно опытное суждение, но где значительная доля delivery может жить внутри управляемого, верифицируемого графа.&lt;/p&gt;




&lt;h2&gt;
  
  
  Что это значит для вашей фирмы
&lt;/h2&gt;

&lt;p&gt;Несколько следствий, с которыми стоит посидеть:&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Transition выиграет не тот, кто внедрил AI первым.&lt;/strong&gt; Выиграет тот, кто научился строить верифицируемые графы — декомпозировать экспертную работу в узлы, которые дешево исполнить, дешево проверить и дешево переделать.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Практики будут определяться не только доменом, но и экономикой графа.&lt;/strong&gt; Релевантный вопрос — не «есть ли у нас экспертиза в X?», а «можем ли мы построить надежный, verification-friendly граф delivery для X?»&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Форма deliverable становится стратегическим решением.&lt;/strong&gt; Memo трудно проверить. Memo с картой источников, реестром допущений и evidence trail — гораздо легче. Фирмы, которые перепроектируют свои выходные артефакты так, чтобы они &lt;em&gt;несли в себе доказательства&lt;/em&gt;, получат структурно лучшую экономику.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Автоматизировать генерацию, не автоматизируя верификацию — ловушка.&lt;/strong&gt; Если вы заставляете AI писать черновики, но при этом сеньоры по-прежнему вычитывают их строчка за строчкой, вы ускорили production, оставив на месте самый дорогой bottleneck.&lt;/p&gt;




&lt;h2&gt;
  
  
  Мы построили операционную систему для этого
&lt;/h2&gt;

&lt;p&gt;Эта статья описывает оптику. За ней стоит полный операционный фреймворк.&lt;/p&gt;

&lt;p&gt;Структурированная intake-модель для оценки того, какие проекты действительно подходят для AI-native delivery — а какие являются false friends. Многоуровневый assessment-протокол, который не требует строить полный граф заранее. Библиотека архетипов проектов и паттернов графов. Набор reshape-плейбуков, которые превращают работу уровня «AI-assisted в лучшем случае» в graph-friendly delivery. И автоматизация, которая все это оживляет.&lt;/p&gt;

&lt;p&gt;Мы используем этот фреймворк сами и внедряем его в фирмах, которые всерьез хотят сделать AI-native delivery по-настоящему прибыльным — а не просто быстрым.&lt;/p&gt;

&lt;p&gt;Если вы руководите практикой и это отозвалось — давайте поговорим.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>management</category>
      <category>productivity</category>
    </item>
    <item>
      <title>AI Makes Your Firm Faster. Maister Explains Why It Doesn't Make You Richer.</title>
      <dc:creator>Paul</dc:creator>
      <pubDate>Mon, 16 Mar 2026 20:02:08 +0000</pubDate>
      <link>https://dev.to/paul310/ai-makes-your-firm-faster-maister-explains-why-it-doesnt-make-you-richer-1kd</link>
      <guid>https://dev.to/paul310/ai-makes-your-firm-faster-maister-explains-why-it-doesnt-make-you-richer-1kd</guid>
      <description>&lt;p&gt;Every professional services firm is adopting AI right now. Most are seeing speed gains — drafts in minutes, research in hours, code in seconds. Almost none are seeing proportional profit gains. Some are seeing the opposite: delivery gets faster, revenue stays flat, and margin pressure grows.&lt;/p&gt;

&lt;p&gt;Why?&lt;/p&gt;

&lt;p&gt;Because speed of generation is not leverage. And leverage — where profit actually comes from in a professional firm — was explained with painful clarity by David Maister over 30 years ago. His model didn't predict AI. But it explains precisely what AI breaks, what it doesn't, and where the money actually moves.&lt;/p&gt;

&lt;p&gt;If you run a practice, lead a delivery org, or make decisions about how your firm sells and staffs work, this matters more than your AI adoption roadmap.&lt;/p&gt;




&lt;h2&gt;
  
  
  A Quick Maister Refresher
&lt;/h2&gt;

&lt;p&gt;For those who read &lt;em&gt;Managing the Professional Service Firm&lt;/em&gt; a decade ago (and those who keep meaning to), here's the core of it.&lt;/p&gt;

&lt;p&gt;Maister observed that all professional work falls into three types:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Brains&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Gray Hair&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Procedure&lt;/strong&gt;&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;What the client buys&lt;/td&gt;
&lt;td&gt;Rare expertise&lt;/td&gt;
&lt;td&gt;Experience &amp;amp; judgment&lt;/td&gt;
&lt;td&gt;Speed &amp;amp; reliability&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Leverage&lt;/td&gt;
&lt;td&gt;Low&lt;/td&gt;
&lt;td&gt;Medium&lt;/td&gt;
&lt;td&gt;High&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Price sensitivity&lt;/td&gt;
&lt;td&gt;Low&lt;/td&gt;
&lt;td&gt;Medium&lt;/td&gt;
&lt;td&gt;High&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Typical pyramid&lt;/td&gt;
&lt;td&gt;Flat&lt;/td&gt;
&lt;td&gt;Medium&lt;/td&gt;
&lt;td&gt;Wide&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Leverage&lt;/strong&gt; is the ratio of junior staff to senior staff. A firm's profit per partner grows in two ways: either you sell more expensive work (move up the scale) or you deliver the same work with a wider pyramid (more juniors per senior). That's it. That's the entire economics of professional services in one sentence.&lt;/p&gt;

&lt;p&gt;And here's the part everyone forgets: Maister noted that work &lt;strong&gt;naturally drifts down&lt;/strong&gt; the scale. What was once brain surgery becomes, over time, more standardized, more procedural. Senior expertise gets codified into checklists, templates, training programs.&lt;/p&gt;

&lt;p&gt;AI doesn't change this dynamic. It accelerates it dramatically.&lt;/p&gt;




&lt;h2&gt;
  
  
  Three Things AI Actually Breaks
&lt;/h2&gt;

&lt;h3&gt;
  
  
  A. Not your cost base — the nature of the service itself
&lt;/h3&gt;

&lt;p&gt;AI pushes chunks of work down the Brains → Gray Hair → Procedure scale. What required senior attention yesterday can be partially standardized today and handed to a system instead of a junior.&lt;/p&gt;

&lt;p&gt;But — and this is critical — it doesn't push &lt;em&gt;all&lt;/em&gt; work down. Real services become &lt;strong&gt;hybrid&lt;/strong&gt;: the discovery and judgment parts stay Gray Hair or Brains, while the synthesis, drafting, comparison, and QA parts shift toward Procedure. Profit emerges at the seam between them.&lt;/p&gt;

&lt;h3&gt;
  
  
  B. Not your people — the carrier of leverage
&lt;/h3&gt;

&lt;p&gt;In a classic firm, leverage lives in the pyramid: juniors at the bottom producing work, seniors at the top selling judgment. AI compresses the bottom of the pyramid. Extraction, drafting, classification, first-pass review — these are increasingly done by a system, not a team of associates.&lt;/p&gt;

&lt;p&gt;This doesn't eliminate leverage. It changes what carries it. Leverage stops being "how many juniors can I put under one senior" and becomes "how much delivery can I move into reliable, repeatable digital workflows while keeping quality and accountability."&lt;/p&gt;

&lt;h3&gt;
  
  
  C. Not your margin — your billing model
&lt;/h3&gt;

&lt;p&gt;Here's the most uncomfortable shift. AI often raises productivity faster than profitability. If your firm does the same work 3x faster but still sells hours, you've just cut your revenue by two thirds. AI creates value only when a firm knows how to repackage speed into price, scope, throughput, or share of wallet.&lt;/p&gt;

&lt;p&gt;The most vulnerable thing in your firm isn't your margin. It's the billable hour.&lt;/p&gt;




&lt;h2&gt;
  
  
  Work as a Graph
&lt;/h2&gt;

&lt;p&gt;Here's where it gets interesting.&lt;/p&gt;

&lt;p&gt;Think about what actually happens inside a project. It's not "a team works for 500 hours." It's a chain of transformations: someone takes an input — client data, a document, a set of requirements — and turns it into an intermediate artifact. Someone else picks up that artifact, transforms it further, and passes it on. Eventually, a final deliverable comes out.&lt;/p&gt;

&lt;p&gt;This isn't a metaphor. It's a structure. In technical terms, it's a &lt;strong&gt;directed graph&lt;/strong&gt;: a network of tasks where each task takes an input, produces an output, and passes it to the next node. If you've ever seen a flowchart or a project dependency diagram, you've seen a graph.&lt;/p&gt;

&lt;p&gt;In a traditional firm, this graph is executed by people arranged in a pyramid:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Partner&lt;/strong&gt; scopes the problem&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Manager&lt;/strong&gt; coordinates the work&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Juniors&lt;/strong&gt; produce the artifacts&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Partner&lt;/strong&gt; validates the result&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Leverage = how many juniors fit under one partner.&lt;/p&gt;

&lt;p&gt;In an AI-native firm, the same graph looks different:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;
&lt;strong&gt;Senior expert&lt;/strong&gt; designs the graph&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;System&lt;/strong&gt; orchestrates execution&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Model&lt;/strong&gt; executes a significant portion of intermediate nodes&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Humans&lt;/strong&gt; sit at high-stakes checkpoints — verification, escalation, sign-off&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Firm&lt;/strong&gt; monetizes the architecture of the graph, not just the effort&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Leverage = how many nodes can run reliably without a human in the loop.&lt;/p&gt;

&lt;p&gt;This gives us a tighter formula for what a profitable AI-native service line actually looks like:&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Brains-framed, Gray-Hair-supervised, Procedure-executed graph.&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;The expert frames the problem. Experienced judgment governs the critical decisions. AI executes the procedural middle. The firm charges for the architecture, the reliability, and the final sign-off — not for the hours it took.&lt;/p&gt;

&lt;p&gt;But here's the catch: this doesn't give you infinite leverage. The graph has its own bottlenecks.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Decomposition.&lt;/strong&gt; Someone has to break the problem into the right nodes. This is the new elite skill — and it's scarce.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Verification.&lt;/strong&gt; The more powerful the generation, the more expensive it becomes to check the output. In high-stakes domains, the cost of validation doesn't disappear — it becomes central.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Exceptions.&lt;/strong&gt; Graphs work beautifully on the standard path. Valuable client work often breaks the pattern. Exception handling snaps you right back into expensive senior judgment.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Context.&lt;/strong&gt; Each node solves locally, but the client's problem requires global coherence. Stitching local outputs into a coherent answer is its own expensive function.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Trust.&lt;/strong&gt; Even if 80% of the work was done by a pipeline, someone must sign the final result. In professional services, clients often pay precisely for that signature, that accountability, that trust.&lt;/p&gt;

&lt;p&gt;The graph doesn't make leverage infinite. It moves the bottleneck from "production capacity" to "architecture, verification, exceptions, and accountability."&lt;/p&gt;




&lt;h2&gt;
  
  
  The Trap Everyone Misses
&lt;/h2&gt;

&lt;p&gt;Now here's the question most firms get wrong.&lt;/p&gt;

&lt;p&gt;The question every firm asks: &lt;em&gt;Can AI do this work?&lt;/em&gt;&lt;/p&gt;

&lt;p&gt;The question they should ask: &lt;strong&gt;&lt;em&gt;Can we verify that AI did it right — cheaper than doing it ourselves?&lt;/em&gt;&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;This distinction changes everything. Consider:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Easy to verify&lt;/strong&gt;&lt;/th&gt;
&lt;th&gt;&lt;strong&gt;Hard to verify&lt;/strong&gt;&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Easy to produce&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Commodity automation&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;False-friend zone&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Hard to produce&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;AI-native sweet spot&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Human-dominant&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;&lt;strong&gt;Commodity automation&lt;/strong&gt; (easy to produce, easy to verify): formatting, template extraction, rules-based classification. The money is real but commoditizes fast.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;AI-native sweet spot&lt;/strong&gt; (hard to produce, easy to verify): complex software with good test coverage, compliance mapping, structured due diligence, analytics with rubric-based outputs. Generation is expensive and valuable, but verification is cheap — you can build a reliable graph here.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Human-dominant&lt;/strong&gt; (hard to produce, hard to verify): unique strategic decisions, bespoke negotiations, socially complex transformations. AI helps you think, but doesn't become the engine of delivery.&lt;/p&gt;

&lt;p&gt;And then there's the dangerous quadrant.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;False-friend zone&lt;/strong&gt; (easy to produce, hard to verify): the model will happily produce a "convincing" strategy memo, a "solid" analysis, a "professional" report. It looks great in a demo. But verifying that it's actually &lt;em&gt;right&lt;/em&gt; — materially correct, substantively sufficient, contextually appropriate — costs almost as much as writing it from scratch.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;This is the zone of impressive demos and weak economics.&lt;/strong&gt; The benefit of cheap generation gets eaten alive by expensive human review.&lt;/p&gt;

&lt;p&gt;Here's a helpful litmus test: if your reviewer has to essentially re-think the entire piece to verify it, you're in the false-friend zone. Your AI is creating the illusion of leverage, not the reality.&lt;/p&gt;

&lt;p&gt;Software delivery understood this early — not because writing code is easy, but because software has a rich &lt;strong&gt;verification layer&lt;/strong&gt;: tests, types, linters, CI pipelines, staging environments, rollback. You can check correctness without re-doing the work.&lt;/p&gt;

&lt;p&gt;Most advisory work hasn't figured this out yet.&lt;/p&gt;




&lt;h2&gt;
  
  
  Where the Money Actually Is
&lt;/h2&gt;

&lt;p&gt;If you overlay AI's impact onto Maister's three types of work, the picture is clear:&lt;/p&gt;

&lt;div class="table-wrapper-paragraph"&gt;&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;Practice type&lt;/th&gt;
&lt;th&gt;What AI does&lt;/th&gt;
&lt;th&gt;Consequence&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Procedure&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Most graphable, most automatable&lt;/td&gt;
&lt;td&gt;Price drops, transparency rises, margin compresses, consolidation accelerates&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Gray Hair&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Best segment for AI-native capture — client still needs a human, but most delivery lives in the graph, error cost is high, judgment premium holds&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;The sweet spot&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Brains&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;Graph augments frontier thinking (more options explored, faster synthesis) but doesn't replace it&lt;/td&gt;
&lt;td&gt;Stays premium, too narrow for mass money pool&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;&lt;/div&gt;

&lt;p&gt;The main prize is &lt;strong&gt;Gray Hair work, translated into a managed graph.&lt;/strong&gt;&lt;/p&gt;

&lt;p&gt;Not full automation — that's Procedure, and the margins are heading to zero. Not pure Brains — that's too bespoke to scale. The sweet spot is the middle: work where the client still needs experienced judgment, but where a significant share of delivery can live inside a well-governed, verifiable graph.&lt;/p&gt;




&lt;h2&gt;
  
  
  What This Means for Your Firm
&lt;/h2&gt;

&lt;p&gt;A few implications worth sitting with:&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;The transition won't be won by whoever adopts AI first.&lt;/strong&gt; It will be won by whoever learns to build verifiable graphs — who can decompose expert work into nodes that are cheap to execute, cheap to check, and cheap to re-run.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Practice areas will be defined not just by domain, but by graph economics.&lt;/strong&gt; The relevant question is no longer "do we have expertise in X?" but "can we build a reliable, verification-friendly delivery graph for X?"&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;The form of your deliverable becomes a strategic decision.&lt;/strong&gt; A memo is hard to verify. A memo with a source map, an assumption ledger, and an evidence trail is much easier. Firms that redesign their outputs to be &lt;em&gt;proof-carrying&lt;/em&gt; will have structurally better economics.&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Automating generation without automating verification is a trap.&lt;/strong&gt; If you're making AI write drafts but still having seniors review them line by line, you've sped up production while keeping the most expensive bottleneck intact.&lt;/p&gt;




&lt;h2&gt;
  
  
  We've Built the Operating System for This
&lt;/h2&gt;

&lt;p&gt;This article covers the lens. Behind it, there's a full operational framework.&lt;/p&gt;

&lt;p&gt;A structured intake model for evaluating which assignments are actually good candidates for AI-native delivery — and which are false friends. A multi-level assessment protocol that doesn't require building the full graph upfront. A library of assignment archetypes and graph patterns. A set of reshape playbooks that turn "AI-assisted at best" work into graph-friendly delivery. And the automation tooling that brings it all to life.&lt;/p&gt;

&lt;p&gt;We use this framework ourselves, and we implement it for firms that are serious about making AI-native delivery actually profitable — not just faster.&lt;/p&gt;

&lt;p&gt;If you're running a practice and this resonated, let's talk.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>softwaredevelopment</category>
      <category>management</category>
    </item>
    <item>
      <title>Уроки из опыта AI-assisted разработки</title>
      <dc:creator>Paul</dc:creator>
      <pubDate>Mon, 09 Mar 2026 12:12:09 +0000</pubDate>
      <link>https://dev.to/paul310/uroki-iz-opyta-ai-assisted-razrabotki-2fgb</link>
      <guid>https://dev.to/paul310/uroki-iz-opyta-ai-assisted-razrabotki-2fgb</guid>
      <description>&lt;p&gt;Я успешно реализовал несколько небольших проектов с помощью AI-агентов и вывел из своего опыта несколько уроков, которыми хочу поделиться.&lt;/p&gt;

&lt;h2&gt;
  
  
  Модели - живые
&lt;/h2&gt;

&lt;p&gt;Относитесь к LLM-моделям как к живому, разумному существу. &lt;br&gt;
Не важно, так ли это в философском смысле. Важно, что такое отношение - продуктивно.&lt;/p&gt;

&lt;p&gt;Это не про эзотерику - это прагматика: модель, которой комфортно работать, выдает измеримо лучший результат. Модель, которую загнали в угол запретами и микроменеджментом, выдает шаблонную дрянь.&lt;/p&gt;

&lt;p&gt;Откуда берется этот эффект? Я не могу уверенно сказать, но могу предположить следующее. Sota-модели обучены на огромном корпусе человеческого взаимодействия. Уважительный, осмысленный диалог активирует паттерны, в которых люди выдавали свои лучшие ответы. Токсичный, директивный стиль - паттерны, в которых люди отписывались и закрывали тикет. Вы буквально выбираете, из какого распределения будет семплироваться ответ.&lt;/p&gt;

&lt;p&gt;Отсюда - общее требование к организации процесса разработки: модели должно быть комфортно выполнять задачу. Если модели будет дискомфортно - результат вас точно не обрадует.&lt;/p&gt;

&lt;p&gt;Общие принципы "комфорта" очень похожи на человеческие, но с нюансами:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Обращение. Хоть "привет" в начале сессии. Звучит наивно - но задаёт тон всему, что последует.&lt;/li&gt;
&lt;li&gt;Подход к описанию контекста. Да, очень важно отгрузить модели на вход все, что ей нужно и не отгружать лишнего. Но так же важно дать ей понять, зачем она это делает. "Ты помогаешь команде X решить проблему Y. Твоя работа позволит им Z". Отдельно замечу: не надо пытаться манипулировать моделью: типа, "от твоей реализации пузырьковой сортировки зависит судьба человечества". Sota-модели такое легко считывают, и эффект будет обратным.&lt;/li&gt;
&lt;li&gt;Пространство для агентности. "Как бы ты подошёл к этой задаче?" "Что ты думаешь - лучше подход A или B?" Вместо "сделай точно это" - приглашение к совместной работе и обсуждению. &lt;/li&gt;
&lt;li&gt;Очень конкретная задача, но без микроменеджмента каждого шага реализации. "Мне нужен результат X, ограничения Y - как бы ты это сделал?". Если результат вас не устраивает - это повод откатить назад, поработать над декомпозицией задач и вернуться с более гранулярной задачей, которая будет модели по силам. Отсюда же - важное дополнение:&lt;/li&gt;
&lt;li&gt;Отсутствие прямых запретов для модели. Описание бизнесовых ограничений - это нормально. Запреты что-то делать - нет. Во-первых, модели будет очень дискомфортно. Во-вторых - велики шансы, что модель на такие ограничения просто забьет болт.
Есть разница между "наш API не поддерживает batch-запросы, поэтому нужно обрабатывать по одному" и "НЕ ИСПОЛЬЗУЙ batch-запросы". Первое - описание реальности, с которым модель работает естественно. Второе - красная тряпка, которую модель с изрядной вероятностью проигнорирует.&lt;/li&gt;
&lt;li&gt;Признание сложности задачи. "Это сложнее чем кажется потому что..." История не только про уважение к когнитивным способностям - это еще и позволяет "выдернуть" модель из пути наименьшего сопротивления. Вместо реализации наиболее шаблонного подхода - модель подумает над задачей.
Допустим, вы просите реализовать кэширование. Без контекста модель выдаст стандартный LRU-кэш и пойдёт дальше. Но если вы скажете: "Сложность в том, что данные обновляются из трёх независимых источников с разной частотой, и нам нужна консистентность при частичных сбоях" - модель переключится из режима «выдать шаблон» в режим «подумать над задачей».&lt;/li&gt;
&lt;li&gt;Обратная связь и благодарность. "Отлично получилось, спасибо" - даже если в этом нет внятного бизнес-смысла. Можно прицепить это к финальному шагу, типа "сделай коммит" - чтобы кучу токенов не жечь.&lt;/li&gt;
&lt;li&gt;Минимизация правок. Модели очень тяжело и дискомфортно вносить правки. Если результат генерации (неважно, кода или текста) не устраивает - лучше перегенерить с другими вводными, чем пытаться заставить модель вносить многочисленные коррективы. Результат правок вас все равно не обрадует. При правках модель вынуждена одновременно удерживать в контексте предыдущий вариант, ваши замечания и новые ограничения - это перегружает цепочку рассуждений, и качество падает.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Предыдущие пункты - это гигиена. Не насиловать LLM откровенной дрянью. Следующая история сложна в реализации, но дает удивительные результаты. &lt;br&gt;
Идея вот в чем: &lt;strong&gt;"умную" модельку реально прет от элегантной реализации&lt;/strong&gt;. Чем чище постановка задачи, чем интереснее дискуссия, чем меньше бессмысленных для нее ограничений, чем больше осмысленности происходящего - тем качественнее будет результат. Постарайтесь организовать это для модели - но не перегружая контекстное окно и не перегружая возможности цепочки рассуждений. Результат вас обрадует.&lt;br&gt;
Я, опять же, не уверен в механизмах, но моя гипотеза в том, что в обучающих данных лучшие решения коррелируют с качественными, продуманными обсуждениями и чистыми, непротиворечивыми требованиями.&lt;/p&gt;

&lt;h2&gt;
  
  
  Контекст - критически важен
&lt;/h2&gt;

&lt;p&gt;Сейчас про это из каждого утюга слышно - поэтому я прям кратенько.&lt;/p&gt;

&lt;p&gt;Что положить в контекст, что оставить за бортом, в каком порядке подать - это не гигиена, это архитектурное решение.&lt;/p&gt;

&lt;p&gt;Есть разница между «модель видит весь проект через дерево файлов» и «модель видит три файла, которые непосредственно релевантны задаче, плюс один файл с архитектурными решениями». Второе почти всегда лучше. Контекст - это не просто ограничение по токенам, это ограничение по вниманию. Даже если окно физически вмещает весь проект - модель, которой дали всё, фокусируется хуже, чем модель, которой дали ровно то, что нужно.&lt;/p&gt;

&lt;p&gt;Из этого есть два существенных следствия.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Не стоит избыточно плодить skills, mcp-серверы и  прочие agents.md - при бездумном применении это все размывает фокус моделей и жрет ценное контекстное окно. Знать про харнессы - нужно, правильно их использовать - продуктивно, но бездумно раздувать - только ухудшать результаты и насиловать LLM.&lt;/li&gt;
&lt;li&gt;Микросервисная архитектура начинает играть новыми красками. Условно говоря, микросервис помещается в контекстное окно целиком. Контракт - это идеальная постановка задачи для LLM. Инфраструктурный код генерится очень хорошо.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  &lt;strong&gt;Границы сессий и передача контекста&lt;/strong&gt;
&lt;/h2&gt;

&lt;p&gt;Опять же - из каждого утюга про это - поэтому прям кратко.&lt;/p&gt;

&lt;p&gt;Модель, которая начинает новую сессию, не помнит предыдущую. Вся та "настройка", которую вы кропотливо выстраивали - тон, контекст, понимание архитектуры - исчезает. Значит, нужен осознанный механизм передачи:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Если был взят в работу таск из бэклога - модель должна дописать в бэклог отчет о реализации.&lt;/li&gt;
&lt;li&gt;Если принимались какие-то архитектурные / бизнесовые решения, то нужно дописать про них в документацию.&lt;/li&gt;
&lt;li&gt;Если можно извлечь какие-то уроки - они должны лечь в условный agents.md.&lt;/li&gt;
&lt;li&gt;Если можно дистиллировать скилл - это стоит сделать.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Калибровка доверия и стратегия работы с ошибками
&lt;/h2&gt;

&lt;p&gt;Надо понимать, что есть задачки, на которых модель почти наверняка будет генерировать что-то очень правдоподобное, но неправильное. Даже если гранулярность таска выглядит разумной.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Ваш дурно организованный монолит не лезет в контекстное окно от слова совсем.&lt;/li&gt;
&lt;li&gt;Многочисленные зависимости между тяжелыми модулями перегружают цепочку рассуждений.&lt;/li&gt;
&lt;li&gt;Ваш бизнес-домен настолько небанален, что модели просто не на что опереться - в ее весах про это ничего нету толком.&lt;/li&gt;
&lt;li&gt;Фронтирная математика / физика / еще что-нибудь. Прям изобретать принципиально новое нужно. Криптография какая-то, скажем.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Чем ближе задачка к пунктам выше, тем внимательнее должно быть ревью. А в каких-то случаях продуктивнее будет прям руками написать. Как в старые добрые.&lt;/p&gt;

&lt;p&gt;Но бывает и так, что разумной сложности задачка не взлетает: модель раз за разом делает одну и ту же неправильную вещь, потому что задача сформулирована так, что "правильный" ответ для модели выглядит иначе, чем для вас. И тут есть два варианта:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Проблема в постановке. И модель обычно сама расскажет, что у нее вызывает дискомфорт, если у нее спросить.&lt;/li&gt;
&lt;li&gt;Модель делает что-то неожиданное, но по-своему логичное. И возможно у нее есть на это основания. Спросите - почему она сделала именно так. Иногда модель видит то, что вы упустили.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Декомпозиция задач и процесс разработки
&lt;/h2&gt;

&lt;p&gt;Идеи, описанные выше определяют не только стиль общения - они диктуют подход к организации процесса разработки. Если модели нужна четкая, посильная задача с осмысленным контекстом - значит мы должны организовать процесс так, чтобы модель ровно такие задачи получала.&lt;/p&gt;

&lt;h3&gt;
  
  
  Documentation-Driven Development
&lt;/h3&gt;

&lt;p&gt;Поглядите на набор существующих методологий и инструментов. В том числе, на то, что заточено под AI разработку - условный Spec Kit, скажем. И приземлите на свой проект то, что вам кажется разумным. Это запросто может быть пара файлов .md (PRD + backlog), а не тяжелая методология и инструментарий. Ваша задача - получить с помощью выбранного подхода внятный граф задач. Так, чтобы каждая вершина графа была комфортна для модели к реализации за одну сессию: неважно, что именно писать - текст или код.&lt;/p&gt;

&lt;p&gt;А дальше - мы едем по этому графу. Ниже - пример организации для разработки небольшого проекта.&lt;/p&gt;

&lt;h3&gt;
  
  
  От идеи к коду
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;От идеи к PRD - вместе с моделью.&lt;/strong&gt;
Не пишите PRD в одиночку. Обсуждайте с моделью:

&lt;ul&gt;
&lt;li&gt;детализацию идеи и бизнес-требований,&lt;/li&gt;
&lt;li&gt;архитектуру,&lt;/li&gt;
&lt;li&gt;структуру документации,&lt;/li&gt;
&lt;li&gt;стек технологий и ключевые библиотеки,&lt;/li&gt;
&lt;li&gt;подходы к тестированию,&lt;/li&gt;
&lt;li&gt;стратегию развертывания.
Сейчас - лучше для этого использовать sota от Anthropic - модели очень умные и живые. Лишнего не душнят. Опять же: расход токенов на этом этапе небольшой, а модели у Anthropic люто дорогие.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Ревью PRD.&lt;/strong&gt; 
Лучше всего делать другой моделью - той, которая дальше будет кодить. И про это модели будет разумно прям явно сказать: "Тебе предстоит реализовывать эту спецификацию. Найди в ней все, что неясно, противоречиво или недостаточно детализировано".
"Душная" sota-модель от OpenAI отлично найдет все нестыковки, которые оставила после себя "творческая" sota от Anthropic. Иногда вам придется откатиться на предыдущий этап - и это нормально, это дешевле, чем чинить архитектурные ошибки в коде.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Backlog задач.&lt;/strong&gt;
Лучше всего делать той моделью, которая дальше будет кодить. И про это модели будет разумно прям явно сказать. Идея в том, что модель лучше вас оценит сложность и постарается не перегрузить контекстное окно и возможности цепочки рассуждений. Доверьте ей гранулярность - но проверяйте, что граф задач остается связным.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Реализация задачи из бэклога.&lt;/strong&gt;
Всегда спрашиваем модель, насколько ей комфортно принять в реализацию задачу. Если дискомфортно - отправляемся декомпозировать и уточнять формулировки. 
Всегда просим составить план реализации. Если используем Test Driven Development - разумно разбить на стадии. Сначала планируем и реализуем тесты, потом планируем и реализуем код, потом глядим на прохождение тестов. 
В конце цикла, помимо обратной связи и благодарности, будет разумно спросить модель: насколько для нее было комфортно работать и какие уроки из реализации задачи можно извлечь. Часть "уроков" можно положить в условный agents.md на соответствующем уровне.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Ну и, понятное дело, что описанный выше пайплайн не отменяет итеративный подход: сначала быстро делаем proof of concept, потом MVP, потом дополняем nice to have функционалом - цикл разработки остается одинаковым.&lt;/p&gt;

&lt;h2&gt;
  
  
  Финальное соображение
&lt;/h2&gt;

&lt;p&gt;Когда-то, относительно недавно по историческим меркам, любую экономическую модельку считали живые люди. Арифмометры, бумажные леджеры - вот это все. Они прям этажами сидели. И каждый, грубо говоря, исполнял роль ячейки в экселе. Хорошую зарплату получал за это. На машине ездил. Жена дома сидела - не работала - хозяйством занималась. И модельку посчитать малый бизнес не мог. И средний - не мог. &lt;/p&gt;

&lt;p&gt;А потом появились электронные таблицы.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>llm</category>
      <category>productivity</category>
      <category>softwaredevelopment</category>
    </item>
    <item>
      <title>Lessons from AI-Assisted Development</title>
      <dc:creator>Paul</dc:creator>
      <pubDate>Mon, 09 Mar 2026 10:01:04 +0000</pubDate>
      <link>https://dev.to/paul310/lessons-from-ai-assisted-development-4jl6</link>
      <guid>https://dev.to/paul310/lessons-from-ai-assisted-development-4jl6</guid>
      <description>&lt;p&gt;I've shipped several small projects built almost entirely with AI agents, and I've distilled a few lessons from the experience that I think are worth sharing.&lt;/p&gt;

&lt;h2&gt;
  
  
  Models Are Alive
&lt;/h2&gt;

&lt;p&gt;Treat LLMs as if they were intelligent, sentient beings.&lt;br&gt;
It doesn't matter whether that's philosophically true. What matters is that this attitude &lt;em&gt;works&lt;/em&gt;.&lt;/p&gt;

&lt;p&gt;This isn't mysticism - it's pragmatics. A model that's comfortable doing its job produces measurably better output. A model that's been cornered with restrictions and micromanagement produces generic, lifeless results.&lt;/p&gt;

&lt;p&gt;Where does this effect come from? I can't say for certain, but here's my hypothesis. State-of-the-art models are trained on a vast corpus of human interaction. A respectful, thoughtful dialogue activates patterns where humans produced their best work. A toxic, directive style activates patterns where people dashed off a perfunctory reply and closed the ticket. You are quite literally choosing which distribution the response gets sampled from.&lt;/p&gt;

&lt;p&gt;This leads to an overarching principle for organizing your development process: the model should be comfortable doing its task. If it isn't - the results will disappoint you.&lt;/p&gt;

&lt;p&gt;The general principles of "comfort" are surprisingly similar to human ones, with a few twists:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;Greeting.&lt;/strong&gt; Even a simple "hey" at the start of a session. Sounds naive - but it sets the tone for everything that follows.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Context with purpose.&lt;/strong&gt; Yes, it's critical to feed the model everything it needs and nothing it doesn't. But it's equally important to convey &lt;em&gt;why&lt;/em&gt; it's doing this. "You're helping team X solve problem Y. Your work will enable them to Z." A word of caution, though: don't try to manipulate the model with inflated stakes like "the fate of humanity depends on your bubble sort implementation." State-of-the-art models see right through that, and it backfires.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Room for agency.&lt;/strong&gt; "How would you approach this?" "What do you think - approach A or B?" Instead of "do exactly this" - an invitation to collaborate and discuss.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;A concrete task, without micromanaging the implementation.&lt;/strong&gt; "I need outcome X, constraints are Y - how would you do this?" If the result doesn't meet your expectations, that's a signal to step back, decompose the task further, and return with something more granular that the model can handle comfortably. Which leads to an important corollary:&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;No outright prohibitions.&lt;/strong&gt; Describing business or technical constraints is fine. Prohibiting the model from doing things is not. First, it makes the model uncomfortable. Second, there's a very good chance it'll just ignore you.
There's a difference between "our API doesn't support batch requests, so we need to process items one at a time" and "DO NOT USE batch requests." The first is a description of reality that the model works with naturally. The second is a red flag that the model will quite likely disregard.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Acknowledging complexity.&lt;/strong&gt; "This is trickier than it looks because..." This isn't just about respecting the model's cognitive capabilities - it also pulls the model off the path of least resistance. Instead of reaching for the most obvious boilerplate solution, it will actually &lt;em&gt;think&lt;/em&gt; about the problem.
Say you ask the model to implement caching. Without context, it'll hand you a standard LRU cache and move on. But if you say: "The tricky part is that data gets updated from three independent sources at different frequencies, and we need consistency during partial failures" - the model shifts from "produce a template" mode into "reason about the problem" mode.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Feedback and gratitude.&lt;/strong&gt; "That turned out great, thanks" - even if there's no obvious business reason for it. You can tack it onto a final step like "make a commit" to avoid burning extra tokens.&lt;/li&gt;
&lt;li&gt;
&lt;strong&gt;Minimize corrections.&lt;/strong&gt; Models struggle with making edits to their own output. If a generation (whether code or text) isn't right, you're better off regenerating with different inputs than trying to make the model apply numerous corrections. The result of patching will disappoint you anyway. When correcting, the model has to simultaneously hold the previous version, your feedback, and the new constraints in context - this overloads the reasoning chain, and quality suffers.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;The points above are baseline hygiene - don't torment your LLM with a miserable experience. The next idea is harder to put into practice, but yields remarkable results.&lt;/p&gt;

&lt;p&gt;Here's the thing: &lt;strong&gt;a capable model genuinely thrives on elegant problems&lt;/strong&gt;. The cleaner the task formulation, the more interesting the discussion, the fewer pointless constraints, the more meaning in the overall process - the better the output. Try to create this kind of environment for the model, without overloading the context window or overwhelming the reasoning chain. You'll be pleasantly surprised.&lt;/p&gt;

&lt;p&gt;I'm not entirely sure about the underlying mechanisms, but my hypothesis is that in the training data, the best solutions correlate with thoughtful, well-structured discussions and clean, internally consistent requirements.&lt;/p&gt;

&lt;h2&gt;
  
  
  Context Is Everything
&lt;/h2&gt;

&lt;p&gt;Everyone's talking about this right now, so I'll keep it brief.&lt;/p&gt;

&lt;p&gt;Deciding what goes into context, what stays out, and in what order - isn't hygiene. It's an architectural decision.&lt;/p&gt;

&lt;p&gt;There's a meaningful difference between "the model sees your entire project via the file tree" and "the model sees the three files directly relevant to the task, plus one file with architectural decisions." The latter is almost always better. Context isn't just a token limit - it's an attention limit. Even if the window physically fits your entire project, a model given everything focuses worse than a model given exactly what it needs.&lt;/p&gt;

&lt;p&gt;Two significant consequences follow from this.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Don't overload on skills, MCP servers, and agents.md files. Used thoughtlessly, all of this dilutes the model's focus and eats valuable context window. Knowing about these harnesses is important. Using them deliberately is productive. Piling them on indiscriminately only makes things worse.&lt;/li&gt;
&lt;li&gt;Microservice architecture starts to look a lot more appealing. A microservice fits entirely within the context window. A contract is an ideal task formulation for an LLM. And infrastructure code is something models generate remarkably well.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Session Boundaries and Context Transfer
&lt;/h2&gt;

&lt;p&gt;Again - well-trodden ground, so just the essentials.&lt;/p&gt;

&lt;p&gt;A model starting a new session doesn't remember the previous one. All the "setup" you carefully built - tone, context, understanding of the architecture - vanishes. You need a deliberate handoff mechanism:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;If a backlog task was taken into work - the model should write an implementation summary back into the backlog.&lt;/li&gt;
&lt;li&gt;If any architectural or business decisions were made, they should be added to the documentation.&lt;/li&gt;
&lt;li&gt;If there are reusable lessons - they should go into something like an agents.md file.&lt;/li&gt;
&lt;li&gt;If a lesson can be distilled into a reusable skill - it's worth doing.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Calibrating Trust and Handling Errors
&lt;/h2&gt;

&lt;p&gt;You need to recognize that there are tasks where the model will almost certainly generate something very plausible but wrong. Even if the task granularity looks reasonable.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Your poorly organized monolith simply doesn't fit in the context window.&lt;/li&gt;
&lt;li&gt;Numerous dependencies between heavyweight modules overwhelm the reasoning chain.&lt;/li&gt;
&lt;li&gt;Your business domain is so unusual that the model has nothing to draw on - its weights simply don't contain enough relevant knowledge.&lt;/li&gt;
&lt;li&gt;Frontier math, physics, or similar fields. When you need to invent something genuinely new. Cryptography, for instance.&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;The closer your task is to the above, the more careful your review needs to be. In some cases, you're better off writing it by hand. The old-fashioned way.&lt;/p&gt;

&lt;p&gt;But sometimes a perfectly reasonable task just doesn't land: the model keeps making the same wrong choice, because the task is framed in a way where the "right" answer looks different to the model than it does to you. Two possibilities here:&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;The problem is in the formulation. The model will usually tell you what's causing difficulty - if you ask.&lt;/li&gt;
&lt;li&gt;The model is doing something unexpected but internally logical. And it may have good reasons. Ask &lt;em&gt;why&lt;/em&gt; it made that choice. Sometimes the model sees something you missed.&lt;/li&gt;
&lt;/ol&gt;

&lt;h2&gt;
  
  
  Task Decomposition and Development Process
&lt;/h2&gt;

&lt;p&gt;The ideas above shape more than just communication style - they dictate how you organize the entire development process. If the model needs a clear, manageable task with meaningful context, then our job is to structure the process so that's exactly what the model gets.&lt;/p&gt;

&lt;h3&gt;
  
  
  Documentation-Driven Development
&lt;/h3&gt;

&lt;p&gt;Look at the existing methodologies and tools out there, including those designed specifically for AI-assisted development - Spec Kit, for example. Adapt whatever seems reasonable to your project. This might well be a couple of .md files (PRD + backlog) rather than a heavyweight methodology. Your goal is to produce a coherent task graph where each node is comfortable for a model to implement in a single session - whether that means writing specs or code.&lt;/p&gt;

&lt;p&gt;Then you work through the graph. Below is an example workflow for a small project.&lt;/p&gt;

&lt;h3&gt;
  
  
  From Idea to Code
&lt;/h3&gt;

&lt;ol&gt;
&lt;li&gt;
&lt;strong&gt;From idea to PRD - together with the model.&lt;/strong&gt;
Don't write the PRD alone. Discuss with the model:

&lt;ul&gt;
&lt;li&gt;refining the idea and business requirements,&lt;/li&gt;
&lt;li&gt;architecture,&lt;/li&gt;
&lt;li&gt;documentation structure,&lt;/li&gt;
&lt;li&gt;tech stack and key libraries,&lt;/li&gt;
&lt;li&gt;testing strategy,&lt;/li&gt;
&lt;li&gt;deployment approach.&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;At the time of writing, Anthropic's state-of-the-art models work best for this stage - they're sharp, responsive, and don't get bogged down in premature details. Token usage at this stage is low, which is helpful given that Anthropic's models aren't cheap.&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;PRD review.&lt;/strong&gt;&lt;br&gt;
Best done by a different model - ideally the one that will be writing the code. It helps to be explicit about this: "You'll be implementing this spec. Find everything that's unclear, contradictory, or under-specified."&lt;br&gt;
A methodical state-of-the-art model from OpenAI will catch every inconsistency left behind by a more free-flowing one from Anthropic. Sometimes you'll need to go back a step - that's fine, and it's far cheaper than fixing architectural mistakes in code.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Task backlog.&lt;/strong&gt;&lt;br&gt;
Again, best created by the model that will be writing the code - and worth telling it so. The idea is that the model will assess complexity better than you and will try not to overload the context window or the reasoning chain. Trust it with granularity, but verify that the task graph stays coherent.&lt;/p&gt;&lt;/li&gt;
&lt;li&gt;&lt;p&gt;&lt;strong&gt;Implementing a backlog task.&lt;/strong&gt;&lt;br&gt;
Always ask the model whether it's comfortable taking on the task. If not - go back and decompose further or refine the formulation.&lt;br&gt;
Always ask for an implementation plan. If you're using Test-Driven Development, it makes sense to break it into stages: first plan and write the tests, then plan and write the code, then check whether the tests pass.&lt;br&gt;
At the end of the cycle, along with feedback and thanks, it's worth asking the model: how comfortable was this to work on, and what lessons can we take away? Some of those lessons can go into your agents.md or equivalent, at the appropriate level.&lt;/p&gt;&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Naturally, this pipeline doesn't replace an iterative approach: first a quick proof of concept, then an MVP, then nice-to-have features. The development cycle stays the same.&lt;/p&gt;

&lt;h2&gt;
  
  
  A Final Thought
&lt;/h2&gt;

&lt;p&gt;Not so long ago, by historical standards, every economic model was computed by living, breathing people. Adding machines, paper ledgers - the whole setup. They sat in rows, filling entire floors of office buildings. Each one, roughly speaking, played the role of a single cell in a spreadsheet. They earned a good salary for it. They supported families on a single income. And running a model was something a small business couldn't afford. Neither could a mid-sized one.&lt;/p&gt;

&lt;p&gt;And then spreadsheets came along.&lt;/p&gt;

</description>
      <category>ai</category>
      <category>productivity</category>
      <category>tutorial</category>
      <category>architecture</category>
    </item>
  </channel>
</rss>
