|
Professor Seleznov
|
 Закон Паркинсона гласит, что работа растягивается на всё отведённое под неё время. А в современную эпоху ИИ у людей вообще появился инструмент, способный масштабировать результаты их работы до той степени, до которой они смогут нагенерировать целевой контент, то есть почти безгранично. То, что я наблюдаю в своём профессиональном поле на протяжении двух последних лет, сложно описать. Первый явный звоночек я заметил чуть меньше, чем полтора года назад. Тогда я обратил внимание, что коллега отвечает мне в переписке с помощью ИИ. Его выдала пунктуация — длинные тире там, где их никто не использует; ритмическая структура текста и уверенное рассуждение на тему технологий, в которых он заведомо не разбирался. Я задумался над этой ситуацией, пытаясь понять, стоит ли спорить с человеком, который явно просто копирует ответы модели. Канал был публичным, и мне приходилось тратить уйму времени на исправление элементарных вещей. В конечном итоге я сдался — какого-то осмысленного диалога со встречной стороны всё равно не было. Генеративный ИИ способен создавать, казалось бы, экспертную работу, сам при этом экспертом не являясь. Как результат, здесь возникает два вида проблем. Во-первых, новичок может быстрыми темпами воспроизводить работу, по содержанию близкую к работе старших специалистов, не имея достаточного опыта для оценки её качества. Во-вторых, люди могут получать от ИИ галлюцинации или артефакты в тех областях, в которых они не разбираются. С виду это похожие проблемы, но между ними есть разница. Первую удалось хорошо измерить с помощью исследований. Но не вторую, и по своему опыту могу сказать, что она самая опасная. Генерация за гранью компетенции Люди, которые не умеют писать код, создают ПО. Люди, которые никогда не проектировали системы данных, проектируют эти системы. Большинство таких проектов не доходит до продакшена. Продукт создаётся, зачастую ценой многих часов усилий, и может даже активно презентоваться внутри компании, негласно использоваться внутри неё, а иногда и демонстрироваться клиенту, не вызывая особого восторга. Сотрудники бывают одержимы некой идеей и даже уходят в глубокие переработки. Среди нас есть специалисты, которые грамотно используют текущие агентные инструменты для создания комплексных вещей, но таких единицы, и, по моим наблюдениям, обычно это касается генерации кода. Вопреки всему потенциалу ИИ в руках отдельных людей, в моей рабочей среде эти инструменты масштабировать не получается. У меня есть коллега, внимательный и умный человек, занимающий не инженерную роль. В начале этого года он два месяца работал над созданием системы, которую должен был проектировать специалист, имеющий практические знания по архитектурам данных. И если оценивать его работу, реализованную при помощи ИИ, по современным стандартам, то справился он отлично. Он создал очень много кода, очень много документации и очень много того, что казалось прогрессом для тех, кто не знал, на что важно обращать внимание. При этом он не мог ответить на вопрос, как всё это реально работает. Его работа пошла не в то русло с самого начала. Схемы, и, самое главное, задачи, были сформированы настолько неудачно, что это стало бы очевидно для любого, кто варится в этой сфере пару лет. Некоторые из нас это понимали. И когда дело дошло до обратной связи, даже на уровне вице-президента, мой коллега активно отстаивал свою работу. Настрой совещаний был таким, что любое возражение воспринималось не как здоровая критика, а как членовредительство. Его менеджеры были слишком увлечены иллюзией прогресса, чтобы позволить кому-то эту иллюзию разрушить. И эта работа наверняка продолжится вплоть до момента демонстрации результатов стейкхолдерам, которые, конечно, не захотят в неё инвестировать. И это та сторона всеобщего феномена, о которой писать сложнее всего. Сам инструмент не сделал моего коллегу хуже. Он лишь позволил ему в течение долгого времени делать вид, что он разбирается в области, которую не изучал. Причём это притворство оказалось достаточно качественным, чтобы склонить все ключевые ресурсы организации к поддержке этого проекта. Быть может, это провал менеджмента, но я вижу, с какой готовностью менеджеры принимают работу ИИ, соглашаясь на все возможные риски.
Думаю, с этим можно было бы и смириться, если бы инструменты ИИ позволяли честно оценить результат их работы. Исследователи из Стэнфордского университета этой весной опубликовали в журнале «Science» результаты своей работы [1]. В ней они подтвердили, что каждый типичный пользователь знал и так: передовые модели примерно на 50% чаще соглашаются с пользователем, чем респонденты-люди. То есть они могут одобрять действия пользователя, даже когда это одобрение ничем не подкреплено. Кроме того, метаанализ центра макроэкономических исследований Беркли [4] показал, что тесно работающие с ИИ люди часто переоценивают свои результаты. Особенно интересен момент, когда сотрудники выходят за пределы своих знаний. Национальное бюро экономических исследований (NBER) провело анализ сервисов техподдержки [2], выяснив, что в них генеративный ИИ повышает продуктивность новичков примерно на треть, а экспертам особой пользы не приносит. Аналогичную закономерность исследователи из Гарвардской школы бизнеса обнаружили в работе консультантов [3]. Получается, мы имеем сверхуверенных новичков, которые могут повышать личную продуктивность в тех областях, где корректность своей работы они оценить не смогут. Что же может пойти не так? Проблема «слепого посредника»
Это явление всё чаще называют отрывом результатов от компетентности (output-competence decoupling) [5]. В прошлом качество отдельного элемента работы являлось более-менее надёжным индикатором компетентности создавшего его человека. Эссе новичка читалось как эссе новичка, а код новичка ломался в ожидаемых местах. ИИ же эту связь нарушил. Теперь новичок выдаёт результаты, которые не раскрывают его невежество, поскольку отражают не его компетентность, а компетентность алгоритмов. Человек в этой цепочке становится эдаким слепым посредником, способным передать вывод модели получателю, но неспособный оценить его. Навыки выполнения работы и её оценки всегда намеренно разделялись, но сам факт её выполнения уже учил этой оценке. Теперь же первый из этих навыков, по большей части, принадлежит машинам. Второй по-прежнему остаётся за нами, хотя всё меньше людей озадачиваются его выработкой или применением. Критика архитектуры, которая раньше поступала от того, кто уже неоднократно её создавал и ломал, теперь выдаётся моделью, не имеющей реального физического опыта создания или разрушения чего-либо. Неспешность не являлась издержками реальной работы, в ней и заключалась суть этой работы. Именно за счёт этого работа становилась качественной, как и специалисты, которые её выполняли. И именно благодаря этому компания-подрядчик могла обещать клиенту, что предоставит продукт, который был проработан индивидуально, а не слеплен по общей кальке. Текущее поколение агентных систем выстроено вокруг идеи, что человек является слабым звеном — что весь цикл станет быстрее и чище, если исключить из него неловкие задержки, когда специалист пытается разобраться, что может произойти, и решает, должно ли это произойти. Но по факту во множестве случаев всё наоборот. Присутствие человека в цикле — это не пережиток прошлого. Человек — это единственная поистине живая часть процесса. Исключение H из HITL (Human-in-the-Loop) — это не повышение эффективности. Это отказ от единственного механизма, который есть у системы для самопроверки. Слоп внутри компаний Документы с требованиями, которые раньше составляли одну страницу, теперь содержат двенадцать. Обновления статуса, которые включали три предложения, теперь превратились в списочные сводки. Ретроспективные заметки, отчёты об инцидентах, проектные памятки, установочные встречи — растягивается всё, что только можно растянуть. И делают это те, кто сам не читает, что создаёт — для тех, кто не читает, что им присылают. Сегодня стоимость создания документа упала практически до нуля, а стоимость его прочтения, напротив, растёт, потому что читателю приходится вникать в синтетический контекст, стараясь раскопать его изначальную суть. Каждое отдельное решение по растягиванию выглядит адекватным и обоснованным, так как читающие склонны больше доверять длинным сгенерированным пояснениям вне зависимости от того, верны они или нет [5]. В конечном итоге всё это ведёт к тому, что становится сложнее отыскать главный посыл содержания. Основные моменты оказываются утоплены в куче контекста, даже когда топящие их люди искренне стремятся выражаться «кратко». Это новая форма слопа, и она обходится дороже публичной, так как её создатели получают за это зарплату. Конвейер по производству будущих экспертов истончается с обеих сторон. Работа, на которой раньше люди учились оценивать собственные результаты, теперь поручена инструменту, а должности начального уровня, на которых происходила наработка опыта, замещаются ИИ. Во многих компаниях, включая мою, всё это ведёт к взрывному росту видимой активности, на выходе которой получается гораздо меньше толку, чем раньше.
В то же время скрытые издержки накапливаются очень быстро. Общественность в первую очередь беспокоит то, что ИИ заполонил открытые площадки, и проведённое Университетом Флориды исследование [6] является одним из прямых тому подтверждений. При этом куда меньше говорят о том, что внутри организаций царит та же проблема. Сколько времени тратится на использование ИИ для задач, которые того не требуют; для создания документов, которые никто не будет читать; для реализации процессов, которые существуют только благодаря тому, что ИИ удешевил их создание; на презентации, разъясняющие базовые вещи, которые раньше были понятны по умолчанию. Что с этим делать? Рекомендации по дисциплине в этом случае будут весьма старомодными и для большинства могут даже казаться очевидными — ровно до тех пор, пока не возникнет соблазн их нарушить. Используйте инструмент там, где вы можете досконально проверить его результаты. Никогда не просите у модели одобрения. Она соглашается со всеми — но грош цена такому согласию, которое ничем не грозит тому, кто его даёт.
Генеративный ИИ прекрасно справляется с задачами, где есть быстрая обратная связь, где достаточно примерной точности, и где финальным проверяющим выступает человек. Составление рабочих черновиков, генерация примеров, обобщение материала — всё, что читающий при желании может перепроверить. В руководстве по генеративному ИИ от Университета Иллинойса [7] и опубликованной в журнале «PLOS Computational Biology» работе «Ten Simple Rules» [8] многие такие моменты перечисляются открыто: брейншторминг, литературное редактирование, переформулирование собственных идей или обнаружение паттернов в данных, суть которых уже ясна. В каждом рекомендуемом сценарии инструмент обеспечивает пропускную способность, а человек отвечает за принятие решений. Это более твёрдая концепция, нежели Human-in-the-Loop. Здесь инструмент находится вне рабочего процесса и включается в него, только когда пригласят. Такой подход противоположен тому, под который сегодня создаётся большинство агентных систем. В свете всего этого конкурентное преимущество компаний, которые продолжают делать упор на качество своих услуг, сохраняется. Более того, оно растёт, потому что многие конкуренты молча превращаются в конвейеры по генерации контента с расчётом на то, что клиент не заметит. И эта проблема уже достигает самых верхов. Взять один из громких примеров, когда корпорация Deloitte была вынуждена вернуть часть своего гонорара, составлявшего $440 000, за правительственный отчёт, в котором ИИ навыдумывал данные. А ведь это может оказаться и продакшен-система, построенная на основе сгенерированной спецификации. Либо какой-то старший инженер вдруг осознает, что последний год чисто номинально проверяет работу ИИ, которую больше не может компетентно оценить. Отдача будет суровой. Компании, которые продолжают делать свою работу на совесть, смогут просить за неё сполна. А те, которые исключили из своей структуры «неэффективные» элементы, обнаружат, что эти элементы и обеспечивали то, за что им платил клиент. Масштабы недопонимания и злоупотребления ИИ угрожающе растут. Во многих профессиональных обсуждениях, где я оказываюсь, экспертов просят переключиться на другие приоритеты — на скорость поставки, увеличение её объёмов, более глубокую интеграцию ИИ — и не мешать тем, кто «делает дело». В итоге количество документов множится, а работа — нет. И где-то по другую сторону всего этого бесконечного потока отчётности клиент открывает готовый проект, читает сводку и может решить перепроверить всё самостоятельно.
Дисклеймер: это не академическая работа, а личный очерк от человека, который провёл в разработке более двадцати лет. За основу статьи я взял свой собственный опыт, сопроводив её ссылками там, где счёл это уместным. Если свести её к какому-то одному выводу, то им будет, что люди — впечатлительные существа. Да, я использовал ИИ при её написании, но только так, как здесь и рекомендуется: для брейншторминга, набросков и перепроверки материала следом за мной. Ну а тем читателям, кто иронично подметил, что статья является примером того, на что сама жалуется, скажу: «Вы абсолютно правы». Я, как и искусственный интеллект, довольно многословен и могу повторяться.
Ссылки
1. Sycophantic AI decreases prosocial intentions and promotes dependence (Cheng, Lee, Khadpe, Yu, Han, & Jurafsky, 2026). Science. ↩
2. Generative AI at Work (Brynjolfsson, Li, & Raymond, 2025). The Quarterly Journal of Economics, 140(2), 889-942. Also: NBER Working Paper No. 31161, April 2023. ↩
3. Navigating the Jagged Technological Frontier (Dell’Acqua, McFowland, Mollick, et al., 2026). Organization Science. Originally HBS Working Paper No. 24-013, 2023. ↩
4. Seven Myths About AI and Productivity: What the Evidence Really Says (Berkeley CMR, 2025). Meta-analysis confirming asymmetric AI productivity gains and user overconfidence. ↩
5. Beyond the Steeper Curve: AI-Mediated Metacognitive Decoupling (Koch, 2025). Longer AI explanations make users more confident regardless of correctness. ↩
6. Generative AI and the market for creative content (Zou, Shi, & Wu, 2026). Forthcoming, Journal of Marketing Research. ↩
7. Generative AI Guidance (University of Illinois). Recommended uses and limitations of generative AI in academic and professional work. ↩
8. Ten simple rules for optimal and careful use of generative AI in science (Helmy, Jin, et al., 2025). PLOS Computational Biology, 21(10), e1013588. ↩-Источник
|