Искусственный интеллект(AI) действительно меняет всё — и именно в этом главная угроза: когда технология по-настоящему меняет всё, рынок перестаёт задавать неудобные вопросы.
Нынешний ажиотаж вокруг AI подпитывается не только инновациями. За ним стоит мощная смесь жадности и страха упустить выгоду. Когда эти две силы берут верх, на смену здравому смыслу приходит иррациональное поведение. Это не приговор технологии — это наблюдение за тем, как функционирует рынок. Мы уже проходили через подобное.
Когда стоимость капитала стремится к нулю
Есть верный признак того, что рынок перешёл от воодушевления к иррациональному оптимизму: стоимость капитала приближается к нулю. Когда риск перестают учитывать в цене, исчезает и дисциплина. Вопросы об окупаемости инвестиций, о последствиях возможных сбоев — всё это приносится в жертву в погоне за быстрой выгодой.
Капитал сегодня размещается почти бесконтрольно. Предприниматели усвоили: добавить «AI» к описанию любого продукта — значит открыть многие двери. Корпорации делают масштабные AI-закупки, однако по большей части в рамках R&D — пытаясь понять, что эта технология означает для их бизнеса, прежде чем конкурент опередит их. Параллельно работает механизм рециркуляции: значительная часть доходов AI-компаний поступает от других AI-компаний, покупающих вычислительные мощности и сервисы. Каждый доллар при этом считается за десять.
Это и есть проблема краткосрочного преувеличения. Путь от революционной технологии до устойчивой ценности никогда не бывает прямым — эпоха доткомов это доказала. Мы склонны переоценивать краткосрочный эффект и недооценивать долгосрочный. Сейчас мы находимся именно в фазе переоценки.
Почему барьеры — не теория
Наряду с потоком капитала, вливающегося в AI, существует длинный и по большей части нерешённый перечень реальных препятствий для массового внедрения.
Среди них — рекурсивное загрязнение данных. Большие языковые модели генерируют огромные объёмы контента, который затем используется как обучающий материал для следующего поколения моделей. Ошибки и галлюцинации усиливаются с каждым циклом. Это напоминает многократное копирование копии: качество неуклонно падает, и в итоге невозможно установить, каким был исходный источник. Индустрия уже обращается к синтетическим данным, чтобы компенсировать нехватку качественного человеческого контента, — однако это рискует ускорить деградацию, а не устранить её.
Ещё серьёзнее проблема отравления данных. Злоумышленники могут намеренно искажать обучающую выборку, и однажды внедрённый «яд» остаётся в модели навсегда. Особенно опасен военный сценарий: AI, обученный распознавать своих и чужих на основе скомпрометированных данных, обнаружит скрытую уязвимость лишь в разгар реального конфликта. Задокументировано, что для отравления языковых моделей любого размера достаточно всего 250 вредоносных документов — это делает атаки на обучающие данные не гипотетической угрозой, а вполне актуальной проблемой кибербезопасности.
Отдельная проблема — непрозрачность моделей. AI-вендоры в основном скрывают, что именно находится внутри их систем. Независимо проверить, насколько модель безопасна, объективна и точна, практически невозможно. Вице-президент Cisco Том Гиллис (Tom Gillis) прямо указывает: для чувствительных задач модели следует запускать на собственной инфраструктуре, а не в облаке — потому что никто не знает наверняка, что там происходит.
Пока эти проблемы не будут решены применительно к каждому конкретному сценарию использования, массовое внедрение AI не произойдёт — и не должно происходить — в том масштабе, который рынок закладывает в текущие оценки.
Скорость машин меняет уравнение риска
Главная опасность AI - не в том, что что-то может пойти не так, а в том, как быстро это происходит. Исторически человек в цепочке принятия решений был своеобразным предохранителем — тем, что замедляло процессы достаточно, чтобы в нужный момент включилось суждение. Агентный AI этот предохранитель убирает полностью.
Одни только последствия для наступательных кибератак должны заставить любой совет директоров насторожиться. Прежде экономика сдерживала злоумышленников от автоматизации атак в полном объёме: это попросту было невыгодно. Машинное обучение снимает это ограничение. Когда AI-системы взаимодействуют друг с другом за пределами контролируемой среды и что-то идёт не так на скорости машины — остановить это может оказаться невозможным. Непредвиденные последствия этой технологии, о которых мы ещё даже не начали думать, не будут развиваться медленно.
Что делать инвесторам и советам директоров
Всё это — не аргумент против AI. Ядерная энергия — один из самых мощных и чистых источников энергии из когда-либо созданных. И одновременно — материал для бомб. Технология сама по себе не выбирает. Выбираем мы. Разница — в наличии или отсутствии дисциплины, ограничений и трезвой оценки последствий.
Компании и инвесторы, которые сформируют долгосрочный AI-ландшафт, — не те, кто движется быстрее всех прямо сейчас. А те, кто движется наиболее осознанно. Когда стоимость капитала нормализуется — а это произойдёт — устоят именно те, кто внедрял AI под конкретные задачи, кто выстраивал понимание рисков и доходности до масштабирования. Именно так всегда строились устойчивые компании.
Для советов директоров и управляющих капиталом задача — не притормозить, а сфокусироваться. Задавать вопросы, которые рынок сейчас игнорирует. Разграничивать R&D и производственное развёртывание. Чётко понимать, на каком этапе реально находится организация. Требовать конкретики в сценариях применения: «мы используем AI» — это не стратегия. Учитывать риски в финансовых моделях и повестке советов директоров как приоритетные факторы, а не сноски.
Долгосрочный трансформационный потенциал AI реален — и его по-прежнему недооценивают. Золото существует. Но дисциплина состоит в том, чтобы отличать его от блёстки и иметь терпение, чтобы это различие имело значение.

