Искусственный интеллект(AI) действительно меняет всё — и именно в этом главная угроза: когда технология по-настоящему меняет всё, рынок перестаёт задавать неудобные вопросы.

Нынешний ажиотаж вокруг AI подпитывается не только инновациями. За ним стоит мощная смесь жадности и страха упустить выгоду. Когда эти две силы берут верх, на смену здравому смыслу приходит иррациональное поведение. Это не приговор технологии — это наблюдение за тем, как функционирует рынок. Мы уже проходили через подобное.

Когда стоимость капитала стремится к нулю

Есть верный признак того, что рынок перешёл от воодушевления к иррациональному оптимизму: стоимость капитала приближается к нулю. Когда риск перестают учитывать в цене, исчезает и дисциплина. Вопросы об окупаемости инвестиций, о последствиях возможных сбоев — всё это приносится в жертву в погоне за быстрой выгодой.

Капитал сегодня размещается почти бесконтрольно. Предприниматели усвоили: добавить «AI» к описанию любого продукта — значит открыть многие двери. Корпорации делают масштабные AI-закупки, однако по большей части в рамках R&D — пытаясь понять, что эта технология означает для их бизнеса, прежде чем конкурент опередит их. Параллельно работает механизм рециркуляции: значительная часть доходов AI-компаний поступает от других AI-компаний, покупающих вычислительные мощности и сервисы. Каждый доллар при этом считается за десять.

Это и есть проблема краткосрочного преувеличения. Путь от революционной технологии до устойчивой ценности никогда не бывает прямым — эпоха доткомов это доказала. Мы склонны переоценивать краткосрочный эффект и недооценивать долгосрочный. Сейчас мы находимся именно в фазе переоценки.

Почему барьеры — не теория

Наряду с потоком капитала, вливающегося в AI, существует длинный и по большей части нерешённый перечень реальных препятствий для массового внедрения.

Среди них — рекурсивное загрязнение данных. Большие языковые модели генерируют огромные объёмы контента, который затем используется как обучающий материал для следующего поколения моделей. Ошибки и галлюцинации усиливаются с каждым циклом. Это напоминает многократное копирование копии: качество неуклонно падает, и в итоге невозможно установить, каким был исходный источник. Индустрия уже обращается к синтетическим данным, чтобы компенсировать нехватку качественного человеческого контента, — однако это рискует ускорить деградацию, а не устранить её.

Ещё серьёзнее проблема отравления данных. Злоумышленники могут намеренно искажать обучающую выборку, и однажды внедрённый «яд» остаётся в модели навсегда. Особенно опасен военный сценарий: AI, обученный распознавать своих и чужих на основе скомпрометированных данных, обнаружит скрытую уязвимость лишь в разгар реального конфликта. Задокументировано, что для отравления языковых моделей любого размера достаточно всего 250 вредоносных документов — это делает атаки на обучающие данные не гипотетической угрозой, а вполне актуальной проблемой кибербезопасности.

Отдельная проблема — непрозрачность моделей. AI-вендоры в основном скрывают, что именно находится внутри их систем. Независимо проверить, насколько модель безопасна, объективна и точна, практически невозможно. Вице-президент Cisco Том Гиллис (Tom Gillis) прямо указывает: для чувствительных задач модели следует запускать на собственной инфраструктуре, а не в облаке — потому что никто не знает наверняка, что там происходит.

Пока эти проблемы не будут решены применительно к каждому конкретному сценарию использования, массовое внедрение AI не произойдёт — и не должно происходить — в том масштабе, который рынок закладывает в текущие оценки.

Скорость машин меняет уравнение риска

Главная опасность AI - не в том, что что-то может пойти не так, а в том, как быстро это происходит. Исторически человек в цепочке принятия решений был своеобразным предохранителем — тем, что замедляло процессы достаточно, чтобы в нужный момент включилось суждение. Агентный AI этот предохранитель убирает полностью.

Одни только последствия для наступательных кибератак должны заставить любой совет директоров насторожиться. Прежде экономика сдерживала злоумышленников от автоматизации атак в полном объёме: это попросту было невыгодно. Машинное обучение снимает это ограничение. Когда AI-системы взаимодействуют друг с другом за пределами контролируемой среды и что-то идёт не так на скорости машины — остановить это может оказаться невозможным. Непредвиденные последствия этой технологии, о которых мы ещё даже не начали думать, не будут развиваться медленно.

Что делать инвесторам и советам директоров

Всё это — не аргумент против AI. Ядерная энергия — один из самых мощных и чистых источников энергии из когда-либо созданных. И одновременно — материал для бомб. Технология сама по себе не выбирает. Выбираем мы. Разница — в наличии или отсутствии дисциплины, ограничений и трезвой оценки последствий.

Компании и инвесторы, которые сформируют долгосрочный AI-ландшафт, — не те, кто движется быстрее всех прямо сейчас. А те, кто движется наиболее осознанно. Когда стоимость капитала нормализуется — а это произойдёт — устоят именно те, кто внедрял AI под конкретные задачи, кто выстраивал понимание рисков и доходности до масштабирования. Именно так всегда строились устойчивые компании.

Для советов директоров и управляющих капиталом задача — не притормозить, а сфокусироваться. Задавать вопросы, которые рынок сейчас игнорирует. Разграничивать R&D и производственное развёртывание. Чётко понимать, на каком этапе реально находится организация. Требовать конкретики в сценариях применения: «мы используем AI» — это не стратегия. Учитывать риски в финансовых моделях и повестке советов директоров как приоритетные факторы, а не сноски.

Долгосрочный трансформационный потенциал AI реален — и его по-прежнему недооценивают. Золото существует. Но дисциплина состоит в том, чтобы отличать его от блёстки и иметь терпение, чтобы это различие имело значение.

#AI #AImodel #Write2Earn

$AI $BTC

AI
AI
0.0224
+5.66%

BTC
BTC
78,290.78
+1.76%