#AnthropicUSGovClash
Anthropic и правительство США на самом деле переживают момент «ты не можешь так со мной говорить», за исключением того, что ставки касаются национальной безопасности и будущего ИИ.
Вот в чем дело: правительство хочет ИИ-инструменты, на которые оно может полагаться для серьезной работы. Anthropic говорит: «Мы поможем, но мы не переступим определенные границы». А эти границы — это страшные вещи, такие как широкомасштабное внутреннее наблюдение или что-либо, что начинает походить на «пусть система решит, кто будет под прицелом». Суть Anthropic довольно проста: только потому, что технология может быть использована таким образом, не означает, что она должна быть использована так.
Ответ правительства также прост: в контексте безопасности отказ от запросов может быть представлен как риск, а не как принципиальная позиция. И когда это происходит, отношения могут перейти от «партнера» к «проблеме» за ночь.
Что делает эту историю стоящей внимания, так это то, что она на самом деле не о одной компании. Это ранняя версия более крупной борьбы: по мере того как ИИ становится критической инфраструктурой, кто получит окончательное слово о том, как он будет использоваться — люди, которые его создают, или люди, ответственные за его развертывание?