#AnthropicUSGovClash

Anthropic i rząd USA zasadniczo mają moment „nie możesz ze mną tak rozmawiać”, z tym że stawka dotyczy bezpieczeństwa narodowego i przyszłości AI.

Oto klimat: rząd chce narzędzi AI, na których może polegać w poważnej pracy. Anthropic mówi: „Pomożemy, ale nie przekroczymy pewnych granic.” A te granice to straszne rzeczy, takie jak szerokie nadzory krajowe lub cokolwiek, co zaczyna wyglądać jak „niech system zdecyduje, kto jest celem.” Punkt widzenia Anthropic jest dość prosty: to, że technologia może być używana w ten sposób, nie oznacza, że powinna być.

Odpór ze strony rządu jest również prosty: w kontekście bezpieczeństwa, odrzucenie próśb może być przedstawione jako ryzyko, a nie zasada. A kiedy to się dzieje, relacja może przejść z „partnera” do „problemu” z dnia na dzień.

To, co sprawia, że ta historia jest warta obserwacji, to fakt, że nie chodzi tak naprawdę o jedną firmę. To wczesna wersja większej walki: gdy AI staje się krytyczną infrastrukturą, kto ma ostatnie słowo w sprawie tego, jak jest używane — ludzie, którzy to budują, czy ci, którzy są odpowiedzialni za jego wdrożenie?

#AIpolicy

#TechVsGovernment

#AIEthics

#FutureOfAI