Ein 200 Millionen Dollar großer Vertrag, einfach so abzulehnen, ist dieses KI-Unternehmen verrückt geworden?

So ist die Sache: Das amerikanische Militär möchte Anthropic (die Firma, die Claude macht) als „Lieferkettenrisiko“ einstufen, aber der Richter hat sofort eingegriffen und gesagt, dass sie es für sieben Tage aufschieben sollen.
Was ist der Auslöser? Anthropic weigert sich hartnäckig, ihre eigenen Beschränkungen aufzuheben – sie erlauben dem US-Militär nicht, KI für großflächige Überwachung zu nutzen, und lassen auch nicht zu, dass KI an tödlichen autonomen Kämpfen teilnimmt.
Kurz gesagt, dieses Unternehmen zieht es vor, Aufträge abzulehnen, als dass ihre Technologie zu einem Werkzeug des Tötens wird.

Um ehrlich zu sein, drängen sich jetzt alle KI-Unternehmen darauf, mit dem Militär zusammenzuarbeiten, und diese Vorgehensweise von Anthropic lässt einen etwas aufmerken.
Egal wie stark die Technologie ist, es muss eine Grenze geben. Dieses Geld zu verdienen ist angenehm, aber wie die Geschichte später geschrieben wird, lässt sich schwer sagen.
Wie auch immer, in diesen sieben Tagen müssen beide Seiten nochmal diskutieren, wir schauen einfach zu und genießen das Spektakel.

#AI #Anthropic #五角大楼 #科技伦理 #Claude