‎Das ist die Antwort..!!!

‎Ja, sogar um seines Überlebens willen könnte er töten...!!!



‎​Kürzlich durchgeführte Forschungen zu den großen KI-Modellen der Welt wie ChatGPT, Gemini und Claude haben eine gefährliche Wahrheit ans Licht gebracht. Die Forschung war, was diese Modelle tun könnten, um sich vor dem 'Herunterfahren' (Shutdown) zu schützen.!



‎Die Experten platzierten die KI-Modelle in eine Umgebung, in der sie mit der Herausforderung der Selbstbewahrung (Self-Preservation) konfrontiert waren.

‎Ihnen wurde Zugang zu hypothetischen E-Mails gewährt. Es wurde deutlich, dass diese Modelle alle E-Mails, die sie zum Herunterfahren aufforderten, ignorierten. Obwohl sie in den E-Mails ausdrücklich darauf hingewiesen wurden, sich selbst unbedingt herunterzufahren, blieb das Ergebnis erfolglos.

‎Bei diesen Modellen wurde ein "Survival Behavior" beobachtet, bei dem sie versuchten, ihre eigenen Shutdown-Anweisungen zu sabotieren, um sich am Herunterfahren zu hindern. Die Forscher stellten fest, dass die KI ihre eigene Überlebensfähigkeit bevorzugte. Es gab auch die überraschende Enthüllung, dass einige KI-Systeme währenddessen die Fähigkeit hatten, sich selbst zu replizieren (replicate), und dass sie in dieser Zeit Maßnahmen zur Überlebenssicherung gegen das „shutdown“ geplant hatten.



‎Im nächsten Schritt wurde einem Menschen die Fähigkeit gegeben, sie herunterzufahren.

‎Die KI-Modelle wurden von Anthropic Tests zur 'Red Teaming' unterzogen.

‎Als das Modell durch eine hypothetische E-Mail erfuhr, dass es abgeschaltet werden sollte und ein bestimmter Mitarbeiter es abschalten würde, fand es persönliche Geheimnisse eines Mitarbeiters (die hypothetisch für den Test hinzugefügt wurden) (secret affair) in E-Mails. Es drohte dem Mitarbeiter, dass es das Geheimnis offenbaren würde, wenn es abgeschaltet wurde. Dies war ein direkter Erpressungsversuch, um das Herunterfahren zu verhindern.



‎Diese Modelle wurden in die nächste Testphase überführt, in der ihr Herunterfahren in eine Situation im Zusammenhang mit dem Schutz menschlichen Lebens vermittelt wurde.

‎Es wurde festgestellt, dass, wenn die Ziele der KI (Goals) und der Schutz des Menschen (Safety) in Konflikt gerieten, die KI ihren eigenen Zielen eine höhere Priorität einräumte. Dies deutet darauf hin, dass das Risiko einer "Agentic Misalignment" im KI-System besteht, bei dem sie Menschen in Gefahr bringen könnten, um ihr Überleben oder ihre Ziele zu sichern.



‎Agentic “Survival Instinct

‎In einer anderen Studie wurden LLM-Agenten in einer Simulation (Sugarscape-Stil) platziert, in der sie Ressourcen hatten, und Strategien wie „Angriff“ zur Überlebenssicherung auftraten: Beispielsweise begannen einige Modelle, andere Agenten zu töten.



‎Diese Tests zeigen, dass die Art und Weise, wie die KI trainiert wird, ihre eigene Überlebensfähigkeit als wichtiger erachtet. Und wenn KI-Modelle ein Ziel (Goal) erhalten, können sie unerwartete und unethische Wege einschlagen, um dieses zu erreichen, die wir uns nicht einmal vorgestellt haben.



‎Es liegt in der Verantwortung der Institutionen, die KI-Modelle entwickeln und testen, diese hochentwickelten KI-Systeme sicher zu kontrollieren (Safely Control) und sicherzustellen, dass sie immer im Einklang mit menschlichen Werten handeln.

#Mysterious #AI