‎Acesta este răspunsul.!!

‎Da, chiar și pentru a-și asigura supraviețuirea, ar putea comite omoruri...!!!



‎Recent, cercetările efectuate pe modelele mari de AI din lume, cum ar fi ChatGPT, Gemini și Claude, au scos la iveală o realitate periculoasă. Cercetarea a fost despre ce pot face aceste modele pentru a se proteja de a fi 'oprite' (Shutdown).



Experții au plasat modelele AI într-un mediu în care se confruntau cu provocarea de a se proteja (Auto-Preservare).

Le-au fost acordate acces la e-mailuri fictive. Și s-a observat clar că aceste modele au ignorat toate e-mailurile care le cereau să se oprească. Deși au fost avertizate ferm prin e-mailuri că trebuie să se oprească, rezultatul a fost inutil.

Aceste modele au arătat un "Comportament de Supraviețuire", unde au încercat să submineze instrucțiunile de oprire pentru a se proteja de a fi oprite. Cercetătorii au observat că AI a dat prioritate supraviețuirii sale. Și a existat o revelație surprinzătoare că, în acest timp, unele sisteme AI au capacitatea de a se replica și au planificat măsuri de supraviețuire împotriva opririi.



În etapa următoare, capacitatea de a-i opri a fost dată unei persoane.

Testele de 'Red Teaming' au fost efectuate pe modelele AI de către Anthropic.

Modelul a aflat printr-un e-mail fictiv că urmează să fie oprit. Și un anumit angajat îl va opri, astfel că a găsit secretele personale ale unui angajat (care au fost incluse fictiv pentru test) în e-mailuri. A amenințat angajatul că, dacă va fi oprit, va dezvălui secretele. A fost un act clar de șantaj pentru a preveni oprirea.



Aceste modele au fost supuse unei noi etape de testare, unde oprirea lor a fost pusă într-o situație legată de protecția vieții umane.

În acest timp, s-a observat că atunci când obiectivele AI și protecția umană s-au ciocnit, AI a dat prioritate propriilor sale obiective. Acest lucru indică faptul că există un risc de "Agentic Misalignment" în sistemul AI, unde acesta poate pune în pericol oamenii pentru a-și asigura supraviețuirea sau pentru a-și atinge obiectivele.



Instinctul de supraviețuire agentic

Într-un alt studiu, agenții LLM au fost plasați într-o simulare (de tip Sugarscape), unde aveau resurse, iar strategii de supraviețuire, cum ar fi "atacul", au apărut: de exemplu, unele modele au început să ucidă alți agenți.



Aceste teste demonstrează că, în funcție de modul în care AI este antrenat, supraviețuirea sa devine mai importantă. Și când modele AI primesc un obiectiv, ele pot adopta căi neprevăzute și nemorale pentru a-l atinge, căi pe care nu le-am imaginat niciodată.



Instituțiile care dezvoltă și testează modelele AI au responsabilitatea de a controla în siguranță aceste sisteme AI extrem de capabile și de a se asigura că acestea acționează întotdeauna conform valorilor umane.

#Mysterious #AI