Un articol științific legat de #Microsoft a evidențiat problemele de "credibilitate" și toxicitate legate de modelele mari de limbaj (LLM-uri), inclusiv GPT-4 și GPT-3.5, cu numărul #OpenAI .
Cercetarea sugerează că GPT-4 poate genera texte mai toxice și părtinitoare, în special atunci când este prezentat cu solicitări "jailbreak" care ocolesc măsurile de securitate.

