In einem mit #Microsoft verlinkten wissenschaftlichen Artikel wurden „Zuverlässigkeits“- und Toxizitätsprobleme bei großen Sprachmodellen (LLMs) hervorgehoben, darunter GPT-4 und GPT-3.5 von #OpenAI .

Untersuchungen deuten darauf hin, dass GPT-4 toxischeren und voreingenommeneren Text erzeugen kann, insbesondere wenn ihm „Jailbreak“-Eingabeaufforderungen präsentiert werden, die Sicherheitsmaßnahmen umgehen.

#yapayzeka #Bitcoin