Größere KI-Modelle werden Halluzinationen nicht lösen. Skalierung verbessert die Flüssigkeit, nicht die Wahrheit.
Training mit mehr Daten verstärkt nur bestehende Vorurteile, und Wahrscheinlichkeit ist nicht dasselbe wie faktische Genauigkeit.
Verstärkendes Lernen belohnt Antworten, die richtig klingen, nicht solche, die verifiziert sind. Halluzinationen sind strukturell, nicht größenabhängig. Echte Zuverlässigkeit stammt aus Verifizierungssystemen, nicht aus einer größeren Anzahl von Parametern.