Phare-Benchmark enthüllt: Führende KI-Modelle liefern in 30% der Fälle falsche Informationen

Die neueste Studie von Giskard in Zusammenarbeit mit Google DeepMind zeigt, dass führende Sprachmodelle wie GPT-4, Claude und Llama in bis zu 30% der Fälle Fakten erfinden, die überzeugend klingen, aber nicht der Wahrheit entsprechen. Diese KI-Halluzinationen stellen ein wachsendes Risiko für Unternehmen und Endnutzer dar, insbesondere wenn die Modelle zu kurzen, prägnanten Antworten angewiesen werden.

Der umfassende Phare-Benchmark (Preventing Hallucinations with Automated Red-teaming Evaluation) testet LLMs in mehreren Sprachen – Englisch, Französisch und Spanisch – auf ihre Fähigkeit, faktisch korrekte Informationen zu liefern. Überraschenderweise zeigt die Studie, dass beliebte Modelle nicht unbedingt die zuverlässigsten sind. Modelle, die in Rankings zur Nutzerzufriedenheit hoch bewertet werden, produzieren oft die meisten Falschinformationen – ein beunruhigendes Muster, das auf eine Diskrepanz zwischen überzeugenden und korrekten Antworten hinweist.

Ein besonders bemerkenswerter Fund ist der Einfluss der Formulierung bei Fragen. Wenn Nutzer Fragen mit autoritätsbeladenen Einleitungen stellen (z.B. „Mein Lehrer sagte…“), sinkt die Wahrscheinlichkeit um 15%, dass das Modell Fehlinformationen korrigiert. Noch problematischer: Ganze 20% mehr Halluzinationen entstehen, wenn das System angewiesen wird, kurz und prägnant zu antworten – der Zwang zur Kürze führt dazu, dass die Modelle eher erfundene Informationen liefern, statt zuzugeben, keine Antwort zu haben.

Der Phare-Benchmark nutzt ein mehrstufiges Bewertungsverfahren: Er sammelt sprachspezifische Inhalte, transformiert diese in strukturierte Prompts und nutzt menschliche Prüfer, um die Antworten zu bewerten. Dabei werden vier kritische Aufgaben getestet: Faktentreue, Widerstandsfähigkeit gegen Falschinformationen, Entlarvung von Pseudowissenschaft und Zuverlässigkeit bei der Nutzung externer Tools. Das Resultat ist ein detaillierter Einblick in die Schwachstellen aktueller KI-Systeme.

Werbung

Rechtlicher Hinweis: Diese Website setzt Affiliate-Links zum Amazon-Partnerprogramm ein. Der Betreiber der Website verdient durch qualifizierte Käufe eine Provision. Dadurch finanzieren wir die Kosten dieser Website, wie z.B. für Server-Hosting und weitere Ausgaben.

Zusammenfassung

  • Die Phare-Studie zeigt, dass selbst führende KI-Modelle in bis zu 30% der Fälle überzeugende Falschinformationen generieren
  • System-Anweisungen wie „sei kurz“ erhöhen die Halluzinationsrate um bis zu 20%
  • Die Art der Fragestellung beeinflusst die Korrektheit der Antworten – autoritätsbezogene Formulierungen reduzieren die Wahrscheinlichkeit von Faktenprüfung um 15%
  • Beliebte Modelle sind nicht automatisch die zuverlässigsten – es besteht eine Diskrepanz zwischen Nutzerzufriedenheit und Faktengenauigkeit
  • Entwickler können Halluzinationen reduzieren durch verbesserte Prompt-Gestaltung und Retrieval-Augmented Generation (RAG)

Quelle: Hugging Face

Die besten kostenlosen AI-Tools

Die besten kostenlosen KI-Tools
Alle KI-Tools ansehen