Wie ChatGPT die Internetsuche revolutioniert: Neue Funktionen und weniger Halluzinationen | 05.11.2024
Immer mehr Menschen möchten ein Modell wie ChatGPT nicht nur als Assistenten nutzen, sondern auch, um das Internet zu durchsuchen. OpenAI hat genau das geliefert, was sich viele gewünscht haben. Dieser Beitrag erläutert, was diese Neuerung kann, warum nicht alles perfekt ist und wie eine neue Forschungsarbeit es noch besser machen könnte.
Für ChatGPT-Plus-Nutzer erscheint nun ein neues Icon, mit dem komplexere Informationen gesucht werden können. Planst du eine Reise? Kein Problem. Auch zitiert ChatGPT nun die genutzen Quellen, um sicherzustellen, dass du korrekte Informationen erhältst und nicht irgendeine erfundene Halluzination.
Das ist nicht nur eine normale Suche. Du kannst auch Folgefragen stellen, zum Beispiel, wo du entsprechend deiner Vorlieben zu Abend essen kannst oder wie das Wetter an bestimmten Tagen sein wird. Statt einer riesigen Tabelle mit unnötigen Daten erhältst du genau die Informationen, die du brauchst – und das mit mehreren Quellen.
Du kannst auch prüfen, ob deine NVIDIA-Aktien bereits Gewinne abwerfen, und erhältst zusätzlichen Kontext zu den aktuellen Ereignissen. Allerdings ist die Sammlung von Nachrichten weniger beeindruckend – die bekommt man schließlich überall. Aber es müssen ja nicht immer einfache Fragen sein.
Frage stattdessen etwas Interessanteres, wie zum Beispiel, wie du deinen Garten auf Vordermann bringst. Du erhältst nicht nur kopierte Antworten, sondern eine schön zusammengefasste Antwort mit Bildern, die auf dich zugeschnitten ist, und eine spontan erstellte Anleitung. Wichtig ist auch, dass ChatGPT dich deutlich sichtbar direkt zur Quelle führt. Dadurch werden hoffentlich auch die Ersteller solcher Informationen belohnt.
Aber es gibt ein Problem: Halluzinationen. Das ist, wenn KI-Modelle Dinge erfinden. Wenn du etwas fragst, bekommst du eine Antwort. Ob diese Antwort korrekt ist oder nicht, hängt davon ab. Diese Halluzinationen treten immer seltener auf, aber sie existieren noch. Wenn du jedoch eine Suchmaschine nutzt, die halluziniert, ist das fast so schlimm, wie wenn du statt einer Antwort nur eine Menge Werbung bekommst.
Was hat das mit KI-Forschung zu tun? Eine ganze Menge. OpenAI hat ein neues Datenset veröffentlicht. Aber es ist kein gewöhnliches Datenset. Es enthält herausfordernde Fragen und Antworten mit hoher Genauigkeit zu verschiedenen Themen. Viele dieser Fragen sind komplexer, als was du durch eine einfache Suche herausfinden könntest.
Bei der Bewertung eines KI-Modells mit Antworten auf diese Fragen gibt es Herausforderungen. Es kann komplett falsch liegen, aber das Falschsein kann auch subtiler sein. Stell dir vor, die KI sagt: "Der Aktienmarkt könnte steigen oder fallen. Oder er bleibt gleich." Technisch gesehen stimmt das, aber wirklich informativ ist es nicht. Ist das falsch? Schwer zu sagen.
Was sind also die Ergebnisse? Als die Spitzenmodelle mit kleineren Varianten verglichen wurden, gab es einen riesigen Unterschied. Sie liegen immer noch oft falsch, aber die Frage ist: Sind sie sich ihrer Grenzen bewusst? Überraschenderweise ja. Wenn sie gefragt werden, wie sicher sie sich bei ihren Antworten sind, sind sie eher korrekt, wenn sie sich sicher fühlen. Wenn sie weniger sicher sind, liegen sie eher falsch.
Wenn wir das für die Suche nutzen, hoffen wir, dass die Antworten konsistent sind. Sind sie das? Indem man den KI-Modellen dieselbe Frage 100 Mal stellt, zeigt sich, dass die Spitzenmodelle ziemlich konsistent sind. Nicht perfekt, also Vorsicht, aber ihre Flaggschiff-Modelle wie "Reasoning 01" und "GPT-4" sind bemerkenswert konsistent.
Hier glänzt das neue Datenset. Es hilft KI-Modellen, selbstbewusster zu sein, wenn sie es sein sollten, und konsistenter zu werden. Das führt zu weniger Halluzinationen und genaueren Informationen für uns alle. Es ist noch ein langer Weg, aber das ist ein großer Schritt in die richtige Richtung.