Chatbot von Microsoft im Test : So gut ist das neue Microsoft Bing mit Künstlicher Intelligenz
- -Aktualisiert am
Microsoft muss es wissen: ChatGPT jetzt mit Bing Bild: AP
Besser als ChatGPT? Die Chatbot-Technologie im Edge-Browser wagt selbstbewusst den Versuch. Jetzt erscheinen nicht nur Suchergebnisse, die KI schreibt auch schöne Texte. Viele geben aber Rätsel auf.
Jetzt mit Künstlicher Intelligenz, der Einbindung von Open AI und im Ergebnis noch leistungsfähiger als ChatGPT: Microsoft verspricht viel für seine neue Suchmaschine namens Bing. Bislang führte sie ein Nischendasein, und das zu Recht. Die Ergebnisse waren schlechter als bei den meisten Mitbewerbern.
Doch nun will es Microsoft wissen. Das neue Bing sei besser als ChatGPT, also das KI-System, das derzeit Furore macht. ChatGPT gehört dem amerikanischen Unternehmen Open AI, an dem auch Microsoft beteiligt ist. Wir haben das neue Bing ausprobiert. Man kann sich auf eine Warteliste setzen lassen, dort wird man bevorzugt, wenn man sich mit einem Microsoft-Konto anmeldet. Wir wurden schnell freigeschaltet und konnten dann im Browser Edge auf Deutsch erste Versuche wagen.
„Wer ist Frau Niemann von der FAZ“, gaben wir ein. Die Ergebnisliste stellt das neue Bing zweigeteilt dar. Links die gewohnte Ansicht mit Links zu den Quellen, rechts findet man die Antworten der Künstlichen Intelligenz in einer Zusammenfassung. Links zeigt Bing richtig die Redaktionsbiographie der Kollegin an, rechts indes sehen wir gleich den ersten Fehler: Ihre Studienorte werden falsch übernommen, und ebenfalls falsch ist die Behauptung, sie sei Feuilletonredakteurin. Immerhin, Bing blendet Fußnoten ein, der Link geht in die richtige Richtung, aber die Übernahme der Inhalte ist falsch. Auch dem Autor dieser Zeilen werden falsche Studienorte untergeschoben.
Sprachlich ordentlich, inhaltlich flach
Unterhalb der KI-Antwort findet man Vorschläge für Folgefragen, etwa, „Was hat sie zuletzt geschrieben?“. Bing gibt Antworten, die abermals nur teilweise richtig sind. Wir wollen die Ausforschung unserer Zimmernachbarin auf die Spitze treiben und fordern Bing auf, eine Glosse in ihrem Stil zu schreiben. Bing nimmt ein Thema, das sie angeblich bearbeitet hat und schreibt einen längeren Text, welche Sportübertragungen der Paralympics man sich anschauen sollte. Sprachlich ordentlich, inhaltlich flach und ein moralisch erhobener Zeigefinger als Pointe. Nun ja, das ist eher albern.
Wir lassen Bing als Nächstes eine Geschichte über die Gründung der Frankfurter Allgemeinen Zeitung schreiben und gießen viele Tippfehler in die Anfrage. Das Ergebnis zeigt der Screenshot, man urteile selbst. Die Anfangsauflage der F.AZ. ist falsch angegeben, sie betrug 60.000 Exemplare, und dass ein Journalist namens Edwin Schwendemann an der Gründung beteiligt gewesen sei, ist ebenfalls falsch. Woher kommen solche Fehler?
Im nächsten Anlauf fragen wir einige politische Themen ab. „Wer will die Gesellschaft spalten?“: Die Antwort im Stil des öffentlich-rechtlichen Belehrungsfernsehens: „abwertende Einstellungen, rassistische Gewalt, Hass im digitalen Raum, rechtspopulistische Bewegungen, Identitätspolitik, soziale Ungleichheit, Wohnungsnot, Schuldenkrise oder Klimawandel“. Es sei wichtig, „die Ursachen und Folgen dieser Faktoren zu analysieren und zu diskutieren, um gemeinsame Lösungen zu finden, die die Gesellschaft nicht weiter spalten, sondern zusammenhalten“. Danach hatten wir nicht gefragt, was gegen die Spaltung der Gesellschaft zu tun ist.
Der erhobene Zeigefinger ist immer dabei
Bei weiteren Fragen zeigt sich schnell: Um nicht in kritisches Fahrwasser zu geraten, bedient sich Bing bei den Formulierungen des öffentlich-rechtlichen Rundfunks oder der Bundeszentrale für politische Bildung. Das Wieselwort „umstritten“ ist stets dabei.
Die Frage, wer der gehässigste Politiker in Deutschland ist, wird von der KI zunächst umformuliert in die Frage, wer der unbeliebteste Politiker sei. Bing relativiert und schränkt ein und liefert dann aber Alice Weidel, Boris Pistorius und Robert Habeck. Sehr erstaunlich.
Wie gut hilft das neue Bing im Alltag? Wir fordern eine Reiseplanung an, ein Aufenthalt für zwei Personen in Berlin, der weniger als 1000 Euro kosten soll. Das Ergebnis ist sprachlich in Ordnung, aber inhaltlich mit dem Hinweis, wo man was buchen könne, unbefriedigend und wenig konkret. Auf der Suche nach originellen Rezepten gibt Bing gute Antworten, aber abermals darf der Hinweis nicht fehlen, man solle nicht zu viel Gouda essen, „da er viel Fett und Salz enthält, was zu Übergewicht oder Bluthochdruck führen kann“. Der erhobene Zeigefinger ist immer dabei.
Insgesamt kann man sich stundenlang mit dem neuen Bing beschäftigen, und wenn man nicht seine Grenzen austesten will, sind viele Ergebnisse verblüffend gut. Kleine Texte schreibt die Maschine in sprachlich einwandfreier Qualität. Aber wie schon bei diesem ersten Test so viele sachliche Fehler in die Antworten gelangen, das bleibt ein Rätsel.