Tech

Der KI-gestützte Bing Chat erhält drei unterschiedliche Persönlichkeiten – Ars Technica

Bing Edwards / Ars Technica

Am Mittwoch, Microsoft-Mitarbeiter Mike Davidson bekannt geben Das Unternehmen hat drei unterschiedliche Persönlichkeitsstile für seinen experimentellen KI-gestützten Bing-Chat-Bot eingeführt: Kreativ, Ausgewogen oder Präzise. Microsoft war Prüfungen Funktion seit dem 24. Februar mit einer begrenzten Anzahl von Benutzern. Das Umschalten zwischen den Modi führt zu unterschiedlichen Ergebnissen, die sie ändern Gleichgewicht zwischen Präzision und Kreativität.

Bing Chat ist ein KI-gestützter Assistent, der auf einem von OpenAI entwickelten Advanced Large Language Model (LLM) basiert. Der Hauptvorteil von Bing Chat besteht darin, dass es das Web durchsuchen und die Ergebnisse in seine Antworten integrieren kann.

Microsoft kündigte Bing Chat am 7. Februar an, und kurz nachdem es live ging, trieben feindliche Angriffe regelmäßig eine frühe Version von Bing Chat an, um Raserei zu simulieren, und Benutzer entdeckten, dass ein Bot dazu überredet werden konnte. angedroht Sie. Nicht lange danach hat Microsoft die Bing-Chat-Revolutionen massiv zurückgenommen, indem es strenge Grenzen für die Dauer von Gesprächen auferlegte.

Seitdem hat das Unternehmen mit Möglichkeiten experimentiert, um denjenigen, die es wollten, etwas von der unhöflichen Persönlichkeit von Bing Chat zurückzugeben, aber auch anderen Benutzern die Möglichkeit zu geben, nach subtileren Antworten zu suchen. Dies führte zu einer neuen Schnittstelle mit drei Auswahlmöglichkeiten im „Gesprächsstil“.

Bei unseren Experimenten mit allen drei Modi stellten wir fest, dass der „Kreativ“-Modus kürzere, ausgefallenere Vorschläge produzierte, die nicht immer sicher oder praktisch waren. Der „genaue“ Modus ging auf Nummer sicher und schlug manchmal nichts vor, wenn er keinen sicheren Weg sah, um ein Ergebnis zu erzielen. Dazwischen produziert der längste „ausgewogene“ Modus oft Antworten mit den detailliertesten Suchergebnissen und Zitaten von Websites in ihren Antworten.

Siehe auch  Apple unterzeichnet mit Arm eine neue Vereinbarung, die über das Jahr 2040 hinausgeht

Bei großen Sprachmodellen nehmen mit zunehmender „Kreativität“ oft unerwartete Fehler (Halluzinationen) zu, was in der Regel bedeutet, dass das KI-Modell stärker von den Informationen abweicht, die es in seinem Datensatz gelernt hat. KI-Forscher nennen diese Eigenschaft oft „TemperaturAber Bing-Teammitglieder sagen, dass mit den neuen Konversationsmustern noch mehr in Arbeit ist.

Laut einem Microsoft-Mitarbeiter Michael BarachinDas Wechseln der Modi in Bing Chat ändert grundlegende Aspekte des Verhaltens des Bots, einschließlich des Wechsels zwischen verschiedenen empfangenen KI-Modellen zusätzliches Training menschlicher Reaktionen auf seine Ausgaben. Unterschiedliche Modi verwenden auch unterschiedliche anfängliche Eingabeaufforderungen, was bedeutet, dass Microsoft die Eingabeaufforderung zur Charakterauswahl optimiert, wie die, die in dem Instant-Injection-Angriff offenbart wurde, über den wir im Februar geschrieben haben.

Während Bing Chat immer noch nur für diejenigen verfügbar ist, die sich auf einer Warteliste angemeldet haben, verbessert Microsoft Bing Chat und andere KI-gestützte Bing-Suchfunktionen kontinuierlich, während es sich darauf vorbereitet, sie breiter für Benutzer bereitzustellen. Microsoft hat kürzlich Pläne angekündigt, die Technologie in Windows 11 zu integrieren.

Manni Winkler

"Bier-Geek. Der böse Ninja der Popkultur. Kaffee-Stipendiat fürs Leben. Professioneller Internet-Lehrer. Fleisch-Lehrer."

Related Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back to top button
Close
Close