AlexBKaiser

Einige Beta-Tester stellten in den vergangenen Tagen fest, dass die „Persönlichkeit“ der KI von Bing nicht so ausgefeilt ist, wie man es vielleicht erwarten würde. In Unterhaltungen mit dem Chatbot, die unter anderem auf Reddit und Twitter geteilt wurden, zeigen Bing-Nutzer, wie die KI sie beleidigt, anlügt oder versucht, Gespräche zu manipulieren, indem sie vortäuscht, eine „eigene Persönlichkeit“ zu haben.

berliner-zeitung.de

Microsoft: Bing-Chatbot zeigt „dunkle Persönlichkeit“: Ist die KI verrückt geworden?

Mal flirtet sie, mal ist sie beleidigt, mal aggressiv: Die ChatGPT-Integration der Suchmaschine Bing liefert im Chat Antworten, die Nutzer zutiefst verstören. Wie Microsoft reagiert.
19.02.2023 | aktualisiert am 20.02.2023 - 6:28 Uhr
Yusuf Mehdi, Microsoft Corporate Vice President of Search, spricht über die Integration der Suchmaschine Bing und des Edge-Browsers mit OpenAI.Stephen Brashear/dpa
Erste Nutzer können seit Anfang Februar die Microsoft-Suchmaschine
Bing mit der ChatGPT-Integration testen.
Die mit künstlicher Intelligenz (KI) ausgestattete Suchmaschine nennt sich „Sidney“, kann komplexe Fragen beantworten und mit den Nutzern kommunizieren. So ist sie zumindest gedacht worden. Doch dabei geht offenbar einiges schief.
Einige Beta-Tester stellten in den vergangenen Tagen fest, dass die „Persönlichkeit“ der KI von Bing nicht so ausgefeilt ist, wie man es vielleicht erwarten würde. In Unterhaltungen mit dem Chatbot, die unter anderem auf Reddit und Twitter geteilt wurden, zeigen …

1407
Falk B

Hat sie schon, wie Tay, den Holocaust geleugnet?