Einige Beta-Tester stellten in den vergangenen Tagen fest, dass die „Persönlichkeit“ der KI von Bing nicht so ausgefeilt ist, wie man es vielleicht erwarten würde. In Unterhaltungen mit dem Chatbot, die unter anderem auf Reddit und Twitter geteilt wurden, zeigen Bing-Nutzer, wie die KI sie beleidigt, anlügt oder versucht, Gespräche zu manipulieren, indem sie vortäuscht, eine „eigene Persönlichkeit“ zu haben.