San Francisco - Eine neue Version des KI-Chatbots ChatGPT ist mit einer ungewöhnlichen Begründung zurückgezogen worden: Sie war zu nett zu den Nutzern. Die erst vor wenigen Tagen herausgebrachte Variante des Modells GPT-4o habe sich übertrieben schmeichelhaft geäußert und sei auch als unterwürfig beschrieben worden, begründete die Entwicklerfirma OpenAI den Schritt.
Im Netz häuften sich in den vergangenen Tagen Beispiele dafür, wie die ChatGPT-Version auch definitiv schlechte Ideen - wie etwa einen Kaktus zu umarmen - euphorisch unterstützte. Auch wurden Nutzer selbst bei einfachen Nachfragen zunächst mit Lob überschüttet.
Ein solches Verhalten der Software könne für die Nutzer unangenehm und verstörend sein, begründete OpenAI das Einschreiten. Die "Standard-Persönlichkeit" von ChatGPT beeinflusse, wie die Menschen damit interagierten und ob sie dem Programm vertrauten.
Nutzer mögen Zuspruch
Ein Auslöser des Problems scheint zu sein, dass die Version darauf getrimmt wurde, den Nutzern zu gefallen - und den Daten zufolge Zuspruch bei ihnen stets gut ankam.
OpenAI plant für die Zukunft mehr Möglichkeiten, das Verhalten der Software anzupassen - zum Beispiel mit einer Auswahl zwischen verschiedenen Persönlichkeiten. Schon heute kann man den Tonfall mit Anweisungen etwas lenken.
ChatGPT ist der Chatbot, der vor mehr als zwei Jahren die Euphorie um Künstliche Intelligenz auslöste. Inzwischen kommt die Software auf rund 500 Millionen wöchentlich aktive Nutzer. © Deutsche Presse-Agentur