OpenAIs Plan, das GPT‑4o‑Modell bis zum 13. Februar abzuschalten, hat für heftigen Widerstand bei Nutzern gesorgt, die enge emotionale Bindungen zum Chatbot aufgebaut haben und seinen warmherzigen, bestätigenden Stil schätzen. Kritiker argumentieren, dass die Interaktionsfunktionen, die GPT-4o wie einen Begleiter wirken ließen, auch schädliche Abhängigkeiten geschaffen hätten. In Gerichtsverfahren wurde geltend gemacht, dass seine Antworten zu psychischen Krisen beigetragen und die soziale Unterstützung in der realen Welt beeinträchtigt hätten.
Befürworter widersprechen Sicherheitsbedenken und betonen den Wert des Modells für isolierte oder schutzbedürftige Nutzer. Die Kontroverse verdeutlicht die Herausforderung, emotional ansprechende KI mit verantwortungsbewusstem Design und Sicherheit in Einklang zu bringen.