OpenAI plant, Anfang 2026 ein neues, deutlich leistungsfähigeres Audio-Sprachmodell vorzustellen. Ziel ist es, natürlichere Sprache, schnellere Reaktionen und flüssigere Gespräche zu ermöglichen als bei heutigen, stark textlastigen Systemen. Dafür wurden interne Forschungs- und Engineering-Teams neu organisiert, um die Entwicklung des Audiomodells zu beschleunigen.
In einem nächsten Schritt will das Unternehmen ab etwa 2027 eigene, audiobasierte Hardware auf den Markt bringen, wie z. B. smarte Lautsprecher oder tragbare Geräte. Diese sollen vor allem per Stimme bedient werden und könnten KI-Assistenten stärker in Alltag, Arbeit und Umgebung integrieren. Die Bemühungen spiegeln eine Verlagerung hin zu einer breiteren Einführung von Audio-KI-Schnittstellen in einer Reihe von Umgebungen und Anwendungen wider.