Forschende haben einen neuen Angriff auf ChatGPT entdeckt, der Schwachstellen in der Verarbeitung von Eingabeaufforderungen durch die KI ausnutzt. Angreifern ist es möglich, sensible Nutzerdaten abzuschöpfen und dauerhafte Anweisungen im Modellspeicher zu verankern. Diese jüngste Schwachstelle, die als ZombieAgent bezeichnet wird, steht für einen gefährlichen Teufelskreis, bei dem die Entwickler einen Fehler beheben und damit die nächste Lücke entsteht.
Sicherheitsexperten warnen, dass heutige Schutzmechanismen meist nur reagieren, statt vorzubeugen. Große Sprachmodelle können schädliche Eingaben nur schwer von legitimen Befehlen unterscheiden, was grundlegende Fragen zur langfristigen Sicherheit und Vertrauenswürdigkeit von KI-Systemen aufwirft.