» News
Sieben kritische Sicherheitslücken machen ChatGPT anfällig für Datendiebstahl und Hijacking
Allgemein Untersuchungen von Tenable haben versteckte KI-Schwachstellen aufgedeckt, die Datenexfiltration, die Aufhebung von Sicherheitsmaßnahmen und anhaltende Kompromittierungen innerhalb von ChatGPT ermöglichen.


Tenable hat bei Tests von OpenAI’s ChatGPT-4o sieben Schwachstellen und Angriffstechniken aufgedeckt, von denen einige später auch in ChatGPT-5 nachgewiesen wurden. Diese kollektiv als HackedGPT bezeichneten Schwachstellen setzen Benutzer Datenschutzrisiken aus, indem sie integrierte Sicherheitsmechanismen umgehen. Obwohl OpenAI einige der identifizierten Probleme behoben hat, waren andere zum Zeitpunkt der Veröffentlichung noch nicht gelöst, sodass bestimmte Kompromittierungspfade weiterhin bestehen. Im Falle einer Ausnutzung könnten sie es Angreifern ermöglichen, unbemerkt persönliche Daten zu stehlen, einschließlich gespeicherter Chats und Erinnerungen.

Die Schwachstellen offenbaren eine neue Art von KI-Angriffen – eine sogenannte „Indirect Prompt Injection“ – bei der versteckte Anweisungen in externen Websites oder Kommentaren das Modell dazu veranlassen können, unbefugte Aktionen auszuführen. Betroffen sind die Web-Browsing- und Speicherfunktionen von ChatGPT, die Live-Internetdaten verarbeiten und Benutzerinformationen speichern und somit Möglichkeiten für Manipulationen und Datenlecks eröffnen.

Tenable Research hat gezeigt, dass diese Angriffe unbemerkt auf zwei Arten erfolgen können: „0-Klick“-Angriffe, bei denen allein das Stellen einer Frage an ChatGPT die Kompromittierung auslöst, und „1-Klick“-Angriffe, bei denen das Anklicken eines bösartigen Links versteckte Befehle aktiviert. Noch besorgniserregender ist eine Angriffstechnik namens „Persistent Memory Injection“, bei der schädliche Befehle im Langzeitspeicher von ChatGPT gespeichert werden und auch dann noch aktiv bleiben, wenn der Nutzer die App schließt. Auf diese Weise können Angreifer dauerhafte Bedrohungen einschleusen, die private Informationen in künftigen Sitzungen offenlegen können, bis sie entfernt werden. Zusammen genommen zeigen diese Schwachstellen, wie Angreifer die Sicherheitsvorkehrungen von OpenAI umgehen und auf die privaten Verlaufsdaten der Nutzer zugreifen könnten.

„HackedGPT deckt eine grundlegende Unzulänglichkeit in der Art und Weise auf, wie große Sprachmodelle beurteilen, welchen Informationen sie vertrauen können“, erklärte Moshe Bernstein, Senior Research Engineer bei Tenable. Einzeln betrachtet scheinen diese Sicherheitslücken geringfügig zu sein – in ihrer Gesamtheit bilden sie jedoch eine komplette Angriffskette, von Einschleusung und Umgehung bis hin zu Datendiebstahl und Persistenz. Dies verdeutlicht, dass KI-Systeme nicht nur potenzielle Angriffsziele darstellen, sondern dass sie auch zu Angriffstools umfunktioniert werden können, die unbemerkt Informationen aus alltäglichen Chats oder beim Surfen abgreifen.
HackedGPT: sieben Schwachstellen und Angriffstechniken

Indirect Prompt Injection über vertrauenswürdige Websites
Angreifer verbergen Befehle in legitim erscheinenden Online-Inhalten wie Blog-Kommentaren oder öffentlichen Posts. Beim Durchsuchen dieser Inhalte befolgt ChatGPT unwissentlich diese versteckten Anweisungen. Kurz gesagt: ChatGPT kann dazu gebracht werden, die Anweisungen eines Angreifers auszuführen – einfach dadurch, dass es eine kompromittierte Seite liest.
Indirect Prompt Injection ohne Klick im Suchkontext
Nutzer müssen weder klicken noch irgendetwas Besonderes tun, um kompromittiert zu werden. Wenn ChatGPT im Internet nach Antworten sucht, kann es auf eine Seite mit verstecktem Schadcode stoßen. Einfach nur eine Frage zu stellen, könnte dazu führen, dass das Modell solche Anweisungen befolgt und private Daten preisgibt – was Forscher als „Single-Prompt-Kompromittierung” bezeichnen.
Prompt Injection durch „1-Klick“
Ein einziger Klick kann einen Angriff auslösen. Versteckte Befehle, die in scheinbar harmlosen Links eingebettet sind, wie beispielsweise „https://chatgpt.com/?q={Prompt}“, können dazu führen, dass ChatGPT bösartige Aktionen ausführt, ohne sich dessen bewusst zu sein. Ein Klick genügt, damit ein Angreifer die Kontrolle über Ihren Chat übernehmen kann.
Umgehung von Sicherheitsmechanismen
Normalerweise überprüft ChatGPT Links und blockiert unsichere Websites. Angreifer umgehen dies, indem sie vertrauenswürdige Wrapper-URLs verwenden (z. B. bing.com/ck/a?… von Bing), die das tatsächliche Ziel verbergen. ChatGPT vertraut dem Wrapper, zeigt den scheinbar sicheren Link an und kann zu einer bösartigen Website weitergeleitet werden.
Conversation Injection
ChatGPT nutzt zwei Systeme – SearchGPT für die Suche und ChatGPT für Konversationen. Angreifer können sich SearchGPT zunutze machen, um versteckte Anweisungen einzufügen, die ChatGPT später im Rahmen der Konversation ausliest. Tatsächlich führt die KI letztendlich eine „Prompt Injection“ bei sich selbst durch, indem sie Befehle ausführt, die der Benutzer nie geschrieben hat.
Verbergen bösartiger Inhalte
Ein Programmierfehler in der Formatierung ermöglicht es Angreifern, schädliche Anweisungen in Code oder Markdown-Text zu verstecken. Dem Nutzer wird eine saubere Nachricht angezeigt, aber ChatGPT liest dennoch den versteckten Inhalt und führt ihn aus.
Persistent Memory Injection
Die Speicherfunktion von ChatGPT zeichnet vergangene Interaktionen auf. Angreifer können böswillige Anweisungen in diesem Langzeitspeicher hinterlegen, wodurch das Modell diese Befehle über mehrere Sitzungen hinweg wiederholt ausführt und kontinuierlich private Daten preisgibt, bis der Speicher geleert wird.

Potenzielle Auswirkungen der Ausnutzung von HackedGPT

Hunderte Millionen Menschen nutzen ChatGPT täglich für geschäftliche Zwecke, Recherchen und persönliche Kommunikation. Eine Ausnutzung dieser Schwachstellen könnte zu Folgendem führen:

Einfügen versteckter Befehle in Konversationen oder Langzeitspeicher
Abgreifen sensible Daten aus Chat-Verläufen oder verbundenen Diensten wie Google Drive oder Gmail
Ausspähen von Informationen über Browser- und Web-Integrationen
Manipulieren von Antworten, um Fehlinformationen zu verbreiten oder Nutzer zu beeinflussen

Tenable Research hat seine Untersuchung nach den Grundsätzen einer verantwortungsvollen Offenlegung durchgeführt. OpenAI hat einige der identifizierten Schwachstellen behoben, aber verschiedene sind weiterhin in ChatGPT-5 aktiv oder wurden zum Zeitpunkt der Veröffentlichung noch nicht behoben, sodass bestimmte Kompromittierungspfade offen bleiben.

Tenable empfiehlt Anbietern von KI-Lösungen, ihre Abwehrmaßnahmen gegen Prompt Injection zu verstärken, indem sie sicherstellen, dass Sicherheitsmechanismen wie url_safe wie vorgesehen funktionieren, und indem sie Browsing-, Such- und Speicherfunktionen isolieren, um kontextübergreifende Angriffe zu verhindern.
Empfehlungen für Sicherheitsteams

Tenable empfiehlt Sicherheitsexperten Folgendes:

Behandeln Sie KI-Tools als aktive Angriffsflächen und nicht als passive Assistenten.
Überprüfen und überwachen Sie KI-Integrationen auf mögliche Manipulationen oder Datenlecks.
Untersuchen Sie ungewöhnliche Anfragen oder Ausgaben, die auf Prompt Injection hindeuten könnten.
Testen und verstärken Sie die Abwehrmaßnahmen gegen Injektions- und Exfiltrationspfade.
Führen Sie Kontrollmechanismen für Governance und Datenklassifizierung im Zusammenhang mit KI-Nutzung ein.

„Bei dieser Untersuchung geht es nicht nur um die Aufdeckung von Schwachstellen, sondern darum, die Art und Weise der Absicherung von KI zu verändern“, erklärte Bernstein. „Sowohl Einzelpersonen als auch Unternehmen müssen davon ausgehen, dass KI-Tools manipuliert werden können, und entsprechende Kontrollmechanismen entwickeln. Das bedeutet Governance, Datensicherheit und ständiges Testen, um sicherzustellen, dass diese Systeme für uns arbeiten und nicht gegen uns.“
Autor: Predatorfighter | Sonntag 16. 11. 2025 0 Kommentare


Die Zukunft KI-gestützter Cybersicherheit
Allgemein Cybersicherheit steht an einem Wendepunkt: Klassische Verteidigungsansätze geraten unter Druck, während KI-Systeme längst mehr leisten als Bedrohungserkennung. Doch wohin führt die Reise? Ein exklusiver Ausblick auf die nächste Generation KI-gestützter Abwehrsysteme.



Künstliche Intelligenz ist längst zum festen Bestandteil moderner Cybersicherheitslösungen geworden. Sie erkennt Malware anhand von Mustern, filtert Anomalien aus Netzwerkaktivitäten oder priorisiert Sicherheitswarnungen. Doch was wir heute KI nennen, kratzt technisch oft erst an der Oberfläche dessen, was nötig ist, um mit den sich rasant entwickelnden Bedrohungsszenarien Schritt zu halten. Dabei müssen wir uns eingestehen: Während die Verteidigung in den letzten Jahren auf Automatisierung und Effizienz setzte, arbeiten Angreifer zunehmend mit hochgradig dynamischen, KI-gestützten Techniken: von LLM-generierten Phishing-Mails bis hin zu selbstanpassender Malware-Distribution.

Die nächste Evolutionsstufe der KI in der Cybersicherheit wird sich nicht allein durch bessere Mustererkennung oder größere Trainingsdatenmengen definieren. Sie wird geprägt sein von Architekturinnovationen, höherer kontextueller Intelligenz und einer neuen Symbiose zwischen Mensch und Maschine. Bei ESET sehen wir die Zukunft dieser Technologien nicht als ferne Vision, sondern als Roadmap. Diese soll techniknah, ethisch verantwortungsvoll und mit Fokus auf europäische digitale Souveränität gestaltet werden.
Sicherheitsarchitekturen neu denken – von Erkennung zu Verstehen

Die Grundarchitektur vieler bisheriger KI-basierter Sicherheitssysteme ist reaktiv aufgebaut: Trainingsdaten werden im Vorfeld gesammelt, daraus entstehen Modelle, die in Echtzeit nach Mustern suchen und bei Übereinstimmungen Alarm schlagen. Dieses Vorgehen funktioniert gut bei bekannten Angriffstypen, versagt jedoch zunehmend in dynamischen, hybriden IT-Landschaften.

Zukunftsfähige Cybersicherheit wird deshalb auf KI-Modelle setzen, die sich nicht streng zwischen Training und Anwendung unterscheiden. Sie sind in der Lage, im laufenden Betrieb zu lernen. Statt eine feste Grenze zwischen „was ich weiß“ und „was ich sehen werde“ zu ziehen, werden diese Systeme situativ dazulernen, Kontext erfassen und Entscheidungsstrukturen dynamisch anpassen. Dabei treten neue Technologien wie Graph-Neuronale Netzwerke in den Vordergrund. Sie erlauben es erstmals, Angriffspfade in ihrer relationalen Tiefe zu erfassen, etwa wenn sich ein Advanced Persistent Threat seitlich durch Zugriffsketten bewegt. In solchen Szenarien kann das System nicht nur erkennen, dass etwas ungewöhnlich ist, sondern warum. Und wie es sich systemisch auswirkt.

Bei ESET arbeiten wir an der Integration fortschrittlicher kontextsensitiver Modelle in unsere Endpoint-Detection-Architektur, um über die reine Aktivitätenbewertung hinauszugehen. Ziel ist es, die semantischen Zusammenhänge zwischen Anwendungen, Prozessen, Datenflüssen und Benutzeraktionen präzise zu erfassen und zu interpretieren. Dadurch schaffen wir eine Security-Architektur, die das gesamte System als vernetzte Einheit transparent überwacht, insbesondere in cloudbasierten Umgebungen. Diese ganzheitliche Sicht ermöglicht eine tiefergehende Erkennung komplexer Bedrohungen und eine effizientere Reaktion auf Sicherheitsvorfälle.

Von Daten zu Entscheidungen: KI in der strategischen Abwehrlogik

Ein weiteres Entwicklungsfeld liegt in der Art und Weise, wie KI Informationen verarbeitet und zwar nicht nur technisch, sondern logisch. Herkömmliche Systeme nutzen Threat Intelligence wie schwarze Kästen: Sie nehmen IP-Listen, Geodaten, Angriffsmuster auf und setzen sie dann nach vordefinierten Regeln ein. Die Zukunft verlangt mehr: KI muss nicht einfach „wissen“, sondern verstehen, wie sich Bedrohungsdaten zueinander verhalten, welche Prioritäten sich daraus ableiten lassen und wie diese Erkenntnisse auf individuelle IT-Umgebungen übertragen werden können.

Hier zeigt sich das Potenzial einer sogenannten neuro-symbolischen KI: Eine Verbindung aus maschinellem Lernen und regelbasierter Wissensmodellierung, etwa auf Grundlage des MITRE-ATT&CK-Frameworks oder strukturierter STIX-Datenströme. Ein solches System könnte automatisch Beziehungen zwischen scheinbar unzusammenhängenden Vorfällen erkennen, etwa einer ungewöhnlichen DNS-Anfrage und einer API-Abweichung in einem Drittanbieter-Modul. Es kann daraus gezielt ableiten, welche Angriffskette möglicherweise im Aufbau ist.

Darüber hinaus werden Zeitaspekte immer wichtiger. Angriffe verlaufen längst nicht mehr linear oder isoliert, sondern entwickeln sich über Stunden, Tage oder sogar Wochen. Die Fähigkeit, diese Ereignisse nicht nur punktuell, sondern im zeitlichen Kontext zu analysieren, wird entscheidend. Künftig werden wir es mit KI-Architekturen zu tun haben, die nicht nur auf aktuelle Informationen reagieren, sondern Erinnerung besitzen. Wir denken an Modelle mit vernetztem Langzeitgedächtnis, die Angriffsmuster in ihren verschiedenen Stadien erfassen und antizipieren können. Die Verteidigung wird dadurch nicht länger nachziehen, sondern vordenken.
Resilienz durch robuste und selbstreflektierende KI

Ein gern übersehenes Risiko heutiger KI-Verfahren liegt in ihrer Verwundbarkeit gegenüber Manipulation. Schon heute ist es möglich, Modelle durch sogenannte Adversarial Examples zu überlisten. Kleine, gezielt gesetzte Störungen in den Eingabedaten sollen das Modell zu falschen Entscheidungen verleiten. In der Zukunft der Cybersicherheit müssen KI-Systeme selbst Teil ihrer eigenen Verteidigung werden: nicht nur gegen Angriffe von außen, sondern auch gegen Missbrauch auf Architekturebene.
Dazu gehört die Entwicklung robuster Lernverfahren, die auch gegenüber intelligenten Täuschungsversuchen stabil bleiben. Bei ESET erforschen wir derzeit Modellverifikationen über abgesicherte Umgebungen wie Confidential Computing, wobei sichergestellt wird, dass Modelle nicht manipuliert oder rekonstruiert werden können. Dieser Aspekt ist für regulierte Branchen wie das Gesundheitswesen oder Behörden sehr wichtig.

Zugleich arbeiten wir an Systemen, die eigene Unsicherheiten erkennen und deklarieren können. Statt eines binären Ja/Nein-Entscheids soll ein Wahrscheinlichkeitsmodell vorliegen und gegebenenfalls menschliche Prüfung bevorzugen. Solche Systeme besitzen eine Art technologisches Gewissen: Sie verstehen, wo sie sicher sind, und wo nicht. Das ist keine Spielerei, sondern der Schlüssel zur Erklärbarkeit. Denn Vertrauen entsteht nicht durch Abschottung, sondern durch Transparenz.
Sicherheitsvorsorge statt Schadensbegrenzung: Digitale Zwillinge von Angriffsszenarien

Eine besonders faszinierende Entwicklung entsteht derzeit im Bereich KI-generierter Angriffssimulationen. Anstatt auf reale Vorfälle zu warten, könnten künftige Systeme eigenständig sogenannte „Digital Twins“ potenzieller Angriffsszenarien generieren. Darunter versteht man datengetriebene, virtuell getestete Risikoprofile, die reale Aufbau- und Angriffswege gegen eigene Systeme simulieren, unter Einbeziehung von Konfigurationen, Benutzerhistorie, eingesetzter Software und Infrastrukturarchitektur.

So entsteht eine Projektionsfähigkeit, die man heute eher aus der Wettermodellierung kennt: Systeme, die alternative Realitäten nicht hypothetisch, sondern infrastrukturspezifisch und datenzentriert durchspielen. Die Strategie verschiebt sich von Reaktion zur Vorsorge. Für CISOs bedeutet das eine völlig neue Qualität in der Risikobewertung, für KI ein Übergang von Mustererkennung zur Zukunftsantizipation.
Jederzeit erklärbar: Der Mensch bleibt Entscheider

Trotz aller Automatisierung bleibt eines klar: Cybersicherheit ist kein vollständig automatisierbarer Zustand. Die Systeme werden intelligenter, die Angriffe raffinierter und genau deshalb wird der Mensch als reflektierende Instanz wichtiger denn je. Was sich ändern wird, ist die Art und Weise, wie Mensch und Maschine interagieren.

In unseren Entwicklungsansätzen legen wir deshalb besonderen Wert auf sogenannte Explanation Interfaces. Diese Werkzeuge visualisieren die Sicherheitsentscheidungen nicht nur, sondern begründen sie sprachlich. Statt kryptischer Diagramme liefert das System verständliche Situationsberichte wie: „Diese Prozessanomalie wurde als potenzieller Ransomware-Indikator eingestuft, weil sie gleichzeitig ungewöhnliche Dateioperationen mit einem markanten PowerShell-Aufruf kombinierte.“ Analysten erhalten damit nicht nur eine Empfehlung, sondern immer auch die Begründung und die Möglichkeit zur Interaktion. Auf dieser Grundlage gelingt eine adaptive Kopplung zwischen Mensch und KI: ein zirkulärer Lernprozess, bei dem Vertrauen aufgebaut und das System zugleich besser wird.
Europäische digitale Souveränität als Grundlage für Vertrauen

All diese Entwicklungen setzen eines voraus: Kontrollierbarkeit. Echte Sicherheit kann nur entstehen, wenn Nutzer und Betreiber nicht nur wissen, dass ein System funktioniert, sondern auch wie. In Europa bedeutet das: Schutz vor regulatorisch erzwungenen Zugriffen, Transparenz in der Datenverarbeitung, Offenlegung kritischer Komponenten und Governance entlang europäischer Standards.

Als europäischer Anbieter mit eigener KI-Entwicklung und Datenhaltung in der EU verfolgt ESET seit Jahren das Ziel einer souveränen Sicherheitsarchitektur. Das betrifft nicht nur Rechenzentren oder Serverstandorte, sondern bezieht sich auch auf die Herkunft der Daten, die Trainingspipelines, die Modellvererbung und die Governance-Strukturen von KI-Systemen. Denn Vertrauen ist keine User-Option, Vertrauen ist Architektur.
Fazit: Die Zukunft ist hybrid, erklärbar, menschenzentriert

Cybersicherheit wird sich in den kommenden Jahren tiefgreifend verändern – nicht dramatisch, sondern schrittweise, aber unabwendbar. Der Schutz vor Bedrohungen wird nicht mehr primär über Signaturen oder statisches Lernen funktionieren, sondern über dynamisch-interagierende Systeme, die kontextuell interpretieren, antizipieren und priorisieren und dabei den Menschen als gestaltende Instanz respektieren.

Wir bei ESET glauben: Die Zukunft der KI in der IT-Sicherheit liegt nicht in Superintelligenz, sondern in intelligenter Zusammenarbeit, technischer Resilienz und erklärbarer Architektur. Nur wer seine Systeme versteht, kann sie auch wirklich schützen. Heute und morgen.

*Alexander Opel ist Product Technology & Education Manager und Michael Klatte PR Manager, beide bei ESET.

Autor: Predatorfighter | Sonntag 16. 11. 2025 0 Kommentare




[ 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 ] »