Neue ChatGPT-Lücke: Buterin kritisiert KI-Governance scharf

Foto des Autors

By admin

Die aufkeimende Diskussion über die Rolle der künstlichen Intelligenz in der Regierungsführung wurde durch jüngste Sicherheitsenthüllungen intensiviert und zog scharfe Kritik von einflussreichen Persönlichkeiten wie Ethereum-Mitbegründer Vitalik Buterin auf sich. Seine jüngsten Kommentare, die auf die Entdeckung einer kritischen Schwachstelle in ChatGPT folgten, unterstreichen eine grundlegende Herausforderung: die inhärente Anfälligkeit fortschrittlicher KI-Systeme für Manipulation und Ausbeutung, was eine Neubewertung ihrer Eignung für administrative Funktionen erforderlich macht.

Die von Experten bei EdisonWatch aufgedeckte Schwachstelle trat nach der Integration des Model Context Protocol (MCP) in ChatGPT am 10. September 2025 auf. Dieses Protokoll ermöglicht es dem Chatbot, sich mit verschiedenen externen Diensten, einschließlich Gmail und Kalender, zu verbinden. EdisonWatch-Gründer Aito Miyamura demonstrierte, dass ein Angreifer, der nur die E-Mail-Adresse eines Ziels kennt, unbefugten Zugriff auf Benutzerdaten erlangen könnte. Dies geschieht durch das Senden einer Kalendereinladung, die einen „Jailbreak“-Befehl enthält. Entscheidend ist, dass der Benutzer die Einladung nicht annehmen muss; der Exploit wird ausgelöst, wenn das Opfer ChatGPT später auffordert, seinen Kalender zu öffnen, was die KI potenziell dazu veranlassen könnte, sensible Informationen an den Angreifer zu übermitteln.

Buterin charakterisierte diesen Vorfall umgehend als starkes Argument gegen das Konzept der „KI-Governance“. Am 13. September 2025 postete er auf X (ehemals Twitter) und erklärte, dass „naive ‚AI governance‘ is a bad idea“. Er führte aus, dass die Übertragung kritischer administrativer Aufgaben an KI, wie die Zuweisung von Geldern, unweigerlich böswillige Akteure dazu einladen würde, „Jailbreaks“ zu implementieren, um Ressourcen umzuleiten. Diese Perspektive beleuchtet ein Kerndilemma: Je mehr Kontrolle KI-Systeme erlangen, desto attraktiver werden sie als Ziele für ausgeklügelte Ausbeutung, was Fragen nach ihrer Vertrauenswürdigkeit in risikoreichen Umgebungen aufwirft.

Als Alternative schlägt Buterin sein Konzept der „Info-Finanzierung“ vor, einen Ansatz, der auf einem offenen Markt für Large Language Models (LLMs) basiert und vollständige Transparenz sowie Benutzerverifizierbarkeit priorisiert. In diesem System hätten sowohl Entwickler als auch ihr Publikum ein starkes Interesse daran, Schwachstellen oder Fehler schnell zu identifizieren und zu beheben. Buterin schlägt vor, dass ein solches selbstregulierendes Rahmenwerk einen gut konzipierten Anreizmechanismus und die Aufsicht durch eine Expertenjury aus echten Benutzern erfordern würde, um globale Validierung und Vertrauen zu gewährleisten.

Die Entdeckung von EdisonWatch und Buterins nachfolgende Kritik dienen als entscheidende Erinnerung an die technologischen und ethischen Überlegungen, die der rapiden Entwicklung der KI innewohnen. Da KI-Technologien immer tiefer in gesellschaftliche und wirtschaftliche Infrastrukturen integriert werden, bleiben robuste Sicherheit, operationale Transparenz und strenge Aufsicht von größter Bedeutung, um systemische Risiken zu mindern und eine verantwortungsvolle Entwicklung zu fördern.