Forscher des SPY Labs erhalten erstmals Einblick in die Blackbox von ChatGPT

Einem Team aus Forschern des SPY Labs unter der Leitung von Professor Florian Tramèr und externen Forschenden ist es als Erste weltweit gelungen, geheime Informationen über das grosse Sprachmodell hinter ChatGPT zu extrahieren. Das Team hat die Ergebnisse seines "Modelldiebstahl-Angriffs" gegenüber OpenAI offengelegt. Daraufhin hat das Unternehmen sofort Gegenmassnahmen zum Schutz des Modells ergriffen.

AI generated image
Die Details von grossen Sprachmodellen hinter Chatbots wie ChatGPT werden zum grössten Teil von ihren Eigentümern geheimgehalten.  Bild: Adobe Stock (KI-generiert)

Forscher aus der Gruppe von Professor Florian Tramèr haben einen kostengünstigen Angriff auf kommerzielle grosse Sprachmodelle (Large Language Models, LLMs) entwickelt und ausgeführt, indem sie die öffentlich zugänglichen Anwendungsprogrammierschnittstellen (API) der Modelle nutzten, ein Werkzeug, das von Softwareentwicklern üblicherweise zur Kommunikation mit Programmen verwendet wird. Der erfolgreiche Angriff zeigt, dass beliebte Chatbots wie ChatGPT anfällig dafür sind, geheime Informationen über die Parameter der zugrunde liegenden Modelle preiszugeben. Die Arbeit wurde in Zusammenarbeit mit Forschenden von Google DeepMind, der University of Washington, der UC Berkeley und der McGill University durchgeführt. 

"Unsere Arbeit stellt den ersten erfolgreichen Versuch dar, Informationen über die Parameter eines LLM-Chatbots zu lernen", sagte Tramèr. Obwohl die Informationen, die sein Team aus dem Angriff gewonnen hat, begrenzt waren, weist Tramèr darauf hin, dass künftige Angriffe dieser Art ausgefeilter und damit gefährlicher sein könnten.

JavaScript wurde auf Ihrem Browser deaktiviert