Americas

Asia

Oceania

Grant Gross
Senior Writer

Schatten-KI gefährdet Unternehmensdaten

News
18 Jun 20245Min
Sicherheit

Laut einer aktuellen Studie nutzen viele Mitarbeiter nicht autorisierte KI-Modelle hinter dem Rücken ihrer CIOs und CISOs. Das birgt ein enormes Sicherheitsrisiko.

Laut einer Studie erfolgt 74 Prozent der ChatGPT-Nutzung am Arbeitsplatz über private Konten.

Laut einer Studie erfolgt 74 Prozent der ChatGPT-Nutzung am Arbeitsplatz über private Konten.

Foto: unairakstudio – shutterstock.com

Eine Analyse von Cyberhaven Labs offenbart, dass viele Mitarbeiter juristische Unternehmensdokumente, Quellcode und Mitarbeiterinformationen mit nicht lizenzierten und nicht Business-tauglichen Versionen von KI-Modellen wie ChatGPT und Google Gemini teilen.

Demnach erfolgt etwa 74 Prozent der ChatGPT-Nutzung am Arbeitsplatz über private Konten. Die KI erhalte dadurch die Möglichkeit, diese Daten zum Training ihrer Modelle zu nutzen, warnen die Cyberexperten in dem Report, der auf den tatsächlichen KI-Nutzungsmustern von drei Millionen Arbeitnehmern basiert.

Darüber hinaus zeigt sich in den Ergebnissen, dass mehr als 94 Prozent der KI-Nutzung von Google Gemini und Bard nicht von Unternehmenskonten aus erfolgt. Dabei gehen fast 83 Prozent aller rechtlichen Dokumente, die mit KI-Tools geteilt werden, über externe Konten. Während die Hälfte aller Quellcodes, F&E-Materialien (Forschung und Entwicklung) sowie Personal- und Mitarbeiterdaten in nicht autorisierte KI-Tools fließen.

“Die Menge der Daten, die in KI-Tools eingespeist werden, hat sich laut Studie zwischen März 2023 und März 2024 fast verfünffacht. Endanwender setzen neue KI-Tools schneller ein, als die IT-Abteilung mithalten kann, was zu einem anhaltenden Wachstum der ‘Schatten-KI’ führt”, heißt es in dem Bericht weiter.

Lesetipp: Checkliste für CISOs – 8 Fragen vor dem GenAI-Einsatz

Wohin gehen die Daten?

Gleichzeitig wissen viele Nutzer möglicherweise nicht, was mit den Daten ihres Unternehmens geschieht, sobald sie diese mit einer nicht lizenzierten KI teilen. In den Nutzungsbedingungen von ChatGPT heißt es zum Beispiel, dass das Eigentum an den eingegebenen Inhalten bei den Nutzern verbleibt. ChatGPT könne diese Inhalte jedoch verwenden, um seine Dienste bereitzustellen, zu warten, zu entwickeln und zu verbessern. Das heißt, das Tool könnte sich selbst anhand der freigegebenen Mitarbeiterdaten trainieren. Allerdings haben Nutzer die Möglichkeit, ChatGPT die Verwendung ihrer Daten zum Training zu untersagen.

Bisher gibt es nur wenige Berichte darüber, dass wichtige Geschäftsgeheimnisse durch große öffentliche KI preisgegeben wurden. Sicherheitsexperten sorgen sich jedoch darum, was mit den Unternehmensdaten geschieht, sobald eine KI sie aufgenommen hat. Am 28. Mai kündigte OpenAI die Schaffung eines neuen Safety and Security Committee an, das sich mit diesen Bedenken befassen soll.

“Es ist schwierig, das Risiko der Weitergabe vertraulicher oder sensibler Informationen an öffentlich verfügbare KI zu bewerten”, erklärt Brian Vecci, Field CTO bei Varonis, einem Unternehmen für Cloud-Sicherheit. Er hält es für unwahrscheinlich, dass Unternehmen wie Google oder der ChatGPT-Entwickler OpenAI ihren KI-Systemen erlauben, sensible Geschäftsdaten an die Öffentlichkeit weiterzugeben. Eine solche Offenlegung würde ihnen schaden.

“Dennoch gibt es nicht viele Vorschriften, wodurch reguliert wird, was die KI-Entwickler mit den Daten der Nutzer machen können. In den kommenden Jahren werden jedoch viele weitere KI-Modelle auf den Markt kommen”, räumt Vecci ein. “Es wird interessante KI-Tools geben, die nicht von OpenAI oder Google kontrolliert werden.”

Die kommende Welle von KI-Entwicklern der zweiten und dritten Reihe könnte eine Gelegenheit für Hackergruppen sein, indem sie beispielsweise Profit aus dem Verkauf vertraulicher Unternehmensdaten ziehen, warnt der Varonis-CTO. “Die neuen KI-Tools werden möglicherweise nicht über die Cybersicherheitsvorkehrungen verfügen, die die großen Unternehmen haben.”

“Stellen Sie sich vor, es gibt eine Version eines LLM-Tools, das ChatGPT ähnelt, kostenlos und schnell ist und von wer weiß wem kontrolliert wird”, mahnt der Experte. “Ihre Mitarbeiter verwenden es und geben Quellcode und Finanzberichte weiter, und das könnte ein viel größeres Risiko darstellen.”

Sie interessieren sich für generative KI im Zusammenhang mit Cybersicherheit? Unser kostenloser Newsletter liefert Ihnen alles was Sie über Generative AI, Künstliche Intelligenz und ChatGPT wissen müssen

Riskantes Verhalten

Pranava Adduri, CEO von Bedrock Security, fügt hinzu: “Die Weitergabe von Unternehmens- oder Kundendaten an eine nicht autorisierte KI stellt ein Risiko dar, unabhängig davon, ob das KI-Modell auf diesen Daten trainiert oder sie mit anderen Nutzern teilt. Diese Informationen existieren damit nun außerhalb der Unternehmensgrenzen.”

Adduri empfiehlt Unternehmen, mit KI-Anbietern Lizenzvereinbarungen zu schließen, die Einschränkungen bei der Datennutzung enthalten, damit Mitarbeiter mit KI experimentieren können. “Das Problem besteht darin, dass man keine Kontrolle hat”, führt der Security-Spezialist aus. “Wenn die Daten an ein System ausgelagert werden, bei dem man keine direkte Kontrolle hat, wird das Risiko in der Regel durch rechtliche Verträge und Vereinbarungen gesteuert.”

AvePoint, ein Unternehmen für Cloud-Datenmanagement, hat einen KI-Vertrag unterzeichnet, um die Verwendung von Schatten-KI zu verhindern. Das Unternehmen hat dazu nach eigenen Angaben die Lizenzbedingungen einschließlich der Datennutzungsbeschränkungen vor der Unterzeichnung gründlich geprüft.

“Ein Hauptproblem bei der Schatten-KI ist, dass die Benutzer die Datenschutzrichtlinien oder Nutzungsbedingungen nicht lesen, bevor sie Unternehmensdaten in nicht autorisierte Tools einspeisen”, betont Dana Simberkoff, Chief Risk, Privacy and Information Security Officer bei AvePoint.

“Wo diese Daten hingehen, wie sie gespeichert werden und wofür sie in Zukunft verwendet werden können, ist immer noch nicht sehr transparent”, ergänzt Simberkoff. “Was die meisten Geschäftsanwender oft nicht verstehen, ist, dass diese offenen KI-Technologien, die von einer ganzen Reihe verschiedener Unternehmen stammen, sich tatsächlich aus den Daten speisen, die sie aufnehmen.” (jm)