Informationssicherheit bei ChatGPT, Open AI, Chat GPT App auf Smartphone, Shutterstock / PatrickAssale

Informationssicherheit bei ChatGPT: Best Practices für den sicheren Einsatz

Vasiliki Paschou ist zugelassene Rechtsanwältin und spezialisiert auf internationales Datenschutzrecht. In Ihrem Gastbeitrag erklärt sie, worauf Unternehmen bei der Nutzung von ChatGPT achten müssen, um Informationssicherheit zu gewährleisten.

Die Integration von ChatGPT, des von OpenAI entwickelten, auf künstlicher Intelligenz (KI) basierenden Chatbots, in Unternehmensprozesse bietet Möglichkeiten zur Effizienzsteigerung und Innovation, birgt jedoch auch einige Sicherheitsrisiken. Unternehmen sind daher angehalten, proaktive Maßnahmen zur Sicherstellung der Informationssicherheit bei der Nutzung des beliebten KI-Chatbots zu ergreifen.

Wir erklären praxisbezogen, was Sie beim Einsatz von ChatGPT in Ihrem Unternehmen beachten sollten.

Der Einsatz von ChatGPT im Unternehmen

Immer mehr Unternehmen streben den Einsatz von KI-Technologien an. Vor allem ChatGPT von OpenAI steht dabei im Mittelpunkt des Interesses vieler Unternehmen, die nach Wegen suchen, ihre Effizienz zu steigern und innovative Dienstleistungen anzubieten. Von der Automatisierung des Kundenservices über die Generierung von Texten und anderen Inhalten bis hin zur Unterstützung bei der Analyse großer Datenmengen bietet ChatGPT ein breites Spektrum an Einsatzmöglichkeiten.

Einsatz von KI im Unternehmen, Personen und Roboter vor Bildschirm, Shutterstock / Stock-Asso
KI im Unternehmenseinsatz
(Shutterstock / Stock-Asso)

Während die Vorteile von KI klar auf der Hand liegen, wirft der Einsatz von ChatGPT und anderen KI-Tools wichtige Fragen im Bereich des Datenschutzes und der Informationssicherheit auf. Vor diesem Hintergrund stehen Aufsichtsbehörden dem raschen Einsatz von KI in Geschäftsprozessen vorsichtig gegenüber und nehmen verstärkt eine prüfende Rolle ein.

Für Unternehmen bedeutet dies, dass sie bereits bei Planung und Implementierung proaktive Schritte unternehmen müssen, um Compliance mit den geltenden Datenschutzvorschriften zu gewährleisten, wenn sie KI-Technologien wie ChatGPT in ihre Abläufe integrieren möchten.

Achtung: Dies betrifft sowohl Entwickler von KI-Anwendungen (Stichwort: Privacy by Design und Privacy by Default) als auch Anwender, die nur fertige KI-Tools in ihre Prozesse aufnehmen.

ChatGPT ist in mehreren Versionen verfügbar, wobei jede Version spezifische Datenschutzherausforderungen mit sich bringt. Deshalb erläutern wir diese getrennt.

Informationssicherheit bei ChatGPT-3.5, ChatGPT-4 und ChatGPT-4o

Die Versionen 3.5, 4 und 4o von ChatGPT sind echte Favoriten bei Unternehmen, die nach unkomplizierten KI-Lösungen für ihre geschäftlichen Prozesse suchen. Allerdings bringen gerade diese weitverbreiteten Versionen wesentliche Compliance-Herausforderungen mit sich, die Beachtung erfordern.

Auftragsverarbeitung und technische und organisatorische Maßnahmen

Bei der Einbindung von ChatGPT-3.5, ChatGPT-4 oder ChatGPT-4o in Unternehmensprozesse ist OpenAI, der Anbieter dieser Dienste, als Auftragsverarbeiter im Sinne der Datenschutz-Grundverordnung (DSGVO) zu betrachten. Gemäß Art. 28 DSGVO ist es erforderlich, dass Unternehmen einen Auftragsverarbeitungsvertrag (AVV) mit ihren Auftragsverarbeitern abschließen, der die Rechte und Pflichten beider Parteien in Bezug auf den Datenschutz regelt.

Neben dem AVV muss der Auftragsverarbeiter gemäß Artikel 32 DSGVO auch angemessene technische und organisatorische Maßnahmen (TOM) implementieren und dokumentieren, um die Sicherheit der Verarbeitung zu gewährleisten.

Derzeit stellt OpenAI für die Versionen ChatGPT-3.5, ChatGPT-4 und ChatGPT-4o weder einen AVV noch Informationen zu den implementierten TOM zur Verfügung. Ohne diese wesentlichen Dokumente ist die rechtmäßige Verarbeitung personenbezogener Daten im Sinne von Art. 4 Abs. 1 Nr. 2 DSGVO nicht gewährleistet.

Unternehmen können diese Versionen von ChatGPT demnach nicht rechtmäßig verwenden, wenn personenbezogene Daten verarbeitet werden sollen. Ohne dokumentierte TOM besteht zudem ein erhöhtes Sicherheitsrisiko, da die Informationssicherheit nicht überprüfbar ist.

Verarbeitung zu Trainingszwecken

OpenAI verarbeitet Daten, die über ChatGPT-Versionen 3.5, 4 und 4o eingegeben werden, zu eigenen Zwecken – insbesondere für das Training der KI-Modelle. Diese Verarbeitung hilft zwar, Muster zu erkennen und die Modellantworten dadurch zu optimieren, sie birgt jedoch auch erhebliche Sicherheitsrisiken, wie die Gefahr der Profilbildung und den Verlust der Kontrolle über die Daten.

OpenAI holt keine explizite Einwilligung der Nutzer ein, bietet jedoch die Möglichkeit, die Datenverarbeitung zu Trainingszwecken zu deaktivieren. Diese Option kann unter Einstellungen -> Datenkontrollen -> „Das Modell für alle verbessern“ deaktiviert werden. Diese Einstellung schränkt die in Rede stehende Verarbeitung ein, verhindert sie jedoch nicht vollständig. Die Daten werden bis zu 30 Tage gespeichert und in diesem Zeitraum zur Verbesserung des Modells verwendet.

Wichtig ist auch, dass diese Einstellung nicht geräte- oder browsersynchronisiert ist, sodass sie auf jedem Gerät separat vorgenommen werden muss.

Diese Maßnahmen reduzieren zwar das Risiko, dass Daten langfristig gespeichert und möglicherweise missbraucht werden, gewährleisten jedoch keinen vollständigen Schutz vor Datenschutzrisiken.

Einschätzung zu ChatGPT 3.5, ChatGPT-4 und ChatGPT-4o

Es ist von entscheidender Bedeutung, dass Unternehmen, die die ChatGPT-Versionen 3.5, 4 oder 4o einsetzen möchten, sich der datenschutzrechtlichen Herausforderungen bewusst sind und entsprechende Maßnahmen ergreifen, um die Verarbeitung personenbezogener Daten vollständig zu vermeiden. Die datenschutzkonforme Nutzung von ChatGPT 3.5, 4 oder 4o in Unternehmensumgebungen ist nämlich nur möglich, sofern keine personenbezogenen Daten im Sinne von Art. 4 Nr. 1 DSGVO verarbeitet werden und keine geschützten Geschäftsgeheimnisse preisgegeben werden.

Pseudonymisierung personenbezogener Daten, maskierte Person vor Laptop, Shutterstock / Krakenimages.com
Pseudonymisierung kann helfen
(Shutterstock / Krakenimages)

Dies kann beispielsweise durch die Verwendung von Pseudonymen anstelle von personenbezogenen Daten erreicht werden. Zusätzlich ist es ratsam, die Datenverarbeitung für Trainingszwecke zu deaktivieren, auch wenn dies das Risiko nicht vollständig beseitigt.

Beim Hochladen von Dokumenten in Version 4 sollte zudem sichergestellt werden, dass keine personenbezogenen Daten in den Dokumenten enthalten sind, wie beispielsweise Autorennamen in Artikeln oder Empfängernamen bei Rechnungen. Falls solche Daten vorhanden sind, sollten sie vor dem Hochladen entfernt werden.

Darüber hinaus ist eine kontinuierliche Schulung der Mitarbeiter zu der datenschutzkonformen Nutzung von ChatGPT unerlässlich, um ein hohes Datenschutzniveau zu gewährleisten. Wir empfehlen zudem, eine Richtlinie zur Nutzung von KI-Tools zu erstellen, um sicherzustellen, dass alle Mitarbeitenden wissen, was sie im Umgang mit ChatGPT dürfen – und was nicht.

Informationssicherheit bei ChatGPT API und Enterprise Edition

OpenAI bietet neben den Modellen GPT-3.5, GPT-4 und GPT-4.o auch eine API und eine Enterprise-Edition an. Diese Versionen richten sich vor allem an Unternehmen, die maßgeschneiderte KI-Lösungen benötigen und sich mehr Kontrolle über ihre Anwendungen wünschen. Diese Editionen bieten im Vergleich zu den Versionen 3.5, 4 und 4o gleichzeitig auch erweiterte Sicherheitsmaßnahmen.

Auftragsverarbeitung und technische und organisatorische Maßnahmen

Ein datenschutzrechtlicher Vorteil dieser Versionen besteht darin, dass in diesem Fall OpenAI einen Auftragsverarbeitungsvertrag und Informationen zu den ergriffenen technischen und organisatorischen Maßnahmen für seine Auftraggeber bereitstellt. Dadurch erkennt OpenAI seine Rolle als Auftragsverarbeiter an und verpflichtet sich, die Daten gemäß den Weisungen seiner Kunden zu verarbeiten.

Dies umfasst die Einhaltung von Pflichten, die einem Auftragsverarbeiter nach Art. 28 DSGVO auferlegt werden sollen, wie beispielsweise die Unterstützung bei der Erfüllung der Datenschutzrechte betroffener Personen und die Gewährleistung der Sicherheit der Datenverarbeitung.

Verarbeitung zu Trainingszwecken und Informationssicherheit

In diesem Zuge verpflichtet sich OpenAI auch, die Interaktionen in ChatGPT nicht zu Trainingszwecken zu nutzen. Dies wird durch spezifische Konfigurationen und Mechanismen sichergestellt, die verhindern, dass die übermittelten Daten in den Trainingsprozess einfließen.

Datenverschlüsselung at Rest / in Transit

Erweiterte technische und organisatorische Maßnahmen, insbesondere die Datenverschlüsselung, werden sowohl für die Datenübertragung (in Transit) als auch für die Datenspeicherung (at Rest) eingesetzt. 

Datenverschlüsselung in Transit

Datenverschlüsselung in Transit bezieht sich auf den Schutz von Daten, während diese über Netzwerke übertragen werden. ChatGPT nutzt TLS (Transport Layer Security) zur Sicherung der Datenübertragungen zwischen dem Client und den Servern von OpenAI. Dies stellt sicher, dass die Daten während der Übertragung vor Abhör- und Manipulationsversuchen geschützt sind. Alle Datenpakete werden verschlüsselt, wodurch verhindert wird, dass Dritte die Informationen abfangen und lesen können.

Datenverschlüsselung at Rest

Datenverschlüsselung at Rest bezieht sich auf den Schutz von Daten, die gespeichert sind, sei es auf Festplatten, SSDs oder anderen Speichermedien. Für gespeicherte Daten setzt ChatGPT auf AES-256, einen der sichersten Verschlüsselungsstandards, um die Daten zu verschlüsseln, die in Datenbanken und anderen Speichersystemen abgelegt sind. Dies bedeutet, dass selbst wenn ein unbefugter Zugriff auf die physischen Speichermedien erfolgt, die Daten ohne den entsprechenden Schlüssel unlesbar bleiben.

SOC-2-Zertifizierung

Darüber hinaus sind die ChatGPT API und Enterprise Versionen nach SOC 2 Type II zertifiziert. Vergleichbare Zertifizierungen liegen für die anderen Versionen nicht vor. SOC 2 ist ein Sicherheitsstandard, der vom American Institute of Certified Public Accountants (AICPA) entwickelt wurde und sich auf die Gewährleistung von Sicherheit, Verfügbarkeit und Vertraulichkeit bei Unternehmen konzentriert. Während SOC-2-Zertifizierungen in den Vereinigten Staaten weit verbreitet sind, sind in Europa ISO-Zertifizierungen (vor allem: ISO 27001) häufiger anzutreffen und genießen eine größere Anerkennung.

Es ist wichtig zu beachten, dass derartige Zertifizierungen Sicherheitsmaßnahmen zwar bestätigen können, jedoch nicht unbedingt die alleinige Grundlage für Vertrauen sein sollten. Auch ohne diese Zertifizierungen sollte OpenAI angemessene Sicherheitsmaßnahmen implementieren, um den Datenschutzanforderungen der Nutzer gerecht zu werden. Europäische Unternehmen, die die Dienste von OpenAI nutzen möchten, sollten daher eine unabhängige Prüfung der technischen und organisatorischen Maßnahmen (TOM) von OpenAI nicht vernachlässigen.

Einschätzung zu ChatGPT API und Enterprise Edition

Unter Berücksichtigung dieser Aspekte wäre die Nutzung der API- und Enterprise-Editionen von ChatGPT mit personenbezogenen Daten grundsätzlich möglich, vorausgesetzt, der Datenschutzbeauftragte des Unternehmens hat den Auftragsverarbeitungsvertrag von OpenAI samt den technischen und organisatorischen Maßnahmen auf Konformität geprüft und für ausreichend im Hinblick auf die beabsichtigte Verarbeitung befunden.

Dennoch ist es wichtig, dass das Unternehmen auch bei der Verwendung dieser ChatGPT-Versionen angemessene Vorkehrungen trifft. Dazu gehört beispielsweise die Implementierung einer KI-Richtlinie, die den Mitarbeitern klare Anweisungen zur sicheren Nutzung von ChatGPT gibt, einschließlich der Vermeidung der Offenlegung besonderer Kategorien personenbezogener Daten oder sensiblen Geschäftsgeheimnissen während der Interaktionen.

Problematik des Drittlandtransfers beim Einsatz von ChatGPT

Da OpenAI ein US-amerikanisches Unternehmen mit Sitz in Kalifornien ist, müssen sich Unternehmen, die OpenAI einsetzen möchten, Gedanken bezüglich des entstehenden Drittlandtransfers machen. Für den Transfer personenbezogener Daten in die USA und andere Drittstaaten muss im Empfängerland tatsächlich (und nicht nur auf dem Papier) ein dem europäischen entsprechendes Datenschutzniveau vorliegen.

Vorsicht beim Drittlandtransfer, Europakarte mit Vorhängeschloss, Shutterstock / Ivan Marc
Vorsicht beim Drittlandtransfer
(Shutterstock / Ivan Marc)

Da OpenAI nicht nach dem EU-U.S. Data Privacy Framework zertifiziert ist, ist das US-Unternehmen gezwungen, alternative Methoden zu nutzen, um ein angemessenes Datenschutzniveau bei der Übermittlung personenbezogener Daten in die USA sicherzustellen. OpenAI stützt sich auf die Standardvertragsklauseln, die von der Europäischen Kommission als geeigneter Mechanismus für den Datentransfer außerhalb des Europäischen Wirtschaftsraum (EWR) anerkannt wurden.

Es ist jedoch kritisch zu betrachten, dass das mit Datentransfers in Drittländer und möglichen Datenschutzverstößen verbundene Risiko weiterhin besteht. Deshalb sollten Unternehmen gründlich evaluieren, ob der Einsatz von OpenAI-Diensten unter Berücksichtigung der Datenschutzanforderungen und rechtlichen Rahmenbedingungen gerechtfertigt ist. Zusätzliche Schutzmaßnahmen könnten erforderlich sein, um den Datenschutz und die Einhaltung der gesetzlichen Vorgaben zu gewährleisten.

Um dem entgegenzuwirken, hat OpenAI angekündigt, dass Nutzer, die ihren Wohnsitz im EWR oder in der Schweiz haben, eine Vertragsbeziehung mit OpenAI Ireland Ltd. eingehen – und nicht mit dem Mutterkonzern in Kalifornien. Trotz dieser Änderung auf Ebene der Vertragsgestaltung bleibt die Herausforderung des Datentransfers in Drittländer bestehen. Ein europäischer Vertragspartner schützt nicht zwingend vor unrechtmäßigen Verarbeitungen durch US-Behörden.

Multifaktor-Authentifizierung (MFA) bei ChatGPT

OpenAI hat die Multifaktor-Authentifizierung (MFA) für alle seine Dienste eingeführt. Diese kann jeder Nutzer unter Einstellungen -> Sicherheit -> Multifaktor-Authentifizierung aktivieren. Diese zusätzliche Sicherheitsebene schützt Konten vor unbefugtem Zugriff, indem sie neben den üblichen Anmeldedaten einen zweiten Authentifizierungsfaktor erfordert. Dies bedeutet, dass selbst wenn ein Passwort gestohlen wird, der Angreifer ohne den zweiten Faktor keinen Zugriff erhält. Dieser zweite Faktor wird durch eine Authentifizierungs-App generiert, die einen zeitbasierten Einmalcode (TOTP) liefert. Sollte der Zugriff auf die Authentifizierungsmethode verloren gehen, kann der Zugang durch einen bei der Einrichtung bereitgestellten Wiederherstellungscode oder einen an die E-Mail-Adresse gesendeten Code wiederhergestellt werden. Die Einführung der MFA ist ein positiver Schritt zur Erhöhung der Sicherheit und schützt Benutzerkonten vor gängigen Bedrohungen wie Phishing und Brute-Force-Angriffen. Benutzern von OpenAI-Diensten wird dringend empfohlen, diese Funktion zu aktivieren, um die Sicherheit ihrer Konten zu maximieren.

Fazit: ChatGPT-Nutzung durch Unternehmen ist eingeschränkt möglich

Unternehmen können (und sollten) die Potenziale von KI-Technologien wie ChatGPT nutzen, um ihre Prozesse zu optimieren. Datenschutz und Informationssicherheit sollten hierbei nicht als Hindernis angesehen werden, sondern als integrale Bestandteile, die von Anfang an berücksichtigt werden müssen.

Es gibt verschiedene Möglichkeiten, KI-Technologien datenschutzfreundlich in Unternehmensprozesse zu integrieren. Die frühzeitige Einbindung des Datenschutzbeauftragten ist dafür entscheidend. Er kann beraten, welche Maßnahmen erforderlich sind, um Sicherheitsrisiken zu minimieren und sicherzustellen, dass KI-Projekte im Einklang mit den geltenden Compliance-Anforderungen umgesetzt werden.

Zur Autorin

Informationssicherheit in ChatGPT, Autorin Vasiliki Paschou

Vasiliki Paschou ist zugelassene Rechtsanwältin (Dikigoros) in Athen und Mitglied der Rechtsanwaltskammer München. Sie ist spezialisiert auf internationales Datenschutzrecht und berät nationale und internationale Mandanten vornehmlich in den Bereichen E-Commerce und Marketing.

Mehr Infos: Rechtsanwälte für Datenschutz, IT und Compliance | activeMind.legal

E-Evidence vs Confidential Computing

Die geplante Verordnung der EU-Kommission für den grenzüberschreitenden Zugang zu elektronischen Beweismitteln (E-Evidence) soll Behörden künftig den Zugriff auf Cloud-Daten ermöglichen. Warum diese Forderung gefährlich ist und wie Confidential Computing behördliche Zugriffe technisch ausschließt, erfahren Sie hier.

Weiterlesen »
1 2 3 4 5 6 12