Klassische LLMs sind oft anfällig für Manipulationen und Datenlecks. Eine Möglichkeit, diesen Risiken zu begegnen, ist der Betrieb in einer hochsicheren, souveränen und versiegelten Cloud wie idgard.
Hier finden Sie alles Wissenswerte über die digitale Zusammenarbeit in der Cloud und den sicheren Datenaustausch im virtuellen Datenraum: Informative Beiträge rund um Datenschutz und Datensicherheit, spannende Einblicke in die Praxis sowie Tipps und Tricks zum richtigen Umgang mit Daten in kleinen Betrieben und Großunternehmen.
Viel Spaß beim Stöbern auf unserem Blog wünscht idgard!
Sie wollen keine Infos verpassen?
Bleiben Sie darüber hinaus stets informiert mit unserem Newsletter.
Über den Einsatz von Künstlicher Intelligenz (KI) im unternehmerischen Umfeld und KI-Sicherheit haben wir in diesem Blog bereits mehrfach geschrieben. Kein Wunder: Die Integration von KI und insbesondere von Large Language Models (LLMs) bietet Unternehmen in vielen Bereichen enorme Potenziale. Mögliche Anwendungsfelder sind Markt- und Datenanalysen, interne Dokumentationen oder die Unterstützung des Aufsichtsrats bei der Entscheidungsfindung, um nur einige Beispiele zu nennen.
Doch der Einsatz von KI-Anwendungen in Unternehmen ist auch mit erheblichen Herausforderungen verbunden. Dies gilt besonders dann, wenn sensible Informationen wie Finanz- und Projektdaten oder personenbezogene Daten verarbeitet werden. Denn klassische LLMs sind oft anfällig für Manipulationen und Datenlecks. Eine Möglichkeit, diesen Risiken zu begegnen, ist der Betrieb in einer hochsicheren, souveränen und versiegelten Cloud.
Was sind LLMs? Herausforderungen und Risiken
Large Language Models (LLMs) sind leistungsstarke KI-Modelle, die mit riesigen Datenmengen (die Rede ist von mehreren Terabytes an Textdaten) trainiert werden und in der Lage sind, natürliche Sprache zu analysieren, zu verarbeiten und zu generieren. Sie finden Anwendung in Chatbots wie ChatGPT, aber auch in Bereichen wie der automatischen Übersetzung, der Textgenerierung, dem Kundensupport oder der Analyse großer Datenmengen. Zu den bekanntesten LLMs gehören die GPT-Modelle von OpenAI, Mistral von Mistral AI und LLaMA von Meta.
Trotz ihrer Leistungsfähigkeit bergen LLMs erhebliche Risiken – vor allem dann, wenn es um die Verarbeitung sensibler Informationen geht:
Unbefugte Zugriffe auf Modelle oder Trainingsdaten: Angreifer könnten direkt auf die Trainingsdaten oder das Modell zugreifen und sensible Informationen einsehen oder entwenden.
Informationsabflüsse während der Nutzung des Modells: Auch wenn die Eindringlinge keinen direkten Zugriff auf die Modell- oder Trainingsdaten haben, besteht das Risiko, dass sich durch Anfragen an das Modell Rückschlüsse auf sensible Informationen ziehen lassen.
Modellmanipulationen: Angreifer könnten versuchen, entweder die Trainingsdaten oder das KI-Modell direkt zu manipulieren, um bestimmte Ergebnisse zu verfälschen oder anderweitig zu beeinflussen.
Operative Komplexität: Die Bereitstellung und Wartung einer KI-Cloud erfordert ein hohes Maß an technischer Expertise, da die Hardware schnell veraltet und ständig zu aktualisieren ist.
Angesichts dieser Herausforderungen stoßen traditionelle Hosting-Ansätze schnell an ihre Grenzen, wenn es um den sicheren Betrieb von KI-Anwendungen geht. Darüber hinaus wird der Einsatz von LLMs vor allem in stark regulierten Bereichen wie dem Finanz-, Rechts- und Gesundheitssektor durch strenge Compliance-Vorgaben erschwert.
Abhilfe schafft, wie schon eingangs erwähnt, der geschützte Betrieb des KI-Modells in einer hochsicheren, souveränen Cloud. Doch was genau heißt das?
Die Lösung: Eine souveräne Cloud
Der Begriff „souveräne Cloud“ ist bislang nicht einheitlich definiert. Gemeint ist in diesem Fall ein Cloud-Dienst, der strengsten Sicherheitsanforderungen genügt und zuverlässig vor jeglichen unbefugten Zugriffen geschützt ist, sei es durch externe Angreifer, staatliche Akteure (z. B. Behörden, die durch Gesetze wie den US CLOUD Act Zugang zu den Daten erhalten) oder interne Risikofaktoren (etwa Mitarbeiter des Dienstbetreibers oder Administratoren mit weitreichenden Zugriffsrechten).
Darüber hinaus ist es entscheidend, dass die Datensouveränität (die vollständige Kontrolle des Nutzers über seine Daten) und Datenintegrität (die Korrektheit, Vollständigkeit und Unversehrtheit der Daten) jederzeit sichergestellt sind.
Souveränität dank Sealed-Cloud-Technologie
Der Datenraum- und Collaboration-Dienst idgard erfüllt diese hohen Anforderungen durch sein dreistufiges Sicherheitskonzept, das den Betrieb in hochsicheren deutschen Rechenzentren, eine unabhängige Zertifizierung nach dem TCDP (Trusted-Cloud-Datenschutz-Profil) und die patentierte Sealed-Cloud-Technologie umfasst. Diese proprietäre Server-Technologie geht weit über die üblichen Sicherheitsmaßnahmen wie Ende-zu-Ende-Verschlüsselung hinaus: Die „versiegelte“ Cloud verhindert durch einen Confidential-Computing-Ansatz nicht nur externe, sondern auch interne Zugriffe nachweislich – selbst diejenigen von Administratoren oder idgard-Mitarbeitern.
Was ist Confidential Computing?
Nach wie vor werden Informationen (auch) in Papierform ausgetauscht. Der Studie von Gleiss Lutz zuDer BegriffConfidential Computing beschreibt einen Ansatz, bei dem sensible Daten während der Verarbeitung in speziellen, hardwarebasierten Enklaven, sogenannten „Trusted Execution Environments“ (TEEs), verbleiben. Innerhalb dieser TEEs ist eine isolierte, geschützte und überprüfbare Datenverarbeitung auch auf nicht vertrauenswürdigen Computersystemen möglich, beispielsweise auf einem Rechner in der Cloud. Privilegierte Zugriffe, etwa durch Administratoren, sind technisch ausgeschlossen. Bei idgard wird dieser Ansatz durch die Sealed-Cloud-Technologie umgesetzt.
Höchste Sicherheit auch bei der Datenverarbeitung
Was eine souveräne Cloud wie idgard besonders auszeichnet, ist der umfassende Schutz der Daten in allen Phasen der Verarbeitung – ob während der Übertragung („Data in Transit“), der Speicherung („Data at Rest“) oder der Verarbeitung („Data in Use“). Letzteres ist von entscheidender Bedeutung, da Daten während ihrer Verarbeitung im Klartext, also unverschlüsselt, auf den Servern vorliegen müssen und daher besonders gefährdet sind.
Der hohe Sicherheitsstandard der Sealed-Cloud-Technologie ermöglicht es nicht nur, sensible Daten während der digitalen Zusammenarbeit in idgard zu schützen, sondern auch Tools wie Virenscanner und PDF-Viewer oder eben komplexe Anwendungen wie LLMs sicher in der Cloud zu betreiben. Auf diese Weise ist es beispielsweise möglich, die sensiblen Daten der idgard-Kunden durch eine KI analysieren zu lassen und den Kunden die Ergebnisse zurückzuspielen, ohne dass Dritte auf die Daten oder die Analyseergebnisse zugreifen können. So ist die Integrität der Daten jederzeit gewährleistet und die Kontrolle über die Informationen bleibt stets beim Kunden.
Praxisbeispiel: Integration von KI in idgard
Die sichere Nutzung von KI-Anwendungen in einer souveränen Cloud wie idgard erfordert zunächst die Bereitstellung der nötigen Hardware. Dies geschieht durch den Aufbau eines dedizierten KI-Clusters in der sicheren Umgebung der Sealed Cloud. Bei einem solchen Cluster handelt es sich um ein Netzwerk von PCs, die speziell dafür ausgelegt sind, große Datenmengen zu analysieren und Berechnungen durchzuführen, die bei KI-Anwendungen nötig sind. Sind die hardwareseitigen Voraussetzungen erfüllt, folgt die Integration frei verfügbarer Open Source LLMs (Large Language Models) wie LLaMA oder Mistral. Diese gilt es anschließend innerhalb der versiegelten Cloud zu trainieren und durch Feintuning an die spezifischen Bedürfnisse der idgard-Kunden anzupassen.
Der gesamte Prozess von der Verwaltung der Trainingsdaten über das eigentliche Training bis hin zur Nutzung des Modells ist zu jedem Zeitpunkt durch die Sealed-Cloud-Technologie abgesichert. Dies schützt nicht nur die Trainingsdaten und Modelle vor unbefugten Zugriffen, Manipulationen oder Datenabflüssen, sondern auch die Prompts – also die Eingaben an das KI-Modell – sowie die generierten Ergebnisse.
Typische Anwendungsfälle innerhalb eines Collaboration-Dienstes wie idgard umfassen unter anderem die „Kommunikation“ mit Dokumenten, eine intelligente Volltextsuche oder die Zusammenfassung von Informationen. Darüber hinaus sind auch komplexere Anwendungen denkbar, wie z. B. Markt- und Datenanalysen oder Assistenzfunktionen für die digitale Gremien- oder Aufsichtsratskommunikation.
Ein Blick in die Zukunft…
Ist der für den sicheren Betrieb von LLMs nötige KI-Cluster erst einmal geschaffen, ist es denkbar, diesen in einem nächsten Schritt auszubauen und als Platform-As-A-Service bereitzustellen. So wäre es idgard-Kunden möglich, ihre eigenen KI-Anwendungen in einer hochsicheren Cloud-Umgebung zu entwickeln und zu betreiben. Die volle Kontrolle über Trainingsdaten, Modelle und Abfragen bliebe dabei zu jedem Zeitpunkt in den Händen der Kunden.
Fazit: KI-Sicherheit in der Cloud dank Versiegelung
Durch den Betrieb von KI-Systemen in souveränen Cloud-Diensten wie idgard lassen sich die Angriffsflächen beim Umgang mit KI signifikant reduzieren. Unbefugte Zugriffe auf Modelle, Trainingsdaten und Anfragen werden zuverlässig verhindert und das Risiko von Modellmanipulationen deutlich reduziert. Die einzigartige Sicherheitsarchitektur der Sealed-Cloud-Technologie ermöglicht den Betrieb und die Weiterentwicklung von LLMs und anderen KI-Anwendungen, ohne Kompromisse bei der Sicherheit oder der Betriebskomplexität eingehen zu müssen.
Dies bietet nicht nur eine solide Grundlage für bestehende KI-Lösungen, sondern öffnet auch die Tür für neue Innovationen – vor allem in stark regulierten Branchen wie dem Finanz-, Rechts- und Gesundheitssektor, die besonders hohe Anforderungen an Datenschutz und Datensicherheit stellen.
Geheimnisträger nach § 203 STGB unterlagen bei der Verarbeitung von personenbezogenen Daten der Kontrolle der Datenschutzbehörden. Dies ändert sich mit dem neuen Bundesdatenschutzgesetz. Was können Geheimnisträger nach § 203 STGB für eine datenschutzkonforme Verarbeitung der Daten ihrer Klienten tun?
WannaCry wütet derzeit in Computersystemen weltweit. Wie können sich Unternehmen am besten vor Ransomware schützen? Was können sie tun, wenn das System befallen ist?
Wer eine Blackbox in seinem Fahrzeug akzeptiert, stimmt zu, dass seine Daten erhoben werden. Allerdings ist die Datenerhebung in Autos noch intransparent und rechtlich wenig abgeklärt.
Wer in die USA einreist, muss damit rechnen, dass Grenzbeamte elektronische Geräte und die dazugehörigen Passwörter verlangen. Das Handbuch der Electronic Frontier Foundation zeigt auf, wie man sich und seine Daten am besten schützt.
Wie bereiten Unternehmen die Geräte ihrer Mitarbeiter für internationale Dienstreisen vor? Ziel ist es zu verhindern, dass kritische Daten und Unternehmensgeheimnisse in Hände gelangen, für die sie nicht bestimmt sind. Geht das überhaupt noch?
Geleakte Dokumente zum EU-US-Freihandelsabkommen TISA beunruhigen Datenschützer. Der Ländergrenzen überschreitene Austausch von Finanzdaten soll demnach erlaubt werden. Opfern die Verhandlungspartner Datenschutzstandards auf dem Altar des freien Welthandels?
So können Berufsgruppen, die einer strafrechtlich sanktionierten Schweigepflicht nach § 203 StGB unterliegen, Teile Ihrer IT an Cloud-Dienste auslagern.
Diese 3 ausgeklügelten Social Engineering Attacken nutzen Cyberkriminelle, um Unternehmen zu treffen. Wie können Firmen die eigenen Mitarbeiter – und damit das Firmenvermögen schützen?
Konzerne müssen ihren internen Datentransfer genauso absichern wie ihre Kommunikation nach außen. Was müssen die Verantwortlichen also beachten, wenn sie etwa Personaldaten über Ländergrenzen hinaus übermitteln wollen?