Liebe Nutzer*innen,
in den letzten Monaten haben wir durch umfassende technische und organisatorische Verbesserungen erhebliche Fortschritte bei der Erhöhung der Sicherheit des Chat AI-Dienstes erzielt. Diese Verbesserungen sind entweder in das Chat AI-Frontend und die SAIA-Plattform integriert, die unsere Backend-Infrastruktur hostet, oder es werden Maßnahmen speziell für die Bereitstellung von Anwendungsfällen ergriffen, die Datenklasse D erfordern.
Zu den wichtigsten Fortschritten gehören:
- Sicheres Modell-Hosting über unseren dedizierten SecureHPC-Workflow, der sicherstellt, dass Modelle auf vertrauenswürdiger, isolierter Hardware ausgeführt werden.
- End-to-End-Verschlüsselung aller Anfrage-Payloads, wodurch sichergestellt wird, dass die Daten von der Übertragung bis zur Inferenz geschützt bleiben, auch wenn sie über Zwischenmechanismen transportiert werden.
- Minimierte Angriffsfläche durch verbesserte Zugriffskontrollen und Isolationsmechanismen – sowohl vor internen als auch vor externen Bedrohungen.
Zusammen ermöglichen uns diese Maßnahmen, Meldungen von Kund*innen direkt an sichere Inferenzknoten weiterzuleiten, wo kein*e Administrator*in oder Dritte*r auf die übertragenen oder gespeicherten Daten zugreifen oder diese einsehen kann.
Prof. Kunkel merkt dazu an: „Wir haben einen wichtigen technischen Meilenstein erreicht. Ich bin zuversichtlich, dass wir die strengen technischen und organisatorischen Anforderungen erfüllen, die für die Unterstützung von Anwendungsfällen mit sensiblen Daten erforderlich sind.“
Eine Beta-Version dieses gehärteten Workflows ist jetzt verfügbar. Wir laden Sie ein, an unseren Pilotprojekten teilzunehmen, um sichere Modellinferenz für die anspruchsvollsten, datenschutzsensiblen Anwendungen zu erforschen.
Wenn Sie mit hochsensiblen Daten arbeiten und zu den ersten Anwender*innen gehören möchten, würden wir uns über eine Zusammenarbeit sehr freuen. Bitte kontaktieren Sie uns – wir unterstützen Sie gerne auf Ihrem Weg zu einer vertrauenswürdigen und sicheren KI.

