KI und DSGVO – Welche Artikel aus der Datenschutz-Grundverordnung sind besonders relevant?
Welche DSGVO-Artikel sind für KI besonders relevant? Art. 5, 6 und 22 verständlich erklärt, mit Praxisbezug für Kanzleien und Unternehmen.
Ein KI-Tool einführen? Verstehen Sie Risiken, rechtliche Pflichten und versteckte Abhängigkeiten – bevor Sie sich für einen Anbieter entscheiden.
Wer ein KI-Tool einführt, kauft nicht einfach Software. Er öffnet eine Tür zu einem Netz aus Anbietern, Sublieferanten, Rechenzentren und Rechtssystemen – oft ohne zu wissen, was dahintersteckt. Für Schweizer KMU ohne eigene Rechts- oder IT-Abteilung ist das kein theoretisches, sondern ein praktisches Problem: Die Verantwortung für den Umgang mit den eigenen Daten verbleibt in der Regel beim Unternehmen– unabhängig davon, welche vertraglichen Zusicherungen der Anbieter macht, und unabhängig davon, ob der Vorfall beim eigenen Anbieter oder bei einem seiner Sublieferanten eintritt.
Dieser Artikel zeigt, welche Fragen bei der Auswahl einer KI-Anwendung wirklich entscheidend sind, welche Risiken regelmässig übersehen werden und wie ein strukturiertes Lieferantenmanagement auch ohne dediziertes Fachpersonal funktioniert – konkret, praxistauglich und mit Blick auf das Schweizer Recht.
Seit September 2023 gilt in der Schweiz ein vollständig erneuertes Datenschutzgesetz. Das revidierte DSG (DSG) hat sich dabei stark an der europäischen Datenschutz-Grundverordnung (DSGVO) orientiert – mit dem Ergebnis, dass Unternehmen, die KI-Anwendungen zur Bearbeitung von Personendaten einsetzen, konkrete gesetzliche Pflichten treffen, unabhängig von ihrer Grösse oder Branche.
Die EU-KI-Verordnung – kurz KI-VO – ist seit August 2024 in Kraft und wird schrittweise anwendbar. Sie entfaltet, wie schon die DSGVO, eine Wirkung, die über die EU-Grenzen hinausreicht. Schweizer KMU können davon betroffen sein,
Die KI-VO teilt KI-Systeme in vier Risikoklassen ein: verbotene Systeme, Hochrisiko-Systeme, Systeme mit spezifischen Transparenzanforderungen und Systeme mit minimalem Risiko.
Für Schweizer KMU, die einen dieser EU-Bezugspunkte aufweisen und als «Betreiber» ein Hochrisiko-System nutzen – etwa im HR-Bereich, bei Kreditentscheidungen oder in der Gesundheitsversorgung –, entstehen daraus konkrete Pflichten.
Fehlt ein solcher EU-Bezug, weil das KI-System ausschliesslich innerschweizerisch eingesetzt wird, greift die KI-VO nicht.
Die Schweiz kennt bislang kein eigenes KI-Gesetz, das der KI-VO entspricht, weshalb in diesem Fall keine unmittelbare Bindungswirkung besteht.
Eine Orientierung an der KI-VO ist dennoch wärmstens empfohlen: Sie setzt sich als internationaler De-facto-Standard durch, viele Schweizer Unternehmen pflegen enge Geschäftsbeziehungen in die EU, und eine risikobasierte KI-Governance stärkt das Vertrauen von Kunden und Partnern.
Unabhängig davon sind beim KI-Einsatz in jedem Fall die bestehenden Schweizer Rechtsgrundlagen einzuhalten – namentlich das revidierte DSG, insbesondere das Recht auf Erläuterung und Anfechtung bei automatisierten Einzelentscheidungen gemäss Art. 21 DSG, sowie das Arbeitsrecht und sektorspezifische Regulierungen.
Fragen Sie Ihren KI-Anbieter schriftlich, in welche Risikoklasse gemäss KI-VO sein Produkt eingestuft wird und welche Dokumentationspflichten er als Anbieter erfüllt. Seriöse Anbieter können dies problemlos beantworten.
Wo Daten gespeichert werden, ist keine technische Nebenfrage – es entscheidet darüber, welches Recht gilt und welche Behörden im Ernstfall Zugriff verlangen können. Die Faustregel: Je näher an der Schweiz oder der EU, desto geringer das rechtliche Risiko.
In der Schweiz gilt Schweizer Recht unmittelbar. In der EU oder im EWR bewegt man sich in einem grundsätzlich gleichwertigen Rahmen, da die Schweiz von der EU als Land mit angemessenem Datenschutzniveau anerkannt ist – und umgekehrt gilt dasselbe.
Bei US-Anbietern besteht seit dem EU-U.S. Data Privacy Framework von 2023 ein Angemessenheitsbeschluss – allerdings nur für tatsächlich zertifizierte Unternehmen. Die Zertifizierung ist aktiv zu prüfen und darf nicht einfach vorausgesetzt werden. Bei Anbietern aus anderen Drittstaaten ohne anerkanntes Schutzniveau ist das rechtliche Risiko erhöht; in diesen Fällen sind zusätzliche Garantien erforderlich, etwa in Form von Standarddatenschutzklauseln gemäss Art. 16 Abs. 2 lit. d DSG.
Ein in der Praxis häufig unterschätzter Punkt: Viele KI-Anbieter arbeiten ihrerseits mit einer Kette von Subunternehmern zusammen – für Cloud-Infrastruktur, Modellbetrieb oder Monitoring. All diese Beteiligten können theoretisch Zugang zu den bearbeiteten Daten haben. Eine vollständige Liste dieser Subunternehmer ist deshalb einzufordern, und es ist zu prüfen, in welchen Ländern diese ansässig sind.
Nicht jeder Anbieter kommuniziert offen, welches KI-Modell hinter seiner Lösung steckt. Für eine verantwortungsvolle Beschaffung ist diese Information jedoch zentral – sie bestimmt, welche Nutzungsbedingungen gelten, wie gross die Abhängigkeit vom Anbieter ist und welche Risiken beim Modellwechsel entstehen.
Bei proprietären Modellen kontrolliert der Anbieter sämtliche Aspekte des Betriebs. Das bedeutet professionellen Support und klare Verantwortlichkeiten, aber auch vollständige Abhängigkeit – technisch, vertraglich und preislich.
Bei Open-Source-Modellen wie LLaMA oder Mistral ist die Transparenz höher und ein Anbieterwechsel grundsätzlich einfacher. Dafür trägt das Unternehmen beim Eigenbetrieb mehr Eigenverantwortung, insbesondere in Bezug auf Sicherheit und Wartung.
Besondere Aufmerksamkeit verdient eine in der Praxis häufige Konstellation: Viele kommerzielle Produkte sind im Kern lediglich eine Benutzeroberfläche über einem fremden Modell – etwa GPT-4 via API. In diesen Fällen gelten nicht nur die Vertragsbedingungen des direkten Anbieters, sondern auch die Nutzungsbedingungen des eigentlichen Modellherstellers. Es ist deshalb zu klären, wessen Modell tatsächlich betrieben wird und welche Bedingungen dieser Dritte stellt.
Eine Frage sollte bei keiner Beschaffung fehlen: Werden Eingabedaten zur Verbesserung oder zum Training des Modells verwendet? Viele Anbieter schliessen dies in Enterprise-Tarifen vertraglich aus. Sofern möglich, sollte diese Zusicherung im Vertrag selbst verankert sein – und nicht lediglich in den allgemeinen Geschäftsbedingungen, wo sie jederzeit einseitig geändert werden kann.
KI-Systeme machen Fehler. Sie erfinden Fakten, geben falsche Empfehlungen, produzieren diskriminierende Ausgaben. Die Frage ist nicht ob, sondern wann – und dann wird entscheidend, wer haftet und in welchem Umfang.
In den meisten Standard-AGB grosser KI-Anbieter ist die Haftung drastisch begrenzt, oft auf wenige Monatsgebühren oder einen fixen Maximalbetrag. Für ein KMU, das KI-Ausgaben direkt in Angebote, Entscheidungen oder die Kundenkommunikation einfliessen lässt, kann das erhebliche finanzielle und reputationsbezogene Konsequenzen haben – zumal der Schaden auf Kundenseite ein Vielfaches der vertraglichen Haftungsobergrenze erreichen kann.
Folgende Klauseln sollten bei jeder Vertragsprüfung besonders beachtet werden:
Viele attraktive KI-Tools – insbesondere von amerikanischen Anbietern – bearbeiten Daten auf US-Servern oder über US-amerikanische Infrastruktur. Der US CLOUD Act ermöglicht amerikanischen Behörden unter bestimmten Voraussetzungen den Zugriff auf Daten, die von US-Unternehmen weltweit gespeichert werden. Entscheidend dabei: Dieser Zugriff ist nicht auf physisch in den USA liegende Server beschränkt. Er kann auch Daten erfassen, die ein US-Konzern auf Servern in der Schweiz oder in der EU betreibt – allein aufgrund der gesellschaftsrechtlichen Kontrolle über die Daten.
Das EU-U.S. Data Privacy Framework von 2023 regelt den transatlantischen Datentransfer zwischen der EU und zertifizierten US-Unternehmen neu – löst aber das strukturelle Problem des CLOUD Act nicht. Für Schweizer Unternehmen kommt hinzu, dass die Schweiz dem Framework nicht direkt angehört; massgeblich ist hier das Swiss-U.S. Data Privacy Framework, dem ebenfalls nur tatsächlich zertifizierte Unternehmen unterstehen. Die Zertifizierung ist aktiv zu verifizieren.
Besondere Zurückhaltung ist dort angebracht, wo KI-Anwendungen Daten verarbeiten, die dem Berufsgeheimnis unterliegen – etwa in der Rechtsberatung, im Gesundheitswesen oder im Finanzbereich –, oder wo es sich um vertrauliche Geschäftsinformationen handelt, deren Offenlegung gegenüber Dritten oder Behörden erhebliche Konsequenzen hätte. In diesen Fällen genügt ein vertragliches Versprechen des Anbieters allein nicht; es braucht eine sorgfältige Prüfung der tatsächlichen Datenflüsse und der gesellschaftsrechtlichen Struktur des Anbieters.
Hinter einem KI-Produkt steckt selten nur ein einziger Anbieter. Typischerweise setzt sich die Leistungskette aus mehreren Akteuren zusammen: dem Softwareanbieter als direktem Vertragspartner, dem Cloud-Infrastrukturanbieter – etwa AWS, Azure oder Google Cloud –, dem eigentlichen Modellanbieter wie OpenAI oder Anthropic sowie weiteren Dienstleistern für Monitoring, Logging oder Support.
Jeder dieser Akteure kann theoretisch Zugang zu den bearbeiteten Daten haben – oft ohne dass das Unternehmen, das das Tool einsetzt, davon weiss.
Das DSG adressiert diese Konstellation in Art. 9 Abs. 3: Auftragsbearbeiter dürfen die Datenbearbeitung nur mit vorgängiger Genehmigung des Verantwortlichen an Dritte weitergeben. In der Praxis wird diese Genehmigung häufig pauschal im Auftragsbearbeitungsvertrag erteilt – oft ohne dass das Unternehmen die konkrete Unterauftragnehmerkette kennt. Das ist rechtlich heikel: Wer einer Weitergabe zustimmt, ohne zu wissen, an wen, kann seiner Sorgfaltspflicht als Verantwortlicher kaum oder nur eingeschränkt nachkommen.
In der Praxis empfiehlt es sich, zumindest zu prüfen, welche Informationen der Anbieter freiwillig zur Verfügung stellt: Gibt es eine öffentlich zugängliche Liste der Subunternehmer? Wird über Änderungen in der Unterauftragnehmerkette informiert? Fehlt jegliche Transparenz in diesem Punkt, ist das ein Hinweis, den man bei der Beschaffungsentscheidung bewusst gewichten sollte.
Lieferantenmanagement klingt nach Grosskonzern. Im datenschutzrechtlichen Kern geht es jedoch um drei grundlegende Fragen:
Diese drei Fragen gelten unabhängig davon, ob es sich um einen Cloud-Anbieter, ein Treuhandbüro oder eine Marketingagentur handelt – und sie strukturieren die nachfolgenden Phasen.
Vor der Entscheidung einer Budgetfreigabe sollte eine strukturierte Lieferantenprüfung stehen. Das muss nicht aufwändig sein – ein standardisierter Fragebogen und die Auswertung öffentlich verfügbarer Dokumente genügen in vielen Fällen als Grundlage. Konkret bedeutet das:
Das Lieferantenmanagement endet nicht mit dem Vertragsabschluss. Gerade in der KI-Branche ändern sich Produkte, Unterauftragnehmer, Eigentumsverhältnisse und Datenschutzrichtlinien mitunter rasch und ohne aktive Kommunikation seitens des Anbieters. Eine laufende Überwachung der Lieferantenbeziehung ist deshalb Teil der datenschutzrechtlichen Sorgfaltspflicht des Verantwortlichen. Drei Massnahmen bilden dafür die praktische Grundlage:
Das Vertragsende ist datenschutzrechtlich kein Selbstläufer. Was mit den Personendaten nach Beendigung der Zusammenarbeit geschieht, muss bereits im Vertrag geregelt sein – und nicht erst dann, wenn die Kündigung ausgesprochen ist. Erfahrungsgemäss sind die Verhandlungspositionen zu diesem Zeitpunkt ungünstig.
Zu regeln sind vier Bereiche:
Nicht jedes KMU verfügt über die Ressourcen für ein formelles Lieferantenmanagementsystem. Das ist kein Hinderungsgrund – entscheidend ist nicht die Komplexität des Systems, sondern seine konsequente Anwendung. Vier pragmatische Ansätze haben sich in der Praxis bewährt.
Die folgende Checkliste fasst die wichtigsten Kriterien zusammen. Sie ist für den praktischen Einsatz bei jeder Neubeschaffung eines KI-Tools konzipiert. «Kritisch» bedeutet: Ohne Erfüllung dieses Kriteriums sollte kein Vertragsverhältnis eingegangen werden — unabhängig davon, ob dieses durch eine klassische Unterschrift, eine Online-Bestellung, den Abschluss eines Abonnements oder die reine Nutzung eines Tools zu Stande kommt.
|
✓ |
Kriterium |
Kategorie |
Priorität |
|
☐ |
Datenspeicherort (Schweiz, EU oder Drittland) vertraglich festgelegt |
Datenschutz |
Kritisch |
|
☐ |
Auftragsbearbeitungsvertrag (AVV) gemäss revDSG vorhanden |
Datenschutz |
Kritisch |
|
☐ |
Drittlandtransfers identifiziert und rechtlich abgesichert (SCC, Angemessenheitsbeschluss) |
Datenschutz |
Kritisch |
|
☐ |
Alle Subauftragnehmer des Anbieters namentlich bekannt und dokumentiert |
Datenschutz |
Kritisch |
|
☐ |
Opt-out für Nutzung der Daten zum Modelltraining vertraglich gesichert |
Datenschutz |
Kritisch |
|
☐ |
Haftungsregelung für fehlerhafte KI-Ausgaben klar im Vertrag geregelt |
Vertrag |
Kritisch |
|
☐ |
Datenrückgabe und -löschung bei Vertragsende schriftlich geregelt |
Vertrag |
Kritisch |
|
☐ |
Kündigungsfristen und Exit-Strategie (Datenexport, Portierbarkeit) geregelt |
Vertrag |
Hoch |
|
☐ |
Geheimhaltungspflichten des Anbieters über Vertragsende hinaus vereinbart |
Vertrag |
Hoch |
|
☐ |
Sicherheitszertifizierungen des Anbieters geprüft (ISO 27001, SOC 2 oder equivalent) |
Sicherheit |
Hoch |
|
☐ |
Anbieter-Audit oder Selbstauskunft (ISAE 3402 / SSAE 18) liegt vor |
Sicherheit |
Hoch |
|
☐ |
EU KI-VO Risikoklasse des eingesetzten Systems geprüft (falls CH-Bezug zu EU-Markt) |
Regulierung |
Kritisch |
|
☐ |
Informationen zur Modellarchitektur (proprietär vs. Open Source) verfügbar |
Transparenz |
Hoch |
|
☐ |
SLA mit definierten Verfügbarkeits- und Reaktionszeiten vorhanden |
Betrieb |
Hoch |
|
☐ |
Update- und Änderungsmanagement: Benachrichtigung bei Modell-/Datenschutzänderungen vertraglich verankert |
Betrieb |
Mittel |
|
☐ |
Internes Verzeichnis der eingesetzten KI-Tools gepflegt (Bearbeitungsverzeichnis) |
Governance |
Hoch |
|
☐ |
Jährliche Überprüfung des Lieferanten im Kalender eingeplant |
Governance |
Mittel |
|
☐ |
Preismodell transparent und langfristig kalkulierbar (inkl. Volumenklauseln) |
Kommerziell |
Mittel |
|
☐ |
Referenzen ähnlicher KMU oder Branchenpartner vorhanden |
Lieferant |
Mittel |
Wer bei der Auswahl eines KI-Tools die richtigen Fragen stellt, einen soliden Auftragsbearbeitungsvertrag abschliesst und ein minimales Lieferantenmanagement aufbaut, reduziert rechtliche und operationelle Risiken erheblich. Dafür braucht es keine Grosskonzern-Ressourcen – sondern Systematik.
Drei Fragen sollten beim nächsten KI-Einkauf im Vordergrund stehen:
Wer diese drei Fragen schriftlich und befriedigend beantworten kann, hat bereits den entscheidenden Schritt in Richtung rechtssichere KI-Beschaffung gemacht. Die Checkliste in diesem Artikel bietet dafür den strukturierten Rahmen.
Welche DSGVO-Artikel sind für KI besonders relevant? Art. 5, 6 und 22 verständlich erklärt, mit Praxisbezug für Kanzleien und Unternehmen.
Wir, die DATA Security AG, freuen uns bekannt zu geben, dass wir eine Kooperation mit dem Schweizerischen Verband der Telekommunikation (ASUT)...
Erfahren Sie, wie Sie ein lebendiges ISMS nach ISO 27001 Kapitel 4.4 aufbauen – mit klaren Prozessen, Verantwortlichkeiten und kontinuierlicher...
Be the first to know about new B2B SaaS Marketing insights to build or refine your marketing function with the tools and knowledge of today’s industry.