KI in der Schweiz: Ein Einstieg für KMU – Chancen, Risiken und Orientierung im regulatorischen Wandel
Was Schweizer KMU jetzt über Chancen, Risiken und kommende Regeln rund um KI wissen müssen – ein praxisnaher Einstieg in den aktuellen Wandel.
«Welche Kontrollen brauchen wir konkret?» Diese Frage hören wir im Beratungsalltag regelmässig – zuletzt vermehrt nach unserem Beitrag «Risikoklassen von KI: Was Schweizer KMU aus dem EU-Modell lernen können». Der vorliegende Artikel ist die Antwort: eine pragmatische Übersicht für Schweizer KMU.
Vielleicht kennen Sie das: Die IT hat längst einen Spamfilter installiert, im Marketing experimentiert jemand mit ChatGPT, und aus dem HR kommt der Vorschlag, die Vorsortierung von Bewerbungen künftig mit einem «intelligenten» Tool durchzuführen. Was vor zwei Jahren noch Zukunftsmusik war, ist heute Alltag – oft schneller, als Richtlinien hinterherkommen.
Und dann die Frage in der Geschäftsleitung: Ist das alles eigentlich erlaubt? Wer haftet, wenn etwas schiefgeht? Brauchen wir für den Spamfilter dieselben Kontrollen wie für das Recruiting-Tool?
Die kurze Antwort: Nein. Die etwas längere: Es kommt darauf an – und genau das macht die Sache unübersichtlich. Denn während ein falsch sortierter Spam-Ordner höchstens ärgerlich ist, kann eine diskriminierende Bewerberauswahl rechtliche und reputationsbezogene Folgen haben, die ein KMU ernsthaft treffen.
Die gute Nachricht: Nicht jede KI erfordert denselben Kontrollaufwand. Je nach Risikoklasse genügen unterschiedlich aufwendige Massnahmen, um rechtlich, ethisch und operativ auf der sicheren Seite zu bleiben. Dieser Leitfaden zeigt, welche das sind – pragmatisch, umsetzbar und auf die Realität von Schweizer KMU zugeschnitten.
Hinweis zum regulatorischen Umfeld
In der Schweiz existiert derzeit keine spezifische KI-Verordnung. Die folgenden Erläuterungen orientieren sich an europäischen Best Practices, konkret an der EU-KI-Verordnung (KI-VO), und bilden einen freiwilligen Mindeststandard für einen verantwortungsvollen KI-Einsatz.
Dieser Leitfaden beschreibt eine bewusst konservative Referenzarchitektur für den verantwortungsvollen Einsatz von KI. Er ist nicht als rechtlicher Massstab konzipiert. Abweichungen von den empfohlenen Massnahmen sind zulässig, sofern sie risikobasiert begründet, dokumentiert und verantwortet erfolgen.
Der Einsatz von KI-Anwendungen kann – und soll – je nach Unternehmensgrösse, Branche und spezifischen Anforderungen angepasst werden. Die Orientierung an europäischen Best Practices bereitet zugleich proaktiv auf künftige regulatorische Entwicklungen vor.
Die KI-VO ordnet KI-Systeme nach ihrem Risikopotenzial in vier Kategorien ein:
Massgeblich für die Einordnung ist nicht die Technologie selbst, sondern der konkrete Einsatzzweck und die möglichen Auswirkungen auf Betroffene. Ein Sprachmodell kann je nach Anwendung in unterschiedliche Kategorien fallen. Die nachfolgenden Abschnitte beschreiben für jede Risikostufe die erforderlichen Kontrollen – von absoluten Verboten bis hin zu minimalen Dokumentationspflichten.
Die KI-VO definiert eine Kategorie von KI-Systemen mit sogenannten «unannehmbaren» Risiken, deren Einsatz innerhalb der EU grundsätzlich untersagt ist. Eine vergleichbare, verbindliche Verbotskategorie kennt die Schweiz derzeit nicht.
Für Schweizer KMU kann diese europäische Systematik gleichwohl als praxisnahe Orientierung dienen. Sie zieht «rote Linien» dort, wo erfahrungsgemäss besonders hohe Risiken für Grund- und Persönlichkeitsrechte, Datenschutz sowie arbeitsrechtliche Schutzinteressen entstehen – und wo erhebliche Reputations- und Haftungsrisiken drohen. Die nachfolgenden Ausschlusskriterien beruhen daher auf einer bewusst restriktiven, vorsorglichen Auslegung. Das Ziel besteht nicht darin, EU-Recht «nachzubauen», sondern Graubereiche zu meiden, in denen typischerweise erhebliche kontextbezogene Risiken auftreten – auch ohne ausdrückliches Schweizer Verbot.
Diese Orientierung gewinnt besondere Relevanz, sobald ein EU-Bezug besteht. Schweizer KMU können faktisch in den Anwendungsbereich europäischer Anforderungen geraten oder vertraglich daran gebunden werden – etwa wenn KI-Systeme für Personen in der EU eingesetzt werden, wenn Leistungen in die EU erbracht werden oder wenn das Unternehmen als Anbieter, Auftragsbearbeiter oder Subunternehmer Teil einer EU-Wertschöpfungskette ist. In solchen Konstellationen können die Vorgaben der KI-Verordnung mittelbar greifen: über Compliance-Klauseln, Lieferantenanforderungen, Audits oder Haftungsregelungen. Funktionen, die nach EU-Systematik als «unannehmbar» gelten, werden dann nicht nur theoretisch, sondern operativ geschäftskritisch.
Zur strukturierten Risikosteuerung empfiehlt sich ein standardisierter Red-Line-Check als Pflichtschritt:
Der Red-Line-Check dient der präventiven Governance: Er schafft nachvollziehbare Entscheidungen, reduziert Haftungs- und Reputationsrisiken und unterstützt – bei EU-Schnittstellen – auch die Anschlussfähigkeit an europäische Partneranforderungen.
Die nachfolgenden Ausschlusskriterien definieren KI-Funktionen und Einsatzszenarien, die unabhängig von der Risikokategorie vorsorglich nicht eingesetzt werden sollen. Wie bereits erläutert, orientieren sie sich am Schutzziel der KI-VO sowie an datenschutz- und arbeitsrechtlichen Grundprinzipien und dienen dazu, unvertretbare Risiken frühzeitig auszuschliessen, bevor eine vertiefte Risikobewertung oder Kontrollzuordnung erfolgt.
Kritische Funktionen sind bei vielen Anbietern standardmässig aktiviert. Vor jeder Freigabe muss daher geprüft werden, ob verbotene oder ausgeschlossene Features tatsächlich deaktiviert oder technisch unterbunden sind. Erst nach dieser Bereinigung lässt sich das System einem erneuten Red-Line-Check unterziehen.
Wie bereits erwähnt, stellen diese Ausschlusskriterien kein Schweizer Rechtsverbot dar, sondern dienen als vorsorgliche Leitplanke: Sie ermöglichen es, besonders risikoreiche KI-Funktionen in diesem Kontext konsequent auszuschliessen, Graubereiche zu vermeiden und bei Schnittstellen zur EU die kommerzielle wie vertragliche Anschlussfähigkeit zu wahren.
Die Kategorie der Hochrisiko-KI-Systeme aus der KI-VO dient auch hier als Orientierungsrahmen für Schweizer KMU, um angemessene interne Kontrollen für KI-Systeme mit erheblichem Einfluss auf Menschen zu etablieren. Es geht nicht um eine formale Rechtsübernahme, sondern um eine praxisnahe Risikodifferenzierung.
Im Mittelpunkt steht hierbei nicht die Frage, ob eine KI formal autonom entscheidet, sondern ob ihre Ausgaben den Entscheidungsprozess tatsächlich beeinflussen. Dies ist insbesondere dann der Fall, wenn KI-Systeme Entscheidungen vorbereiten, vorstrukturieren oder faktisch vorwegnehmen («präjudizieren») – etwa im Recruiting, bei Bonitäts-, Risiko- oder Compliance-Bewertungen, im Sanktions- oder Fraud-Screening.
Auch empfehlende Systeme können eine entscheidungsähnliche Wirkung entfalten: dann nämlich, wenn ihre Ergebnisse regelmässig übernommen werden, zeitlichen Druck erzeugen oder als objektiv wahrgenommene Vorselektion dienen. Genau hier greifen die verschärften Kontrollen dieser Risikokategorie.
Für Schweizer KMU ist diese Einordnung besonders relevant, da sie KI-Systeme betrifft,
Die nachfolgenden Kontrollen sind daher bewusst praxistauglicher ausgestaltet als die formalen Vorgaben der KI-VO, ohne deren Schutzziel zu relativieren. Sie ermöglichen es, KI-Systeme weiterhin «sicher» und «sauber« einzusetzen und zugleich dort gezielt Kontrolle, Transparenz und Verantwortlichkeit sicherzustellen, wo reale Auswirkungen auf Personen entstehen.
Menschliche Kontrolle (Human Oversight)
Nachvollziehbarkeit
Fehlertests und Bias-Prüfung
Protokollierung
Änderungsmanagement
Lieferantenmanagement
Schulung
Erreichen KI-Systeme eine ausgeprägt entscheidungsvorprägende oder faktisch mitentscheidende Wirkung, greifen zusätzliche Anforderungen.
Fazit: Der Leitfaden verfolgt für diese Kategorie eine klare Haltung: Hochrisiko-KI ist nicht per se zu vermeiden, wohl aber bewusst, kontrolliert und verantwortungsvoll zu steuern. Der damit verbundene Dokumentations- und Schulungsaufwand ist hoch, aber konsequent – und gerade deshalb für Schweizer KMU in skalierbarer, praxistauglicher Form umsetzbar.
KI-Systeme mit begrenztem Risiko entsprechen der gleichnamigen Risikokategorie der KI-VO. Auch in dieser Kategorie geht es nicht um eine formale Rechtsübernahme, sondern um die strukturierte Einordnung typischer KI-Anwendungen, die im Arbeitsalltag breit eingesetzt werden.
Tools wie Textassistenten, Chatbots oder Übersetzungshilfen unterstützen Mitarbeitende bei der täglichen Arbeit, treffen jedoch keine verbindlichen Entscheidungen und liefern keine garantierte Wahrheit. Ihr Einsatz ist grundsätzlich zulässig und weit verbreitet; relevante Risiken entstehen weniger aus der Technologie selbst als aus unkritischer oder uninformierter Nutzung.
Im Sinne des risikobasierten Ansatzes der KI-VO liegt der Fokus bei KI-Systemen mit begrenztem Risiko daher nicht auf umfangreichen technischen Kontrollen, sondern auf Transparenz, Bewusstsein und angemessener Nutzung. Die nachfolgenden Kontrollbereiche bilden – als Orientierung – einen Mindeststandard für den verantwortungsvollen Einsatz im Arbeitsalltag, der sich angemessen zur Unternehmensgrösse und zum Nutzungskontext skalieren lässt.
KI-Systeme mit minimalem Risiko entsprechen der niedrigsten Risikokategorie der KI-VO. Auch in dieser Kategorie geht es nicht um regulatorische Pflichten im engeren Sinn, sondern um eine grundlegende, verhältnismässige Governance für weitgehend unkritische KI-Funktionen.
Typische Beispiele sind Spamfilter, Autokorrekturen oder interne Suchfunktionen. Diese Systeme laufen häufig im Hintergrund und werden kaum als KI wahrgenommen, bearbeiten jedoch dennoch Daten und können bei Fehlfunktionen den Arbeitsalltag beeinträchtigen.
Entsprechend gilt der Grundsatz: Minimales Risiko = minimaler Aufwand. Der Governance-Ansatz beschränkt sich auf das notwendige Minimum und ist bewusst leichtgewichtig ausgestaltet. Die Dokumentation pro System soll fünf bis zehn Minuten nicht überschreiten und dient primär der Transparenz und Nachvollziehbarkeit.
Auf weitergehende Kontrollen wird verzichtet: Es sind keine Red-Line-Checks, keine menschliche Überprüfung einzelner Entscheidungen und keine Bias-Tests erforderlich. Gleichwohl bleibt eine elementare Governance verpflichtend, um Verantwortlichkeiten, Zweck und grundlegende Funktionsweise der Systeme nachvollziehbar festzuhalten.
Damit folgt auch diese Kategorie dem risikobasierten Ansatz der KI-VO: Nicht jede KI erfordert umfangreiche Kontrolle, wohl aber eine bewusste, dokumentierte Einordnung – selbst dann, wenn das Risiko als minimal eingeschätzt wird.
Vor der Aktivierung jedes KI-basierten Systems sollte der zuständige Fachbereich drei Fragen beantworten:
Die Antworten werden kurz protokolliert. Bei Unsicherheiten erfolgt Rückfrage an Compliance oder Datenschutz. Der Prozess wird in bestehende IT-Beschaffungs- oder Onboarding-Abläufe integriert.
Zur Vereinfachung empfiehlt sich ein einheitlicher Zyklus für alle Risikostufen. Jährlich sollte ein umfassender Review aller eingesetzten KI-Systeme (einschliesslich Red-Line-Check bei relevanten Systemen, Bias-Tests und Lieferantenreview) erfolgen.
Anlassbezogene Reviews sollten nach Anbieter-Updates, Funktionserweiterungen oder erkannten Problemen durchgeführt werden.
Der Aufwand skaliert mit der Risikostufe: Bei minimalen Risiken genügen etwa fünf Minuten pro Quartal, bei Hochrisiko-Systemen ist ein vollständiger Audit-Zyklus erforderlich.
Die folgende Tabelle zeigt beispielhaft, welche Kontrollen typischerweise den einzelnen Risikostufen zugeordnet werden können. Sie dient als Orientierungshilfe, um den risikobasierten Ansatz und die Skalierbarkeit der Kontrollen nachvollziehbar zu veranschaulichen.
Die konkrete Ausgestaltung und Zuordnung ist stets kontextabhängig und sollte sich an Unternehmensgrösse, Einsatzszenario, Systemkomplexität und tatsächlichem Risikoprofil orientieren.
|
Kontrollbereich |
Unannehmbar |
Hochrisiko |
Begrenzt |
Minimal |
|
Red-Line-Check |
Verboten |
Erforderlich |
Nicht nötig |
Nicht nötig |
|
Dateninventar |
— |
Strukturiert |
KI-Inventar |
Minimal |
|
Human Oversight |
— |
Qualifiziert |
Prüfpflicht |
Nicht nötig |
|
Bias-Tests |
— |
Obligatorisch |
Nicht nötig |
Nicht nötig |
|
Protokollierung |
— |
Vollständig |
Freigaben |
Feedbackkanal |
|
Schulung |
— |
Zertifiziert |
Onboarding |
Kurzinfo |
|
Lieferanten |
— |
Offenlegung |
Jährl. Review |
Vertrauen |
Was Schweizer KMU jetzt über Chancen, Risiken und kommende Regeln rund um KI wissen müssen – ein praxisnaher Einstieg in den aktuellen Wandel.
KI im Kundenkontakt für Schweizer KMU: So sichern Sie Transparenz, vermeiden Falschinformationen, etablieren Qualitätssicherung und bleiben...
Wie Risikoklassen der EU-KI-Verordnung Schweizer KMU helfen, KI sicher und verantwortungsvoll einzusetzen, von Automatisierung bis Governance.
Be the first to know about new B2B SaaS Marketing insights to build or refine your marketing function with the tools and knowledge of today’s industry.