Der Weg zu einem lebendigen Informationssicherheits-Managementsystem – ISO 27001 Kapitel 4.4
Erfahren Sie, wie Sie ein lebendiges ISMS nach ISO 27001 Kapitel 4.4 aufbauen – mit klaren Prozessen, Verantwortlichkeiten und kontinuierlicher...
Wie Risikoklassen der EU-KI-Verordnung Schweizer KMU helfen, KI sicher und verantwortungsvoll einzusetzen, von Automatisierung bis Governance.
Es beginnt meist unspektakulär. In einem traditionsreichen Treuhandbüro irgendwo zwischen St. Gallen und Winterthur testet eine Sachbearbeiterin eine neue KI-Funktion ihres Buchhaltungsprogramms. Sie lädt einige PDFs hoch – Spesenquittungen, Lieferantenrechnungen, Gebührenbescheide – und beobachtet, wie das System Beträge erkennt, Konten vorschlägt, Mehrwertsteuer-Codes zuordnet. Der Prozess, der sonst mühsam und repetitiv ist, wirkt plötzlich mühelos. Sie staunt nicht nur über die Geschwindigkeit, sondern darüber, wie selbstverständlich diese Technologie bereits in operative Abläufe eingreift. Niemand hat einen strategischen Entscheid gefällt. Das Tool war im Update schlicht enthalten. Ohne es zu bemerken, hat das KMU damit eine KI implementiert.
Genau an diesem unscheinbaren Ausgangspunkt setzt die Frage nach Risikoklassen an. Im ersten Moment erscheint die KI lediglich als neue Automatisierungsebene. Im zweiten Moment berührt sie unternehmerische Verantwortung, Datenwahrheit, Haftung und digitale Selbstbestimmung – und damit den Kern eines Risikoregimes, das in der Schweiz zwar noch nicht kodifiziert ist, aber faktisch bereits wirkt. Die EU hat mit ihrer KI-Verordnung ein vierstufiges Risikomodell vorgelegt, das sich in Europa als Massstab etabliert. Da die Schweiz wirtschaftlich, technologisch und datenschutzrechtlich eng mit ihrem Nachbarn verflochten ist, entfaltet dieses Modell auch hierzulande normative Wirkung – selbst ohne direkte Gesetzesbindung.
Der entscheidende Punkt: KMU operieren längst in Risikoklassen, oft ohne dies zu erkennen. Die Entscheidung, eine KI Revisionsbelege vorprüfen oder Bewerberprofile sortieren zu lassen, ist nicht neutral – sie verschiebt Verantwortlichkeiten, verändert Fehlerkulturen und erzeugt neue systemische Verwundbarkeiten. Eine Auseinandersetzung mit Risikoklassen muss hier ansetzen: nicht bei abstrakten Kategorien, sondern bei der Frage, warum ein KMU diese Kategorien überhaupt braucht.
Die KI-Verordnung der EU ordnet Anwendungen entlang eines Risikospektrums von «unannehmbar» über «hoch» und «begrenzt» bis «minimal». Die Wirksamkeit dieser Systematik liegt darin, dass sie mehr ist als eine juristische Typologie – sie funktioniert als Management-Kompass: weniger eine Grenzziehung zwischen Erlaubtem und Verbotenem als vielmehr eine Anleitung, wie Unternehmen ihre KI-Hoheit wahren.
Die Wirkung des EU AI Act auf Schweizer KMU folgt zwei unterschiedlichen Logiken. Rechtlich bindend wird die Verordnung, sobald ein Unternehmen KI-Systeme in der EU anbietet oder deren Output dort zum Einsatz kommt – dann gilt sie unmittelbar, unabhängig vom Unternehmenssitz.
Daneben entfaltet sie jedoch eine normative Sogwirkung ohne formelle Rechtsfolge: Wer EU-konforme Komponenten bezieht, mit europäischen Partnern kooperiert oder sich gegenüber Kunden und Auditoren positionieren muss, übernimmt die Risikoklassen als De-facto-Standard – nicht weil er muss, sondern weil der Markt es erwartet.
Schweizer KMU orientieren sich daran aus vier Gründen:
Damit stellt sich die Frage: Wie ordnet ein KMU seine KI ein? Einfachheit genügt hier nicht – nötig ist Klarheit.
Diese Kategorie bildet den juristischen Schutzwall gegen technologische Grenzüberschreitungen: KI-Systeme, die Menschen manipulieren, diskriminieren oder überwachen. Für KMU ist sie in der Praxis kaum relevant – was jedoch nicht bedeutet, dass sie ignoriert werden darf. Gerade im Umgang mit neuen HR-Tools, Emotionserkennung, Gesichtsanalyse oder «efficiency tracking» muss klar sein: Ein Unternehmen darf Mitarbeitende nicht biometrisch analysieren, kein Social Scoring erzeugen und keine manipulative KI einsetzen, die Verhaltensweisen steuert.
Der Wert dieser Kategorie liegt nicht im Verbot, sondern im Orientierungsrahmen: Sie markiert, wo die Grenze verläuft – und damit, wie weit unterhalb dieser Grenze verantwortungsvolle Innovation möglich ist.
Hier liegt der Kern der Debatte. Hochrisiko-KI betrifft Anwendungen, die über das Leben, die Chancen oder die Gesundheit von Menschen entscheiden oder sicherheitsrelevante Prozesse steuern. Viele KMU erkennen nicht, dass sie solche Systeme bereits nutzen. Die Rechnungserkennung aus unserem Beispiel gehört noch nicht dazu – aber Bewerbermatching, Kreditwürdigkeits-Scores, AML-Screening oder die algorithmische Qualitätskontrolle in der Produktion sehr wohl.
Der Charakter dieser Klasse ist eindeutig: Sie verlangt menschliche Kontrolle, dokumentierte Nachvollziehbarkeit und formalisierte Governance. Damit wird KI nicht zum blossen Werkzeug, sondern zum Mitentscheider, den das Unternehmen überprüfen können muss.
Drei Aspekte definieren diese Klasse besonders deutlich:
Die grösste Gefahr liegt nicht im technischen Risiko, sondern in der Scheinneutralität: KI wirkt objektiv, auch wenn sie es nicht ist. Da KMU naturgemäss weniger Ressourcen für Modellvalidierung haben, ist hier besondere Sorgfalt geboten.
Diese Klasse umfasst viele Anwendungen, die heute die Effizienz von KMU prägen: Chatbots, Präsentationsgeneratoren, Übersetzungshelfer, Vertriebsautomatisierung, Copilot-Funktionen. Sie sind nützlich, leistungsstark und potenziell irreführend. Ihr Risiko liegt nicht im Schaden durch unmittelbare Entscheidungen, sondern in der unreflektierten Übernahme von Inhalten.
Ein System mit begrenztem Risiko:
Die Verantwortung in dieser Klasse ist eine kulturelle: KMU müssen lernen, mit KI-produzierten Inhalten kritisch umzugehen. Es braucht Regeln, Schulungen und ein gemeinsames Verständnis, welche Unternehmensdaten niemals in externe Modelle gelangen dürfen. Transparenz wird hier zum operativen Sicherheitsnetz: Mitarbeitende müssen wissen, wann sie mit einer Maschine interagieren und wie sie deren Antworten einordnen sollen.
Diese Klasse umfasst Werkzeuge, die seit Jahren in Unternehmen laufen: Spam-Filter, Autokorrekturen, Suchfunktionen, einfache Klassifikationen. Sie gelten als sicher – sind aber dennoch Teil der KI-Landschaft. Das bedeutet: Auch hier gilt das Datenschutzrecht, auch hier braucht es Klarheit über Datenflüsse, auch hier darf die Integrität der Systeme nicht untergraben werden.
Das Risiko ist gering, aber nicht null. Die Massnahme ist einfach, aber notwendig: Basisprüfungen, Dokumentation, Verantwortlichkeit.
Ein KMU muss die vier Klassen nicht auswendig kennen, um verantwortungsvoll mit KI zu arbeiten. Es muss jedoch den dahinterliegenden Gedanken verinnerlichen: Je stärker KI Entscheidungen über Menschen oder sicherheitskritische Prozesse beeinflusst, desto robuster müssen Governance, Kontrolle und Nachvollziehbarkeit sein.
Es geht nicht um Bürokratie, sondern um Risikoarchitektur. Nicht um Regulierung, sondern um unternehmerische Souveränität. Nicht um Zukunftsängste, sondern um digitale Resilienz.
Damit schliesst sich der Kreis zum Ausgangsszenario: Die Sachbearbeiterin im Treuhandbüro erlebt ein Werkzeug, das ihr Arbeit abnimmt. Das ist wertvoll. Aber das Unternehmen muss verstehen, was dieses Werkzeug ist – keine neutrale Komfortfunktion, sondern ein algorithmischer Akteur, der Fehler machen darf, aber nicht unbemerkt.
Das Risikomodell lässt sich als Verkehrssystem begreifen:
Schweizer KMU sollten nicht auf ein neues Schweizer KI-Gesetz warten. Sie sollten lernen, diese Wege zu unterscheiden – und sich bewusst entscheiden, welche sie befahren wollen.
Denn KI wird kommen. In Wahrheit ist sie längst da. Die Frage lautet nur: Fahren Sie blind – oder mit einer funktionierenden Landkarte?
Als das Treuhandbüro einige Wochen nach den ersten Experimenten eine interne Sitzung ansetzt, ist die anfängliche Begeisterung der Mitarbeitenden noch spürbar, doch der Ton ist nüchterner. Die Geschäftsleitung hat die Diskussion über KI nicht dem Zufall überlassen wollen und eine strukturierte Standortbestimmung eingefordert. Die scheinbar banale Frage, ob die Software «einfach nur schneller bucht», erweist sich als Auslöser für eine grundlegendere Erkenntnis: Das Unternehmen hat eine Technologie eingeführt, die direkt in die Informations- und Entscheidungsarchitektur eingreift.
Die Analyse zeigt: Die automatische Extraktion und Klassifikation von Rechnungsdaten berührt – je nach Funktionsumfang – mehrere Risikodimensionen. Zunächst erscheint das System als Fall begrenzten Risikos, ein Assistenzwerkzeug mit hohem Nutzen und geringem Schadenspotenzial. Dann richtet sich der Blick auf jene wenigen, aber kritischen Fälle, in denen die KI Buchungssätze vorschlägt, die im Ernstfall steuerliche Konsequenzen haben könnten oder einen Revisionstatbestand berühren. Die Frage «Trifft das System Entscheidungen?» gewinnt plötzlich Gewicht. Genau hier zeigt sich der Wert einer Risikoklassifizierung: Sie ermöglicht dem Unternehmen, die Technologie nicht nach Gefühlslage, sondern entlang eines nachvollziehbaren Massstabs zu beurteilen.
Das Treuhandbüro stuft die Rechnungserkennung schliesslich als «Hochrisiko-angrenzend» ein – nicht, weil das System selbst eine Hochrisiko-KI wäre, sondern weil seine Auswirkungen in bestimmten Konstellationen solche Züge annehmen können. Diese Einstufung ist keine formelle Kategorie der EU-KI-VO, sondern eine interne Management-Entscheidung: Das Unternehmen behandelt bestimmte Anwendungsfälle aufgrund ihrer potenziellen Auswirkungen mit denselben Kontrollen, die für Hochrisiko-Systeme gelten würden.
Diese Feinjustierung führt zu einer konkreten Massnahmenarchitektur: Die KI darf Vorschläge machen, aber keine finalen Buchungen auslösen. Jeder maschinelle Vorschlag durchläuft ein Vier-Augen-Prinzip. Fehlerquoten werden quartalsweise ausgewertet. Datenflüsse werden neu dokumentiert, und der Auftragsbearbeitungsvertrag wird mit dem Anbieter aktualisiert. Zudem führt das Unternehmen eine einfache, aber klare Richtlinie ein, die Mitarbeitenden erklärt, welche Dokumente niemals in externe Modelle hochgeladen werden dürfen. Nichts davon ist revolutionär – aber alles zusammen bringt das Unternehmen von intuitiver Nutzung zu verantwortungsvoller Steuerung.
Das Fallbeispiel endet nicht mit einem spektakulären Aha-Erlebnis, sondern mit etwas Wertvollerem: einer Reifung. Die Organisation erkennt, dass sie nicht «KI einsetzt», sondern Verantwortung über algorithmische Prozesse übernimmt. Die Risikoklassifizierung ist dabei kein akademisches Schema, sondern ein Managementwerkzeug. Sie zwingt zur Frage, die jedes KMU stellen muss: Welche Art von Risiko akzeptieren wir – und welches nicht?
Damit gewinnt der anfängliche Experimentierimpuls eine strategische Dimension. Aus dem spontanen Ausprobieren wird kontrollierte Nutzung. Aus Unsicherheit wird ein Orientierungsrahmen. Und aus einem schlichten Software-Update entsteht ein professioneller Umgang mit einem technologischen Paradigmenwechsel.
Die Quintessenz des Fallbeispiels ist damit klar: Die Relevanz der Risikoklassifizierung liegt nicht in der Einordnung selbst, sondern in der Handlungskompetenz, die sie erzeugt. Sie macht sichtbar, wo KI nur Assistenz ist – und wo sie beginnt, Entscheidungen zu beeinflussen. Sie zeigt auf, wo Menschen die letzte Instanz bleiben müssen. Und sie verhindert, dass Schweizer KMU blind in eine Zukunft laufen, in der sie zwar moderne Werkzeuge benutzen, aber ihre institutionelle Kontrolle verlieren.
Im Ergebnis hat das Treuhandbüro die KI nicht zurückgerollt – im Gegenteil. Es nutzt sie heute intensiver als zuvor. Aber es tut dies mit einem klaren Bewusstsein für ihre Möglichkeiten und ihre Grenzen. Genau darin liegt die Stärke der Risikoklassifizierung: Sie schafft nicht Bremsen, sondern Leitplanken. Und ein KMU, das Leitplanken hat, fährt schneller, sicherer und mit deutlich mehr Selbstvertrauen.
Erfahren Sie, wie Sie ein lebendiges ISMS nach ISO 27001 Kapitel 4.4 aufbauen – mit klaren Prozessen, Verantwortlichkeiten und kontinuierlicher...
ISO 27001 fordert zu Beginn keineswegs technische Massnahmen oder Sicherheitstools – sondern das tiefgreifende Verständnis des eigenen...
Wir, die DATA Security AG, freuen uns bekannt zu geben, dass wir eine Kooperation mit dem Schweizerischen Verband der Telekommunikation (ASUT)...
Sind Sie der Erste, der über neueste zu Themen wie Geldwäscheprävention, Datenschutz und aktueller Rechtsprechung informiert wird.