Künstliche Intelligenz

Kompetenz im Schweizer Treuhandbüro – und warum Artikel 4 der EU-KI-Verordnung auch für Sie relevant ist

Was Ihre Mitarbeitenden über KI wirklich wissen sollten

Subscribe

Subscribe

Kompetenz im Schweizer Treuhandbüro – und warum Artikel 4 der EU-KI-Verordnung auch für Sie relevant ist
18:15

Stellen Sie sich vor: Eine Mitarbeiterin tippt die Lohnliste eines Mandanten in einen KI-Assistenten, um «schnell eine Übersicht» zu erstellen. Ein Kollege lässt sich von ChatGPT eine steuerliche Einschätzung formulieren – und schickt sie ungeprüft an den Kunden. Ein Dritter nutzt ein Tool, von dem niemand weiss, wo die Daten landen. Was diese drei Szenarien verbindet? Was diese drei Szenarien verbindet? Sie passieren bereits heute – nicht überall, aber oft genug ausserhalb klarer Spielregeln.

Das folgende fiktive Beispiel «Treuhandbüro Alpina», das uns durch diesen Beitrag begleitet, steht stellvertretend für viele Schweizer KMU der Branche: 30 Mitarbeitende, solides Kerngeschäft, wachsender KI-Druck von aussen und innen. Die Geschäftsleitung sieht Produktivitätschancen, fürchtet aber den Preis: unkontrollierte Datenflüsse, fachliche Fehlgriffe, eine schleichende «Schatten-IT» und – am Ende – das reale Potenzial beschädigter Mandantenbeziehungen.

Es geht nicht um die «eine richtige» Toolwahl, sondern um die Frage, welche Kenntnisse, Fähigkeiten und Verhaltensroutinen Mitarbeitende brauchen, damit KI-Anwendungen im Treuhandalltag sicher, vertraulich, fachlich korrekt und nachvollziehbar eingesetzt werden.

Die Schweiz reguliert anders – aber nicht weniger

Ein Schweizer KI-Gesetz nach EU-Vorbild? Kommt vorerst nicht – und muss es auch nicht. Die Schweiz regelt das Thema auf ihre Weise. Der Bundesrat hat sich im Februar 2025 dafür ausgesprochen, die KI-Konvention des Europarats zu ratifizieren und notwendige Anpassungen im Schweizer Recht vorzunehmen, während die Regulierung in einzelnen Bereichen sektorbezogen weitergeführt wird. (News Service Bund)

Für Sie als Geschäftsleitung bedeutet das: Sie haben Spielraum, aber auch Verantwortung. Und Sie haben – ob Sie wollen oder nicht – mit der EU zu tun. Denn in der Praxis bestehen viele Schnittstellen zur EU – etwa über Mandantenbeziehungen, Gruppenstrukturen, Lieferketten, gemeinsame IT-Landschaften oder den Einsatz von Produkten und Diensten, die in der EU standardisiert werden. In solchen Konstellationen wird es strategisch sinnvoll, sich an EU-Leitlinien zu orientieren, ohne daraus vorschnell eine unmittelbare Schweizer Rechtsverbindlichkeit abzuleiten.

Gerade deshalb eignet sich Artikel 4 der EU-KI-Verordnung (KI-VO) als Leitplanke: Er beschreibt, welche Massnahmen Anbieter und Betreiber im EU-Kontext ergreifen sollen, um ein ausreichendes Niveau an KI-Kompetenz («AI Literacy») sicherzustellen.

Für ein Schweizer Treuhandbüro besteht hierfür keine unmittelbare rechtliche Verpflichtung, wohl aber eine sehr praxistaugliche Struktur, um «KI-Kompetenz» so zu definieren, dass sie im Alltag wirkt und sich gegenüber Mandanten als Qualitätsstandard erklären lässt.

Die Kernforderung nach Artikel 4 der KI-VO lautet: Organisationen sollen sicherstellen, dass Mitarbeitende – und Personen, die KI-Anwendungen in ihrem Auftrag bedienen – ein «ausreichendes Niveau an KI-Kompetenz» haben. Kein bestimmtes Kursformat wird vorgeschrieben, kein Zertifikat verlangt. Aber das Ziel ist klar: KI-Nutzer und -Nutzerinnen müssen wissen, wie sie mit den KI-Tools sicher und verlässlich umgehen.

Der Irrtum der Prompt-Schulung 

Viele Unternehmen verwechseln KI-Kompetenz mit «Prompt-Kunst». Sie schicken Mitarbeitende in Workshops, in denen sie lernen, wie man ChatGPT, Copilot, Gemini etc. die richtigen Fragen stellt. Das ist etwa so, als würde man Lernenden das Bedienen einer Buchhaltungssoftware beibringen – ohne je das Prinzip der doppelten Buchführung zu erklären.

Im Treuhandkontext ist KI-Kompetenz vor allem die Fähigkeit, KI-Anwendungen richtig einzuordnen: als Hilfsmittel für Entwürfe, Strukturierung und Effizienz – nicht als Quelle letzter Wahrheit. Das klingt banal, ist es aber nicht. Denn generative KI hat eine perfide Eigenschaft: Sie klingt überzeugend, auch wenn sie falsch liegt. Sie produziert «Wahrscheinlichkeitstexte», keine geprüften Tatsachen. Und im Treuhandgeschäft werden Fehler schnell «hart»: falsche Zahlen, falsche Fristen, falsche Aussagen, falsche Erwartungen beim Mandanten. 

Sechs Kompetenzfelder, die den Unterschied machen 

Was müssen Ihre Mitarbeitenden also wirklich können? Ein fundiertes Kompetenzmodell umfasst sechs Dimensionen, die zusammen das «ausreichende Niveau» ergeben, von dem Artikel 4 der KI-VO spricht. (EU-Kommission: KI-Kompetenz - Fragen und Antworten)

Erstens: Funktionsverständnis und Grenzen

Mitarbeitende müssen wissen, warum generative KI überzeugend klingen kann, obwohl Inhalte falsch sind. Sie müssen typische Fehlerbilder erkennen: Halluzinationen, übertriebene Sicherheit im Ton, fehlende Quellen, stille Annahmen, Kontextverlust. Wer das verinnerlicht, behandelt KI-Output automatisch als Entwurf, der fachlich zu prüfen ist. Dieses Grundverständnis ist keine Eintagsschulung, sondern muss zur Haltung werden.

Zweitens: Informationsdisziplin

Im Treuhandalltag ist Datenkompetenz nicht theoretisch, sondern situativ. Ihre Mitarbeitenden müssen in Sekunden entscheiden können: Was ist mandantenspezifisch? Was ist personenbezogen? Was darf ich in welches System eingeben? Der wichtigste Skill ist hier nicht «mehr Informationen geben», sondern gezielt abstrahieren: aus einem konkreten Mandantenfall ein neutrales Muster machen, das die KI bearbeiten darf, ohne sensible Details preiszugeben.

Namen, Kontonummern, AHV-Bezüge, Lohnlisten – all das wird nicht «mal schnell» in irgendeinen Chat kopiert, nur weil es praktisch erscheint. Vertraulichkeit ist kein Hindernis für Effizienz, sondern ihr Qualitätsmerkmal.

Drittens: Fachliche Kontrolle

KI kann Formulierungen glätten und Strukturen liefern, aber sie garantiert weder Richtigkeit noch Vollständigkeit. Mitarbeitende brauchen Prüfgewohnheiten: Zahlen gegen Systemreports abgleichen, Fristen und Begriffe anhand verlässlicher Quellen verifizieren, Aussagen als Hypothesen markieren, solange sie nicht belegt sind.

Der Mandant bekommt nicht «einen Text», sondern eine Leistung mit Vertrauensvorschuss. Das letzte Wort hat immer der Mensch – und er muss es auch tatsächlich sprechen.

Viertens: Security-Awareness

KI-Nutzung erweitert die Angriffsfläche. Dokumente können versteckte Instruktionen enthalten, Links täuschen, der Drang zum «schnellen Kopieren» erzeugt Datenabflussrisiken. Ihre Mitarbeitenden müssen typische Muster erkennen: wenn ein Inhalt ungewöhnlich drängt, wenn ein Tool nach unnötig vielen Daten fragt, wenn ein Output «zu glatt» wirkt.

Das ist klassische Sicherheitskultur – angewandt auf neue Workflows. Wer bei E-Mail-Phishing geschult ist, braucht jetzt das Äquivalent für KI-gestützte Angriffe.

Fünftens: Verantwortungsbewusstsein

Treuhandarbeit ist verantwortungsgetrieben. Mitarbeitende müssen wissen, wo KI sinnvoll ist – und wo sie unzulässig oder unprofessionell wäre. Wer trägt die Verantwortung für den Output? Wer gibt frei? Wie wird Nachvollziehbarkeit sichergestellt?

KI-Kompetenz umfasst immer auch Prozesskompetenz. Denn am Ende unterschreibt kein Algorithmus – sondern Sie.

Sechstens: Kommunikationskompetenz

Mandantenkommunikation ist reputationssensibel. KI-Entwürfe neigen zu absolut klingenden Aussagen und übersehen oft Nuancen. Mitarbeitende müssen KI-Texte so bearbeiten, dass sie zur Sprache des Hauses passen und keine falschen Sicherheiten erzeugen. Ein Satz, der intern als Entwurf gedacht war, kann beim Mandanten als verbindliche Zusage ankommen.

Eine Schulung für alle? Vergessen Sie es

Bei Alpina wurde schnell klar: Das Giesskannenprinzip funktioniert nicht. «Eine Schulung für alle» vermittelt höchstens Grundlagen – aber keine belastbare Routine im Alltag. Denn die KI-Nutzung unterscheidet sich je nach Rolle erheblich.

Die Assistenz nutzt KI vor allem für Kommunikation und interne Texte. Buchhaltung und Lohnadministration arbeiten mit strukturierten Informationen, Zahlenlogik, Prozessfragen. Seniors und Partner brauchen KI-Kompetenz für fachliche Einordnung, Freigaben und die mandantenseitige Aussenwirkung.

Artikel 4 der KI-VO spricht ausdrücklich auch von «anderen Personen», die KI im Auftrag nutzen – also externen Mitarbeitenden, temporärer Unterstützung, Dienstleistern. Das verstärkt den Handlungsdruck: Kompetenz muss rollenbezogen gedacht werden, damit Verantwortlichkeiten nicht verwischen. Der entscheidende Punkt ist nicht, dass jede Rolle «mehr lernt», sondern dass jede Rolle das Richtige lernt: die typischen Fehler und Risiken ihres Anwendungsfelds – plus die gemeinsamen Grundregeln, die für alle gelten.

Vom Wildwuchs zur Toolstrategie 

Schatten-IT entsteht dort, wo Mitarbeitende produktiv sein wollen, aber keine sicheren Optionen kennen. Alpina führte deshalb eine einfache, gut kommunizierte Tool-Einordnung ein: freigegebene Tools für definierte Zwecke, eingeschränkt nutzbare Tools nur mit abstrahierten Informationen, und klare Tabus für alles, was Mandantenbezug und sensible Daten betrifft.

Das ist mehr als IT-Policy – es ist Kompetenzunterstützung. Mitarbeitende müssen weniger raten, handeln sicherer und entwickeln schneller Routine. Gleichzeitig lässt sich die Logik gegenüber Mandanten erklären: «Wir erlauben KI – aber kontrolliert, mit klaren Grenzen und Qualitätsroutinen.»

FINMA denkt vor – und Sie sollten mithören 

Ein Blick auf die FINMA-Guidance zu Governance und Risikomanagement beim KI-Einsatz lohnt sich als Orientierung – auch wenn Treuhandbüros nicht der FINMA-Aufsicht unterstehen und sich daraus keine unmittelbaren Pflichten ableiten. Die dahinterstehende Logik wirkt in die Breite: KI soll nicht «wild» eingesetzt werden, sondern in klare Verantwortlichkeiten, Risiken, Kontrollen und dokumentierte Prozesse eingebettet sein. Für Alpina heisst das: KI-Kompetenz ist nicht nur ein Schulungsthema, sondern Bestandteil der Qualitätsorganisation. 

Risiken erkennen, bevor sie eskalieren

Nicht jede KI-Nutzung ist gleich kritisch. Manche Verwendungen sind harmlos – etwa eine interne Formulierungshilfe ohne Datenbezug. Andere sind risikointensiv: Empfehlungen mit Rechts- oder Fristenbezug, automatisierte Mandantenantworten, Bearbeitung grösserer Datenbestände. Kompetent ist, wer diese Unterschiede erkennt und frühzeitig eskaliert, statt «einfach mal zu testen».

Einige Kompetenzfelder sind im Treuhandumfeld besonders wirksam:

  • Abstraktion statt Datenkopie – die zentrale Alltagsfähigkeit lautet «so wenig wie möglich, so viel wie nötig». Mitarbeitende üben, Fälle in neutrale Muster zu übersetzen.
  • Quellen- und Rechtsbezug als Routine – gerade bei steuer- oder abgabenbezogenen Themen darf KI nicht zur «Sekundärquelle» werden. Kompetent ist, wer KI-Output als Strukturhilfe nutzt, aber die Substanz über verlässliche Quellen absichert.
  • Zahlenlogik und Kontrollschleifen – KI-unterstützte Plausibilisierung kann helfen, aber sie ersetzt keine Kontrollmechanismen. Kontrollsummen, Gegenchecks, Systemabgleiche – und ein Gespür dafür, wann ein Ergebnis sprachlich gut klingt, aber rechnerisch unsinnig ist. 

Vier Prinzipien für ein Schulungskonzept, das wirkt

Auch ohne eine detaillierte Schulungsarchitektur festzuschreiben, braucht Ihr Unternehmen ein Konzept, das Kompetenz systematisch aufbaut. Wirksam sind Konzepte, die vier Prinzipien verbinden:

  • Eine gemeinsame «Baseline» sorgt dafür, dass alle Mitarbeitenden die Kernrisiken verstehen – Halluzinationen, Vertraulichkeit, Qualitätsprüfung, Toolregeln.
  • Rollenbezogene Vertiefung adressiert die typischen Use-Cases und Fehlerbilder je Team konkret.
  • Arbeitsplatznahe Verankerung bedeutet, dass Leitlinien, Checkfragen, Vorlagen und Freigaberegeln dort verfügbar sind, wo gearbeitet wird – nicht nur im Intranet-Ordner.
  • Und kontinuierliche Aktualisierung stellt sicher, dass Kompetenz in kurzen Zyklen aufgefrischt wird, damit «Awareness» nicht nach drei Monaten wieder Theorie ist.

Artikel 4 der KI-VO ist auch hier als Leitplanke hilfreich, weil er «Massnahmen» und «ausreichendes Niveau» in den Mittelpunkt stellt – nicht ein bestimmtes Kursformat. Wählen Sie ein Konzept, das zu Grösse und Kultur Ihres Unternehmens passt, ohne sich in Formalismen zu verlieren.

Wer greift ein, wenn der Output nicht stimmt?

Kompetenz wird erst dann organisationstauglich, wenn Verantwortlichkeiten klar sind. Alpina etablierte daher minimale, aber eindeutige Rollen: Eine fachliche Verantwortung – etwa ein Partner als «KI-Owner». Eine koordinierende Rolle für Regeln und Toolfreigaben – etwa Datenschutz, ISMS oder IT als «KI-Steward». Und Verantwortliche in den Teams, die Routinefragen, Freigaben und Eskalationen steuern.

Das Ziel ist keine Bürokratie, sondern Klarheit: Wer entscheidet über neue Use-Cases? Wer sperrt ein Tool bei Problemen? Wer sammelt Lernfälle?

Das ist genau die Art Organisationsfähigkeit, die Artikel 4 der KI-VO indirekt voraussetzt: Wenn «ausreichende KI-Kompetenz» sichergestellt werden soll, muss jemand dafür zuständig sein.

Fehlerkultur: Der Mut zum «Das stimmt nicht»

Ein Treuhandbüro gewinnt nichts, wenn KI-Fehler versteckt werden. Zur Awareness gehört deshalb eine Kultur, in der Unsicherheiten und Pannen früh gemeldet werden können:

  • «Ich bin mir nicht sicher, ob dieser Output stimmt»
  • «Ich habe zu viele Details eingegeben»
  • «Das Tool hat etwas Komisches gemacht»

Das ist kein Schwächesignal, sondern Professionalität. In sensiblen Dienstleistungen ist es besser, intern zu lernen als extern erklären zu müssen.

Nachweisbarkeit ohne Papierstapel

Wie macht Alpina KI-Kompetenz gegenüber Mandanten oder im Rahmen interner Qualitätssicherung plausibel – ohne einen Papierberg zu produzieren? In der Praxis reicht oft ein schlankes Set: klare Nutzungsregeln, Tool-Freigabeliste, Rollenlogik, dokumentierte Verantwortlichkeiten und ein einfacher Nachweis, dass die «Baseline» verstanden wurde und Aktualisierungen erfolgen. Das ergibt ein stimmiges Bild: KI-Nutzung ist erlaubt, aber gesteuert; produktiv, aber verantwortungsvoll; modern, aber treuhandtypisch sorgfältig.

Das Fazit: Weniger komplex als gedacht – aber anspruchsvoller als gehofft

KI-Kompetenz im Treuhandbüro ist kein Technikkurs, sondern Bestandteil professioneller Leistungserbringung. Der Schweizer Regulierungsweg über Konvention und sektorielle Anpassungen passt zur Prinzipienorientierung des Landes. Die EU setzt mit Artikel 4 der KI-VO zugleich ein klares Signal, dass Organisationen Kompetenz systematisch sicherstellen sollen.

Wer in der Schweiz heute Kompetenz und Awareness sauber aufbaut, reduziert Risiken und stärkt Vertrauen – insbesondere dort, wo EU-Bezug oder erhöhte Mandantenerwartungen bestehen. Das fiktive Alpina-Beispiel zeigt: Es braucht keine Revolution, aber einen klaren Willen. Was heute als KI-Kompetenz gilt, ist morgen Grundvoraussetzung. 

Häufig gestellte Frage (FAQ) zum Thema KI-Kompetenz für Treuhandbüros

Gilt Artikel 4 der EU-KI-Verordnung auch für uns als Schweizer Treuhandbüro?

Nein – in der Schweiz ist Artikel 4 der EU-KI-VO nicht unmittelbar anwendbar. Er kann jedoch mittelbar relevant werden, wenn ein EU-Bezug besteht (z. B. EU-Mandanten, Gruppenstrukturen oder EU-standardisierte Systeme). Davon abgesehen taugt Artikel 4 als Orientierungsrahmen: Er beschreibt konkret, was «ausreichende KI-Kompetenz» heisst – und liefert damit eine Struktur, die sich auch ohne rechtliche Verpflichtung sinnvoll anwenden lässt.

Dürfen unsere Mitarbeitenden ChatGPT und ähnliche Tools überhaupt nutzen?

Ja, und das sollten sie auch dürfen – alles andere wäre realitätsfern. Die Frage ist nicht, ob KI genutzt wird, sondern unter welchen Bedingungen. Ohne klare Spielregeln entsteht «Schatten-IT»: Mitarbeitende improvisieren, oft mit sensiblen Daten. Eine transparente Toolstrategie schafft Abhilfe: freigegebene Tools für definierte Zwecke, eingeschränkt nutzbare Tools nur mit abstrahierten Informationen, und klare Tabus dort, wo Mandantendaten im Spiel sind.

Wie erkennen unsere Mitarbeitenden, ob ein KI-Output falsch ist?

Generative KI klingt oft überzeugend, auch wenn sie falsch liegt – das ist ihre perfide Eigenschaft. Mitarbeitende müssen typische Fehlerbilder kennen: Halluzinationen, fehlende Quellen, übertriebene Sicherheit im Ton, stille Annahmen. Die wichtigste Regel: Jeder KI-Output ist ein Entwurf, der fachlich geprüft werden muss – niemals eine fertige Antwort.

Reicht eine einmalige KI-Schulung für das ganze Team?

Nein, das Giesskannenprinzip funktioniert nicht. Die Assistenz nutzt KI anders als die Buchhaltung, und Partner haben andere Risiken als Sachbearbeiter. Wirksam ist ein Konzept mit gemeinsamer Baseline für alle plus rollenbezogener Vertiefung – und regelmässiger Auffrischung, damit das Wissen nicht nach drei Monaten veraltet ist.

Wie können wir KI nutzen, ohne Mandantendaten zu gefährden?

Der Schlüssel heisst Abstraktion: aus einem konkreten Mandantenfall ein neutrales Muster machen, das die KI bearbeiten darf, ohne sensible Details preiszugeben. Namen, Kontonummern, AHV-Bezüge, Lohnlisten – all das gehört nicht in einen KI-Chat. Diese Informationsdisziplin muss zur Gewohnheit werden, nicht zur Ausnahme.

Wer sollte bei uns für das Thema KI-Kompetenz verantwortlich sein?

Ohne klare Zuständigkeit bleibt KI-Kompetenz ein Lippenbekenntnis. Bewährt hat sich ein schlankes Modell: ein Partner als «KI-Owner» für die fachliche Verantwortung, eine koordinierende Rolle (etwa IT oder Datenschutz) als «KI-Steward» für Regeln und Toolfreigaben, und Ansprechpersonen in den Teams für Routinefragen und Eskalationen. 

Similar posts

Get notified on new marketing insights

Be the first to know about new B2B SaaS Marketing insights to build or refine your marketing function with the tools and knowledge of today’s industry.