Blog

«Schweizer KI» – was steckt wirklich dahinter?

Geschrieben von Alex Schenk | Apr 1, 2026 12:50:39 PM

Die NZZ am Sonntag hat Ende Februar aufgedeckt, dass Euria – der Chatbot der Genfer Cloud-Firma Infomaniak, vermarktet als «ethische» Schweizer KI-Alternative – auf einem chinesischen Basismodell basiert und in der Folge chinesische Regierungspositionen übernimmt: zu Taiwan, zu den Uiguren, zum Tiananmen-Massaker.

Die NZZ hat den Fall untersucht. Wir stellen uns eine andere Frage: Was bedeutet das für euch als KMU oder Treuhänder – und wie trefft ihr künftig bessere Entscheidungen bei der Auswahl von KI-Tools?

Das eigentliche Problem ist nicht Euria

Euria ist ein konkreter Fall. Aber das Muster dahinter ist weit verbreitet: Viele KI-Produkte, die als «europäisch», «sicher» oder «datenschutzkonform» vermarktet werden, setzen auf zugekaufte Basismodelle von Drittanbietern – aus den USA, aus China oder anderswo. Die Oberfläche ist lokal, der Kern nicht.

Das muss nicht zwingend ein Problem sein. Aber ihr solltet es wissen. Denn je nachdem, wofür ihr ein Tool einsetzt, kann die Herkunft des Modells sehr relevant sein.

Drei Ebenen, die ihr unterscheiden solltet 

Wenn ihr ein KI-Tool bewertet, lohnt es sich, drei Dinge getrennt zu betrachten:

  • Wo läuft das Tool? Also: Wo stehen die Server, wer betreibt die Infrastruktur? Das betrifft vor allem den Datenschutz. Server in der Schweiz oder der EU sind ein gutes Zeichen – aber allein nicht ausreichend.
  • Auf welchem Modell basiert es? Das ist die Frage, die im Fall Euria entscheidend war. Viele Anbieter entwickeln kein eigenes KI-Modell, sondern bauen auf bestehenden Modellen auf (z.B. von OpenAI, Meta, Alibaba oder Mistral). Die Qualität, die Weltanschauung und die Zensurlogik des Basismodells bleiben dabei erhalten.
  • Wie werden meine Daten genutzt? Werden Eingaben für das Training des Modells verwendet? Gibt es einen Auftragsbearbeitungsvertrag? Wer hat im Ernstfall Zugriff? Das sind keine theoretischen Fragen – gerade für Treuhänder, die täglich mit Mandantendaten arbeiten.

Was ihr konkret tun könnt

Ihr müsst kein Tech-Experte sein, um diese Punkte zu klären. Hier ein pragmatischer Ansatz:

  • Fragt beim Anbieter nach – und zwar schriftlich: «Auf welchem Grundmodell basiert euer Produkt?» und «Gibt es einen AVV?» Seriöse Anbieter beantworten das ohne Umschweife.
  • Lest die Datenschutzbestimmungen – oder lasst sie von jemandem lesen, dem ihr vertraut. Der entscheidende Satz lautet oft: «Wir können eure Eingaben zur Verbesserung unserer Modelle nutzen.» Das bedeutet: eure Daten gehen ins Training.

Kategorisiert eure Anwendungsfälle. Nicht jede Nutzung ist gleich riskant. Ein einfacher Unterschied:

Aufgabe

Risiko

Empfehlung

Textentwürfe, allgemeine Recherche

Tief

Beliebiges Tool nutzbar

Interne Berichte, Protokolle

Mittel

Auftragsbearbeitungsvertrag prüfen, keine Kundendaten

Lohndaten, Bilanzen, Steuerdaten

Hoch

Nur geprüftes Tool – mit einem Auftragsbearbeitungsvertrag, der auch wirklich hält

 

 

Welche Alternativen gibt es?

Es gibt keine universelle Antwort – aber einige Orientierungspunkte:

  • Microsoft Copilot (M365): Weit verbreitet, gut in Office-Umgebungen integriert. Mit Enterprise-Vertrag und entsprechenden Datenschutzeinstellungen für viele KMU geeignet.
  • Mistral (Frankreich): Europäisches Open-Source-Modell, in der Regel datenschutzfreundlicher als US-Alternativen.
  • Apertus (Schweiz): Das Schweizer Sprachmodell befindet sich noch im Aufbau, verfolgt aber explizit einen Ansatz mit europäischen Datenschutzstandards.
  • Lokale Modelle: Wer die IT-Infrastruktur hat, kann Modelle vollständig lokal betreiben – kein Datentransfer nach aussen, maximale Kontrolle.

Keins dieser Tools ist in jeder Situation das Beste. Die Frage ist immer: Wofür brauche ich es, und welches Schutzniveau ist dabei nötig?

Eine Faustregel für den Alltag

Bevor ihr etwas in einen Chatbot eingebt, stellt euch diese Frage:

«Würde ich diese Information einem Unbekannten zeigen?»

Wenn ja: kein Problem. Wenn nein: entweder anonymisieren oder ein Tool mit vertraglich gesichertem Datenschutz nutzen.

Das klingt simpel – ist aber erstaunlich wirkungsvoll. Denn die meisten Datenschutzprobleme entstehen nicht durch Böswilligkeit, sondern durch Bequemlichkeit und fehlende Sensibilisierung im Alltag.

Fazit: Das Label zählt weniger als der Inhalt

Der NZZ-Artikel über Euria ist ein gutes Beispiel dafür, dass Marketingversprechen und technische Realität auseinanderklaffen können. Das Schweizer Kreuz auf einem Produkt sagt wenig darüber aus, was unter der Haube steckt.

Für euch als KMU oder Treuhänder bedeutet das: Vertraut nicht blind dem Label – stellt die richtigen Fragen, bevor ihr ein Tool produktiv einsetzt.

Euer Mandantenvertrauen ist ein Kapital, das sich über Jahre aufbaut. Es lohnt sich, es sorgfältig zu schützen.

Habt ihr Fragen zur datenschutzkonformen Nutzung von KI-Tools in eurem Betrieb? Wir beraten euch gerne.