Die NZZ am Sonntag hat Ende Februar aufgedeckt, dass Euria – der Chatbot der Genfer Cloud-Firma Infomaniak, vermarktet als «ethische» Schweizer KI-Alternative – auf einem chinesischen Basismodell basiert und in der Folge chinesische Regierungspositionen übernimmt: zu Taiwan, zu den Uiguren, zum Tiananmen-Massaker.
Die NZZ hat den Fall untersucht. Wir stellen uns eine andere Frage: Was bedeutet das für euch als KMU oder Treuhänder – und wie trefft ihr künftig bessere Entscheidungen bei der Auswahl von KI-Tools?
Euria ist ein konkreter Fall. Aber das Muster dahinter ist weit verbreitet: Viele KI-Produkte, die als «europäisch», «sicher» oder «datenschutzkonform» vermarktet werden, setzen auf zugekaufte Basismodelle von Drittanbietern – aus den USA, aus China oder anderswo. Die Oberfläche ist lokal, der Kern nicht.
Das muss nicht zwingend ein Problem sein. Aber ihr solltet es wissen. Denn je nachdem, wofür ihr ein Tool einsetzt, kann die Herkunft des Modells sehr relevant sein.
Wenn ihr ein KI-Tool bewertet, lohnt es sich, drei Dinge getrennt zu betrachten:
Ihr müsst kein Tech-Experte sein, um diese Punkte zu klären. Hier ein pragmatischer Ansatz:
Kategorisiert eure Anwendungsfälle. Nicht jede Nutzung ist gleich riskant. Ein einfacher Unterschied:
|
Aufgabe |
Risiko |
Empfehlung |
|
Textentwürfe, allgemeine Recherche |
Tief |
Beliebiges Tool nutzbar |
|
Interne Berichte, Protokolle |
Mittel |
Auftragsbearbeitungsvertrag prüfen, keine Kundendaten |
|
Lohndaten, Bilanzen, Steuerdaten |
Hoch |
Nur geprüftes Tool – mit einem Auftragsbearbeitungsvertrag, der auch wirklich hält
|
Es gibt keine universelle Antwort – aber einige Orientierungspunkte:
Keins dieser Tools ist in jeder Situation das Beste. Die Frage ist immer: Wofür brauche ich es, und welches Schutzniveau ist dabei nötig?
Bevor ihr etwas in einen Chatbot eingebt, stellt euch diese Frage:
«Würde ich diese Information einem Unbekannten zeigen?»
Wenn ja: kein Problem. Wenn nein: entweder anonymisieren oder ein Tool mit vertraglich gesichertem Datenschutz nutzen.
Das klingt simpel – ist aber erstaunlich wirkungsvoll. Denn die meisten Datenschutzprobleme entstehen nicht durch Böswilligkeit, sondern durch Bequemlichkeit und fehlende Sensibilisierung im Alltag.
Der NZZ-Artikel über Euria ist ein gutes Beispiel dafür, dass Marketingversprechen und technische Realität auseinanderklaffen können. Das Schweizer Kreuz auf einem Produkt sagt wenig darüber aus, was unter der Haube steckt.
Für euch als KMU oder Treuhänder bedeutet das: Vertraut nicht blind dem Label – stellt die richtigen Fragen, bevor ihr ein Tool produktiv einsetzt.
Euer Mandantenvertrauen ist ein Kapital, das sich über Jahre aufbaut. Es lohnt sich, es sorgfältig zu schützen.
Habt ihr Fragen zur datenschutzkonformen Nutzung von KI-Tools in eurem Betrieb? Wir beraten euch gerne.