Künstliche Intelligenz (KI) ist längst keine Zukunftsvision mehr – sie ist Realität. Ob bei der Texterstellung, Datenanalyse oder Kundenkommunikation: In vielen Unternehmen wird KI heute täglich genutzt. Häufig geschieht das unbemerkt oder ohne klare Vorgaben – und genau das macht die Technologie zu einem der grössten rechtlichen und sicherheitsrelevanten Risiken der Gegenwart.
Untersuchungen und unsere Erfahrung aus der Praxis zeigen: Ein erheblicher Teil der Mitarbeitenden verwendet Tools wie ChatGPT, Copilot oder Gemini längst eigenständig im Arbeitsalltag – teilweise auch ohne Wissen oder Erlaubnis des Arbeitgebers.
Was dabei oft vergessen geht: Viele dieser Systeme speichern Nutzereingaben in der Cloud, analysieren sie weiter oder verwenden sie zur Verbesserung der eigenen Modelle. Werden dabei vertrauliche Informationen, interne Dokumente oder Kundendaten verarbeitet, gelangen sie möglicherweise in die Hände Dritter – unwiderruflich.
Dass dies kein theoretisches Risiko ist, zeigen reale Fälle:
- Samsung musste 2023 eingestehen, dass seine Programmierer und Ingenieure versehentlich vertraulichen Quellcode in ein öffentliches KI-Tool eingegeben hatten.
- Deloitte musste der australischen Bundesregierung eine Teilerstattung zahlen, nachdem ein im Juli 2025 veröffentlichtes Berichtswerk über A$ 440 000, teils mithilfe von Generativer KI erstellt, gefälschte Zitate und nicht existierende akademische Quellen enthielt.
Diese Beispiele verdeutlichen: Wo Künstliche Intelligenz unkontrolliert genutzt wird, drohen gravierende Datenschutz- und Reputationsschäden.
Das Problem: Fehlende interne Regeln
Viele Unternehmen stehen derzeit vor demselben Dilemma: Mitarbeitende nutzen KI, weil sie Effizienz verspricht – aber es fehlen klare Vorgaben, was erlaubt ist und was nicht. Dadurch entstehen Risiken auf mehreren Ebenen:
- Datenschutz: Geschäftsgeheimnisse und personenbezogene Daten gelangen in fremde Cloud-Systeme.
- Urheberrecht: Automatisch generierte Inhalte werfen Fragen nach geistigem Eigentum und Haftung auf.
- Compliance: Ohne interne Richtlinien ist kaum nachvollziehbar, wer wann welche KI-Dienste genutzt und welche Daten übermittelt hat.
- Reputationsschutz: Ungeklärte Nutzung kann zu Vertrauensverlust bei Kunden und Partnern führen.
Kurz gesagt: Wer heute keine Regeln aufstellt, verliert morgen die Kontrolle über seine Daten und macht sich angreifbar für Haftungs- und Schadenersatzforderungen.
Jetzt handeln – klare Vorgaben schützen Unternehmen
Die Einführung einer KI-Richtlinie oder eines KI-Reglements ist kein bürokratischer Selbstzweck, sondern ein elementarer Bestandteil moderner Unternehmenssicherheit.
Sie sollte insbesondere regeln:
- Zulässige Tools: Welche Anwendungen dürfen genutzt werden, welche sind verboten?
- Umgang mit vertraulichen Daten: Welche Informationen dürfen nicht in KI-Systeme eingegeben werden?
- Freigabeprozesse: Wer ist für die Prüfung und Zulassung neuer Tools verantwortlich?
- Schulungen und Sensibilisierung: Mitarbeitende müssen wissen, wo die Risiken liegen.
- Transparenz und Dokumentation: Nutzung und Entscheidungen, die auf KI basieren, müssen nachvollziehbar bleiben.
Ein klarer Rahmen schafft Sicherheit – sowohl für Mitarbeitende als auch für Arbeitgeber.
Fazit: Künstliche Intelligenz braucht Regeln, bevor sie zur Gefahr wird
Künstliche Intelligenz verändert die Arbeitswelt rasant und unumkehrbar. Sie eröffnet enorme Chancen – aber nur, wenn Unternehmen den Einsatz gezielt steuern.
Fehlende Vorgaben sind keine Freiheit, sondern ein Risiko. Jetzt ist der richtige Zeitpunkt, um verbindliche Richtlinien zu schaffen, die Innovation ermöglichen, ohne Datenschutz, Haftung oder Unternehmensgeheimnisse zu gefährden.
Unternehmen, die heute handeln, schützen morgen ihre Daten, ihre Reputation und ihre Wettbewerbsfähigkeit.
Hinweis: Dieser Artikel wurde mit Unterstützung ChatGPT 5 erstellt.
Der Autor lic. iur. Michel Rohrer ist ein ausgewiesener Spezialist für KI-Recht, Mail: michel.rohrer@doigitale-zukunft.org, www.ki-rechtsexperten.ch, 061 281 75 15.



