KI späht Daten aus: Schützen Sie sich und Ihre Daten mit der Checkliste „KI & Datenschutz“

KI steckt inzwischen in vielen Programmen. Das macht die Technologie praktisch, aber auch riskant: Denn wo Daten fließen, stellt sich automatisch die Frage nach dem Datenschutz. Welche KI am meisten Daten abgreift und wie Sie sich schützen. Sichern Sie sich mit unserer Checkliste "KI & Datenschutz" ab:
KI Datenschutz 7 Tipps

Welche KI schnüffelt, welche nicht, und wie schützen Sie Ihre Daten?

Eine neue Analyse des Datenschutzunternehmens Incogni hat die großen Sprachmodelle unter die Lupe genommen. Sie untersuchten neun bekannte KI-Tools auf ihren Umgang mit Nutzerdaten und erstellten daraus ein Datenschutz-Ranking. Für Mitarbeitende, die KI im Arbeitsalltag nutzen möchten, ist dieses Ergebnis besonders interessant.

Warum ist Datenschutz bei KI so wichtig?

Wenn Sie ein KI-Tool wie ChatGPT oder Gemini nutzen, geben Sie in der Regel Text ein – Fragen, Ideen, manchmal sogar sensible Geschäftsinformationen. Diese Daten könnten:
– gespeichert werden,
– für das Training neuer KI-Versionen genutzt werden,
– oder sogar an Dritte weitergegeben werden.

Ob und wie das passiert, hängt stark vom Anbieter ab. Manche Firmen legen offen, wie sie Daten verwenden, und geben Ihnen Wahlmöglichkeiten. Andere sind weniger transparent – hier laufen Sie Gefahr, dass Informationen länger gespeichert oder breiter genutzt werden, als Ihnen lieb ist.

Für alle, die mit Kundendaten, internen Projekten oder vertraulichen Dokumenten arbeiten, ist dieses Thema entscheidend. Ein falscher Klick oder eine unbedachte Eingabe in ein KI-Tool kann sonst zum Datenschutzproblem werden.

Die untersuchten KI-Modelle

Im Ranking von Incogni standen neun der bekanntesten LLMs:

  • ChatGPT (OpenAI)
  • Gemini (Google)
  • Copilot (Microsoft)
  • Meta AI (Meta/Facebook)
  • Grok (xAI, Elon Musk)
  • Le Chat (Mistral AI)
  • DeepSeek (China)
  • Claude (Anthropic)
  • Pi (Inflection AI)


Diese Anbieter wurden anhand von 11 Kriterien bewertet. Die Kriterien gliedern sich in drei Hauptkategorien:

  1. Datenerhebung fürs Training – Welche Daten werden gesammelt, um die KI zu verbessern?

  2. Transparenz – Erfahren die Nutzenden klar, was mit ihren Daten passiert?

  3. Datenverwendung & -weitergabe – Was passiert mit den Informationen, nachdem sie erhoben wurden?

Die Gewinner: Le Chat, ChatGPT und Grok

Überraschenderweise landet nicht ChatGPT, sondern Le Chat von Mistral AI auf Platz eins. Dieses Modell erhebt vergleichsweise wenige Daten und gilt insgesamt als sehr datensparsam – sowohl beim Training als auch bei der laufenden Nutzung.

Auf Platz zwei: ChatGPT (OpenAI). Viele hätten vielleicht erwartet, dass OpenAI mehr sammelt. Doch Incogni hebt die Transparenz hervor:
– Nutzer können einstellen, ob ihre Chats für Trainingszwecke genutzt werden dürfen.
– Wer den Chat-Verlauf deaktiviert, verhindert die Speicherung.

Das ist nicht selbstverständlich und verschafft ChatGPT eine gute Position im Ranking.

Platz drei belegt Grok (xAI). Auch hier überzeugt die klare Kommunikation beim Datenschutz.

ChatGPT 4.1 neue Prompting Regeln

Die Verlierer: Gemini, Copilot und Meta AI

Weniger erfreulich ist das Bild bei den großen Tech-Konzernen:

  • Meta AI landet auf dem letzten Platz. Laut Incogni sammelt Meta sehr viele Daten, ohne klare Opt-out-Möglichkeiten zu bieten. Wer Meta AI nutzt, kann also nicht verhindern, dass seine Eingaben gespeichert und weiterverarbeitet werden.
  • DeepSeek (China) liegt noch knapp davor – auch hier fehlen Schutzmechanismen.
  • Google Gemini und
  • Microsoft Copilot landen ebenfalls weit hinten. Hauptgrund: Beide ziehen Nutzereingaben ins Training ein, ohne proaktiv über die Details zu informieren. Nutzende erfahren also nicht klar, welche Daten wie lange gespeichert und genutzt werden.

Für Mitarbeitende, die KI im Büro nutzen, heißt das: Diese Tools sollten nur mit absolut unverfänglichen Daten genutzt werden  – besser noch gar nicht für vertrauliche Inhalte.

Sonderfälle: Claude und Copilot

Interessant ist die Position von Claude (Anthropic): Laut Incogni wurden hier noch nie Nutzerdaten fürs Training verwendet. Das klingt positiv, macht Claude aber nicht automatisch zu einem Musterschüler. Entscheidend bleibt, wie transparent der Anbieter seine Richtlinien macht.

Bei Microsoft Copilot gibt es immerhin eine Opt-out-Möglichkeit – Nutzende können also die Verwendung ihrer Daten fürs Training deaktivieren. Trotzdem schneidet Copilot insgesamt schwach ab, weil Transparenz und klare Kommunikation fehlen. Diese Aussage gilt für Standard-Nutzer. Nutzer in Unternehmen, die eine Enterprise-Lizenz oder andere besitzen, haben Datenschutzvereinbarungen mit Microsoft getroffen.

KI Software Microsoft Copilot Desktop Computer

Checkliste: 7 Ansätze, wie Sie sich gegen „schnüffelnde“ KI absichern

Datenschutz ist kein Selbstläufer – auch nicht bei KI. Doch mit ein paar einfachen Maßnahmen können Sie im Büroalltag viel dafür tun, dass Ihre Informationen geschützt bleiben.

1. Nur unverfängliche Daten eingeben

Behandeln Sie KI wie ein offenes Ohr im Internet. Schreiben Sie nichts hinein, und laden keine Dokumente hoch, was vertraulich, personenbezogen oder geschäftskritisch ist. Dazu gehören:

  • Kundendaten
  • Namen (Firmen und Personen)
  • interne Strategien
  • Vertragsinhalte
  • Finanzzahlen (Unternehmen und persönliche Zahlen)
  • personenbezogene Dokumente
  • gesundheitliche Details
  • individueller Code (außer in geschützten Programmierumgebungen)
  • uvm.

KI-Datenschutz

KI rechtssicher einsetzen

Unsere KI-Beratung und KI-Schulungen für Mitarbeitende sorgt für eine sichere, datenschutzkonforme Nutzung von KI-Software. Fragen Sie jetzt unsere kostenlose Kurzberatung an.

KI-Beratung anfragenÜbersicht KI-Schulungen

2. Datenschutzeinstellungen aktiv nutzen

Prüfen Sie in jedem Tool die Optionen. Bei ChatGPT können Sie zum Beispiel

  • den Chat-Verlauf deaktivieren,
  • die Daten nicht teilen (deaktivieren Sie „Das Modell für alle verbessern“; entfernbar nur mit Bezahlabo),
  • temporäre Chats nutzen
  • die Funktion „Erinnerung“ deaktivieren
  • in der mobilen App die „Hintergrund-Aktivitäten“ deaktivieren.

Bei anderen Anbietern wie Perplexity, Microsoft Copilot etc. gibt es ebenso Opt-out-Möglichkeiten fürs Training. Bei Google Gemini kann man die „Aktivitäten in Apps“ ausstellen.

Tipp: Machen Sie es zur Routine, diese Einstellungen gleich nach Kontoerstellung zu prüfen.

3. Anonymizer nutzen oder gekürzte Eingaben machen

Wenn Sie KI zur Textbearbeitung oder Ideenfindung nutzen wollen, formulieren Sie Eingaben so, dass keine Rückschlüsse auf Ihr Unternehmen, Kundschaft oder Projekte möglich sind. Statt „Angebot für Firma Müller“ schreiben Sie lieber „Beispielangebot für einen mittelständischen Kunden“.
Wollen Sie Dokumente wie PDFs oder Excellisten in die KI-Software hochladen, machen Sie Daten mit einem „Anonymizer“ unkenntlich. Es gibt mehrere Anbieter solcher Anonymisierungs-Software, die automatische erkennt, welche Stellen im Dokument geschwärzt werden sollen, bevor Sie diese in einen KI-Bot hochladen.

4. Interne Richtlinien beachten

Viele Unternehmen haben inzwischen eigene KI-Guidelines. Halten Sie sich daran – sie sind meist auf die geltenden Datenschutzgesetze und Unternehmensanforderungen zugeschnitten. Wenn es noch keine gibt: Sprechen Sie das Thema bei Ihrer IT- oder Compliance-Abteilung an.

5. Sichere Alternativen nutzen

Manche KI-Anbieter bieten Business- oder Enterprise-Versionen mit erhöhtem Datenschutz an, z.B. Microsoft und OpenAI. Diese speichern Eingaben nicht oder trennen sie strikt von Trainingsdaten. Wenn Ihr Unternehmen regelmäßig mit sensiblen Informationen arbeitet, kann sich ein solcher Tarif lohnen.
Eine weitere Alternative sind Anbieter, die keine Daten sammeln, wie beispielsweise Duck.ai, ein Dienst des Browsers DuckDuckGo, der höchste Datenschutzstandards bietet, in dem er keine Daten sammelt. 

6. Misstrauisch bei unklarer Transparenz

Wenn ein Anbieter nicht klar erklärt, was mit Ihren Daten passiert, sollten Sie besonders vorsichtig sein. Lieber auf ein anderes Tool ausweichen, das nachvollziehbare Datenschutzinformationen liefert.

7. Regelmäßige Schulung & Awareness

KI entwickelt sich schnell weiter – und damit auch die Risiken. KI-Schulungen helfen, das Team auf dem neuesten Stand zu halten und Fehlverhalten zu vermeiden.

Unser Fazit zu KI & Datenschutz

Die Ergebnisse zeigen: Datenschutz bei KI ist 2025 noch kein Standard. Selbst große Anbieter liefern lückenhafte oder schwer verständliche Informationen. Die Incogni-Studie macht deutlich: Zwischen den KI-Anbietern gibt es große Unterschiede im Datenschutz. Während Le Chat, ChatGPT und Grok relativ datensparsam arbeiten, schnüffeln Gemini, Copilot und Meta AI deutlich stärker.

Das birgt Risiken – gerade im Arbeitskontext. Wichtige Punkte für die Praxis:

Sensibilität prüfen: Geben Sie nur Informationen in KI-Tools ein, die auch öffentlich sein dürften. Vertrauliche Kundendaten oder interne Strategien gehören nicht in ein unsicheres LLM.

Einstellungen nutzen: Bei Tools wie ChatGPT lohnt es sich, die Datenschutzeinstellungen aktiv zu prüfen. Wer den Chat-Verlauf deaktiviert, verhindert die Speicherung seiner Inhalte.

Transparenz einfordern: Achten Sie bei der Tool-Auswahl darauf, wie offen der Anbieter über seine Datennutzung informiert. Fehlende Klarheit sollte ein Warnsignal sein.

Kein Blindvertrauen: Auch wenn ein Tool im Ranking gut abschneidet, heißt das nicht, dass es gar keine Daten sammelt. „Datensparsam“ bedeutet nicht „datenfrei“.

 

Mit diesen einfachen Schritten können Sie für Ihre Arbeit die Vorteile von KI nutzen, ohne unnötig Daten preiszugeben.