Drei Jahre nach dem Launch von ChatGPT hat sich generative Künstliche Intelligenz (KI) fest im Alltag vieler Menschen verankert. Laut der aktuellen TÜV-ChatGPT-Studie 2025 nutzen bereits 65 Prozent der Bundesbürgerinnen und -bürger generative KI-Tools – ein deutlicher Anstieg gegenüber 2023.

Die ChatGPT-Studie 2025 des TÜV-Verbands zeigt, wo Regulierung und Aufklärung jetzt ansetzen müssen. (Grafik: TÜV-Verband)
Besonders die jüngere Generation (91 Prozent der 16–29-Jährigen) setzt im Alltag regelmäßig auf Tools wie ChatGPT, Google Gemini oder DeepL. Die Ergebnisse der Studie zeigen: ChatGPT bleibt das meistgenutzte KI-Werkzeug, doch die Konkurrenz wie Google Gemini und Microsoft Copilot holt auf. Die beliebtesten Anwendungsfelder sind Informationsrecherche, Textgenerierung, kreative Ideenfindung und Übersetzungen.

Welche der folgenden KI-Modelle oder KI-Tools haben Sie bereits genutzt? (Grafik: TÜV-Verband)
Zugleich offenbart die Studie gravierende Sicherheitslücken im Umgang mit KI. Viele Nutzerinnen und Nutzer erkennen KI-generierte Inhalte nicht oder unterschätzen Gefahren durch Deepfakes, fehlerhafte Ergebnisse und Datenmissbrauch. So hat jede achte Person bereits persönliche Daten in KI-Systeme eingegeben. Und obwohl 50 Prozent der Befragten Sicherheitsbedenken äußern, fehlt in vielen Unternehmen eine klare Regelung für den KI-Einsatz. Der EU AI Act ist zudem nur 32 Prozent der Menschen bekannt.

Wie groß ist Ihr Vertrauen, dass die Ergebnisse bzw. Antworten von KI-Modellen oder KI-Tools korrekt sind? (Grafik: TÜV-Verband)
Zentrale Studienergebnisse im Überblick
Nutzung und Verbreitung generativer künstlicher Intelligenz
- 65 Prozent der Bevölkerung haben bereits generative KI ausprobiert oder nutzen sie aktiv (2023: 37 Prozent).
- 91 Prozent der 16- bis 29-Jährigen nutzen KI – so viel wie keine andere Altersgruppe.
- 45 Prozent der Nutzer verwenden KI mindestens wöchentlich, bei den Jüngeren sind es sogar 55 Prozent.
Tools und Plattformen
- ChatGPT: 85 Prozent
- Google Gemini: 33 Prozent
- Microsoft Copilot: 26 Prozent
- DeepL: 20 Prozent
Anwendungsbereiche und Motivation
- 72 Prozent nutzen KI zur Informationssuche, 43 Prozent für Textarbeiten, 38 Prozent für Ideenfindung, 34 Prozent für Übersetzungen.
- Hauptmotive: produktiver arbeiten (61 Prozent), lernen und weiterbilden (61 Prozent), Routineaufgaben erleichtern (54 Prozent).
Emotionaler Wert für User
- 80 Prozent nutzen generative KI als Werkzeug ohne weitere emotionale Bindung.
- 27 Prozent der User sehen KI als „Coach“.
- 6 Prozent nehmen sie sogar als „Freund“ wahr.
Fehlende Sicherheitskultur trotz großer Risiken
- Die Studie zeigt eine deutliche Diskrepanz zwischen Nutzungsverbreitung und Sicherheitsbewusstsein:
- 13 Prozent haben bereits persönliche Daten wie Adressen oder Passwörter in KI-Systeme eingegeben.
- 50 Prozent äußern große Sorge vor Datenmissbrauch, aber konkrete Schutzmaßnahmen sind selten.
- In Unternehmen fehlt es an klaren Regeln: 54 Prozent der Beschäftigten berichten von keinen Vorgaben oder Verboten.
KI-Inhalte werden schwerer erkennbar – und gefährden Vertrauen
- 51 Prozent haben KI-generierte Inhalte für echt gehalten, insbesondere manipulierte Videos (Deepfakes).
- 91 Prozent sehen eine wachsende Schwierigkeit, echte und manipulierte Inhalte zu unterscheiden.
- 83 Prozent befürchten eine stärkere Verbreitung von Desinformation.
- 73 Prozent sehen eine Beeinflussung der politischen Meinungsbildung, 49 Prozent eine Gefahr für die Demokratie.
Orientierungslosigkeit beim Thema Regulierung
- Nur 32 Prozent der Bevölkerung haben schon vom EU AI Act gehört.
- Gleichzeitig sprechen sich 83 Prozent für eine Regulierung von KI aus.
- 89 Prozent fordern eine klare Kennzeichnung von KI-Inhalten, 80 Prozent befürworten verpflichtende Prüfungen durch unabhängige Stellen wie den TÜV.
Alle Studienergebnisse können hier heruntergeladen werden.
