Drei Jahre nach dem Launch von ChatGPT hat sich generative Künstliche Intelligenz (KI) fest im Alltag vieler Menschen verankert. Laut der aktuellen TÜV-ChatGPT-Studie 2025 nutzen bereits 65 Prozent der Bundesbürgerinnen und -bürger generative KI-Tools – ein deutlicher Anstieg gegenüber 2023.

Die ChatGPT-Studie 2025 des TÜV-Verbands zeigt, wo Regulierung und Aufklärung jetzt ansetzen müssen. (Grafik: TÜV-Verband)

Besonders die jüngere Generation (91 Prozent der 16–29-Jährigen) setzt im Alltag regelmäßig auf Tools wie ChatGPT, Google Gemini oder DeepL. Die Ergebnisse der Studie zeigen: ChatGPT bleibt das meistgenutzte KI-Werkzeug, doch die Konkurrenz wie Google Gemini und Microsoft Copilot holt auf. Die beliebtesten Anwendungsfelder sind Informationsrecherche, Textgenerierung, kreative Ideenfindung und Übersetzungen.

Welche der folgenden KI-Modelle oder KI-Tools haben Sie bereits genutzt? (Grafik: TÜV-Verband)

Zugleich offenbart die Studie gravierende Sicherheitslücken im Umgang mit KI. Viele Nutzerinnen und Nutzer erkennen KI-generierte Inhalte nicht oder unterschätzen Gefahren durch Deepfakes, fehlerhafte Ergebnisse und Datenmissbrauch. So hat jede achte Person bereits persönliche Daten in KI-Systeme eingegeben. Und obwohl 50 Prozent der Befragten Sicherheitsbedenken äußern, fehlt in vielen Unternehmen eine klare Regelung für den KI-Einsatz. Der EU AI Act ist zudem nur 32 Prozent der Menschen bekannt.

Wie groß ist Ihr Vertrauen, dass die Ergebnisse bzw. Antworten von KI-Modellen oder KI-Tools korrekt sind? (Grafik: TÜV-Verband)

Zentrale Studienergebnisse im Überblick

Nutzung und Verbreitung generativer künstlicher Intelligenz
  • 65 Prozent der Bevölkerung haben bereits generative KI ausprobiert oder nutzen sie aktiv (2023: 37 Prozent).
  • 91 Prozent der 16- bis 29-Jährigen nutzen KI – so viel wie keine andere Altersgruppe.
  • 45 Prozent der Nutzer verwenden KI mindestens wöchentlich, bei den Jüngeren sind es sogar 55 Prozent.
Tools und Plattformen
  • ChatGPT: 85 Prozent
  • Google Gemini: 33 Prozent
  • Microsoft Copilot: 26 Prozent
  • DeepL: 20 Prozent
Anwendungsbereiche und Motivation
  • 72 Prozent nutzen KI zur Informationssuche, 43 Prozent für Textarbeiten, 38 Prozent für Ideenfindung, 34 Prozent für Übersetzungen.
  • Hauptmotive: produktiver arbeiten (61 Prozent), lernen und weiterbilden (61 Prozent), Routineaufgaben erleichtern (54 Prozent).
Emotionaler Wert für User
  • 80 Prozent nutzen generative KI als Werkzeug ohne weitere emotionale Bindung.
  • 27 Prozent der User sehen KI als „Coach“.
  • 6 Prozent nehmen sie sogar als „Freund“ wahr.
Fehlende Sicherheitskultur trotz großer Risiken
  • Die Studie zeigt eine deutliche Diskrepanz zwischen Nutzungsverbreitung und Sicherheitsbewusstsein:
  • 13 Prozent haben bereits persönliche Daten wie Adressen oder Passwörter in KI-Systeme eingegeben.
  • 50 Prozent äußern große Sorge vor Datenmissbrauch, aber konkrete Schutzmaßnahmen sind selten.
  • In Unternehmen fehlt es an klaren Regeln: 54 Prozent der Beschäftigten berichten von keinen Vorgaben oder Verboten.
KI-Inhalte werden schwerer erkennbar – und gefährden Vertrauen
  • 51 Prozent haben KI-generierte Inhalte für echt gehalten, insbesondere manipulierte Videos (Deepfakes).
  • 91 Prozent sehen eine wachsende Schwierigkeit, echte und manipulierte Inhalte zu unterscheiden.
  • 83 Prozent befürchten eine stärkere Verbreitung von Desinformation.
  • 73 Prozent sehen eine Beeinflussung der politischen Meinungsbildung, 49 Prozent eine Gefahr für die Demokratie.
Orientierungslosigkeit beim Thema Regulierung
  • Nur 32 Prozent der Bevölkerung haben schon vom EU AI Act gehört.
  • Gleichzeitig sprechen sich 83 Prozent für eine Regulierung von KI aus.
  • 89 Prozent fordern eine klare Kennzeichnung von KI-Inhalten, 80 Prozent befürworten verpflichtende Prüfungen durch unabhängige Stellen wie den TÜV.

 

Alle Studienergebnisse können hier heruntergeladen werden.