
KI im Alltag: Wie der Mitarbeiter es nutzt
KI im Alltag: Wie wir Chatbots nutzen – und was wir dabei übersehen Inspiriert von den Erkenntnissen von Roger Basler de Roca
WhatsApp als KI-Assistent: Warum wir Chatbots immer öfter für persönliche Gespräche nutzen
Beim jüngsten Vortrag von Roger Basler de Roca – einem der klügsten Köpfe, wenn es um die praktischen Auswirkungen von KI geht – gab es eine überraschende Erkenntnis: ChatGPT wird zunehmend als „Antworten-Generator“ genutzt. Viele Nutzer:innen kopieren Chatverläufe 1:1 in KI-Tools wie ChatGPT und fragen: „Wie antworte ich am besten?“ – sei es in privaten Gesprächen, bei Konflikten oder sogar bei emotionalen Themen. Noch provokanter: Immer mehr Menschen nutzen KI, um persönliche Probleme zu analysieren oder Lösungsvorschläge für zwischenmenschliche Herausforderungen zu erhalten.
Was sagt das über uns aus?
Wir vertrauen Algorithmen schneller als uns selbst – selbst in intimen Momenten.
KI wird zum „sozialen Schmiermittel“, das uns hilft, Konflikte zu entschärfen oder einfach „besser dazustehen“.
Doch: Wer entscheidet, was eine „gute“ Antwort ist? Die KI greift auf Daten zurück, die oft aus Medien, Foren oder kommerziellen Quellen stammen – also auf generalisierte Meinungen, nicht auf individuelle Weisheit.
„ChatGPT ist keine KI – es ist eine Datenbank“ Baslers klare Aussage: Was wir „KI“ nennen, ist oft nur ein hochkomplexes Abrufsystem. ChatGPT & Co. ziehen ihre Informationen vor allem aus:
Öffentlich zugänglichen Texten (News-Artikel, Blogs, Wikipedia – oft von großen Verlagen dominiert).
Nutzerinteraktionen (die wiederum von Vorurteilen, Trends oder sogar Fehlinformationen geprägt sind).
Trainingsdaten, die nicht „live“ aktualisiert werden – das Modell lernt nicht mit uns, es kombiniert nur existing Patterns.
Die Folge?
Wir erhalten Antworten, die statistisch plausibel sind – aber nicht unbedingt richtig oder ethisch fundiert.
30% weniger Gehirnaktivität (laut MIT-Studie) bei häufiger Nutzung: Unser kritisches Denken wird outsourct.
Unsere eigenen Inputs werden zum wertvollsten Rohstoff – denn wer die Daten kontrolliert, kontrolliert die KI der Zukunft.
Die drei KI-Kompetenzen, die wir JETZT brauchen Basler betont: Es geht nicht darum, KI zu verdammen – sondern klüger damit umzugehen. Dafür brauchen wir:
Neue Datenkompetenz
Verstehen, woher KI ihre Infos zieht (und was fehlt: z.B. aktuelle Events, lokale Kontexte).
Eigene Datenquellen kuratieren – statt blind auf „die KI“ zu vertrauen.
KI-Dialogkompetenz
Präzise Prompts stellen – denn KI antwortet nur so gut, wie wir fragen.
Emotionale Distanz wahren: Nicht jede KI-Antwort ist eine „Wahrheit“, sondern oft nur ein statistischer Durchschnitt.
KI-Prüfungskompetenz
Quellen hinterfragen: „Woher stammt diese Info? Ist sie aktuell? Wer profitiert davon?“
Ethische Fallstricke erkennen – z.B. wenn KI Vorurteile reproduziert oder kommerzielle Interessen bedient.
Mistral AI vs. GPT: Warum die Wahl des Tools matters Basler empfiehlt explizit Mistral AI als Alternative zu GPT – aus guten Gründen:
Europäische Serverstandorte → bessere DSGVO-Compliance.
Transparenterer Umgang mit Trainingsdaten (weniger „Black Box“).
Fokus auf praktische Anwendungen statt auf Hype.
Sein Fazit: „Jede Technologie hat Chancen und Risiken. Aber wir dürfen nicht vergessen: KI ist kein Zauberwerk – sie spiegelt nur wider, was wir hineinstecken. Die Frage ist: Wollen wir das wirklich?“
Was bedeutet das für uns?
KI als Werkzeug nutzen – nicht als Ersatz für Denken oder Empathie.
Bewusst entscheiden, wann wir KI einsetzen (z.B. für Faktenrecherche) – und wann nicht (z.B. für persönliche Ratschläge).
Lokale, transparente Lösungen (wie Mistral oder europäische Anbieter) bevorzugen – um Datenhoheit zu behalten.
Die Provokation zum Schluss: Wenn wir KI nutzen, um unsere WhatsApp-Nachrichten zu „optimieren“ – wer optimiert dann eigentlich uns?
Quellen & Inspiration:
Vortrag von Roger Basler (Oktober 2025)
MIT-Studie zu KI und kognitiver Aktivität
Analysen zu Trainingsdaten von Large Language Models (z.B. Arxiv-Studie zu LLMs und Medienbias)
Was denken Sie?
Nutzen Sie KI für private Gespräche – und wenn ja, mit welchem Ziel?
Wie können wir Datenkompetenz in Teams oder Familien stärken? (Diskutieren Sie gerne in den Kommentaren!)
PS: Dieser Artikel entstand ohne KI-generierte WhatsApp-Antworten – aber mit viel Denkarbeit. 😉
