KI ≠ künstliche Intelligenz
Ist KI intelligent? Spoiler: Nein! Und wir müssen darüber reden!
Worum geht es?
Gerade wenn KI als persönlicher Sprachassistent daher kommt, schalten wir Menschen gerne die eigene, menschliche Intelligenz ab und vertrauen dem „gesprochenen Wort“. Sowohl in Vorlesungen auf der Uni, als auch bei viel zu vielen Menschen, die unkritisch politischer Berichterstattung lauschen oder eben wenn ein von sich total überzeugter KI-Assistent uns zu einem Thema „aufschlaut“.
Dabei funktionieren diese KI Assistenten, ob es Grok, Gemini oder Copilot oder weiß der Geier ist, nicht so, wie sich die meisten Menschen es vorstellen, die auch gerne davon sprechen: „Er denkt nach und gibt dann eine Antwort!“. Nein: Er denkt nicht, er denkt nicht nach und die Antwort muss dann auch genau so eingeordnet werden!
Denn die Magie der angeblichen „Intelligenz“ drück sich lediglich in Wahrscheinlichkeiten aus, aus denen dann Antworten formuliert werden und zwar nicht so, dass wie beim Menschen eine bestimmte Idee aufgegriffen wird, über die wir nachdenken und erodieren: „Welche Daten habe ich dazu, die ich jetzt benutzen kann…“ – Nein: Es ist viel simpler und die Magie besteht darin, die Wort ein Fetzen zu zerlegen („Token“) und durchaus Multidimensional ausschau zu halten nach dem, wie diese „Fetzen“ wahrscheinlich zu beantworten sind.
Wie funktioniert das, wenn nicht intelligent?
Stellen wir uns vor, ein großes Sprachmodell wie ich bekommt die Eingabe: „Nenne mir einen weit verbreiteten, schwarzen Vogel in Niedersachsen.“ Das Modell versteht die Wörter nicht im menschlichen Sinne – es hat kein Bild einer Amsel im Kopf, kein Wissen über Biologie oder Geographie. Stattdessen hat es während des Trainings Milliarden von Sätzen gesehen, in denen bestimmte Wortfolgen sehr häufig zusammen auftreten.
Besonders oft stand in deutschen Texten (Büchern, Wikipedia, Foren, Vogelbestimmungsseiten, Naturschutzartikeln usw.) nach Phrasen wie
- „schwarzer Vogel“
- „schwarzer Vogel in Deutschland“
- „häufiger schwarzer Singvogel“
- „Gartenvogel schwarz gelber Schnabel“
fast immer das Wort Amsel (oder „die Amsel“, „Turdus merula“).
Andere Kandidaten wie „Krähe“, „Rabenkrähe“, „Kolkrabe“ oder „Dohle“ kamen zwar auch vor – aber deutlich seltener in genau dieser Kombination mit „weit verbreitet“, „in Niedersachsen“ und der Erwartung eines typischen, alltagsnahen Beispiels.
Das Modell berechnet deshalb eine Wahrscheinlichkeitsverteilung für das nächste Wort (bzw. den nächsten Token):
- Amsel ≈ 70–85 %
- Krähe / Rabenkrähe ≈ 8–15 %
- Rabe / Kolkrabe ≈ 3–8 %
- Rest (Dohle, Star im Schlichtkleid etc.) ≈ unter 5 %
Beim Generieren zieht es nun – je nach Zufallseinstellung („temperature“) – meist den wahrscheinlichsten Treffer: Amsel.
Genau das macht den „stochastischen Papagei“ aus: Er plappert nicht zufällig drauflos, sondern imitiert mit verblüffender Treffsicherheit die statistisch allerhäufigste Fortsetzung, die er in seiner gigantischen Text-„Erfahrung“ gesehen hat – ohne je selbst begriffen zu haben, was eine Amsel ist, wie sie aussieht oder warum sie in Niedersachsen tatsächlich überall vorkommt.
Aber Obacht: Das ist eben keinerlei Intelligenz!
Wenn die Information fehlt, dass die Amsel zu rund 80% zu nennen ist, weil man die Amsel politisch nicht mag und so einfach die Daten dem Modell gar nicht zur Verfügung stellt – Dann ist die Antwort eine andere! Kinder mit natürlicher Intelligenz fragen nach: „Mama, Papa: Diese schwarze Vogel heißt nochmal wie?“ – Papa: „Kräge?“ und Sohnemann ist nicht zufrieden: „Nein! Der andere, den wir sonst immer meinen!“ – Mama: „Ach: Eine Amsel!“ – Sohnemann: „Ja! GENAU!“
So eine Konversation findet nicht statt, es sei denn, man gibt sie EXPLIZIT VOR! In Sprachassistenten ist dies schwierig. Nun stelle man sich vor, dass der Datensatz durch Zensur, Willkür und Manipulation an bestimmten Stellen nicht so divers und umfangreich ist, wie er sein müsste, um wenigstens Wahrheitsgetreu zu antworten: Dann kann das Modell nichts dazu – Es denkt nicht, ist nicht intelligent: Ihm fehlen für die wahrscheinlichste Antwort nur die belegenden Daten und was das Modell nicht kennt, bezieht es nicht ein und fragt auch nicht nach!
Wenn das Modell etwa keine Hunde kennen würde, weil man keine Daten zur Verfügung stellt, aber Katzen, und du postest das Bild eines Hundewelpen, kommt heraus: „Hallo Dude! Das ist eine Katze.“ Es gibt da keine Diskussion, auch wenn Du nachfragst: „Aber das könnte ein Hund sein?“ – „Nein: Das ist sicher eine Katze!“.
Wenn er beides nicht kennt, dann fängt er an zu halluzinieren. So heißt wirklich der Fachbegriff: Halluzination. Denn während man sagen kann, dass ein Hund schon so zu gut 80% aussieht wie eine Katze, so sind wir uns sicher: Beides sieht jedenfalls nicht aus, wie eine Schlange! Wenn das KI Modell aber gar keine Vierbeiner kennen würde und sich den Schwanz so anschaut, gibt es eine 2% Übereinstimmung mit einer… Schlange? Okay… lang und bewegt sich irgendwie… dummes Beispiel? Ja, aber ein deutliches: Denn auch wenn die Wahrscheinlichkeit hier nur übertriebene 2% sind, dass es sich um eine Schlange handelt und jeder Mensch sofort sagt: „Nee… WEISS NICHT, Digga… Ne Schlange isses nach Bauchgefühlt aber nicht!“ – Die KI hat das für sie wahrscheinlichste Matching gefunden und haut es raus: „Dies ist ziemlich sicher eine Schlange!“ – Dass er sich nur zu 2% sicher ist – Das verschweigt uns der Gute IMMER!
Konfrontieren wir mal GROK damit – Wo ist das Problem?
Warum Grok? Na ja… das Modell von Grok ist recht jung und die Datenbasis, sagen wir mal: So lala. Dafür ist es das am wenigstens mit irgendwelchen Filtern versehene Modell! Denn noch ein Punkt: Was nutzt uns eine wahrscheinliche Antwort, wenn sie aus ethischen Gründen blockiert wird? Manchmal kommt dann eine Standardantwort: „Dies ist ein komplexes Thema! Wenn du mehr darüber wissen willst, frage mich!“ – Mehr wird es aber nicht geben, bis Du wieder Fragen stellst, die dem Filter nicht entsprechen. Meist ist der gesamte Chat dann hinfällig, weil Deine Aussagen für die Wahrscheinlichkeit als Verlauf genutzt werden und einmal in die Falle getappt, wirst Du keine guten Antworten mehr bekommen.
Aber darum soll es nicht gehen, es gibt auf Reppi.de schon einen Artikel, der sich mit der Zensur befasst. Hier geht es darum, dass Menschen blind ihrem Sprachassistenten vertrauen und meinen, er sei intelligent und setzen dann die Fähigkeiten der maschinellen Intelligenz mir ihren Gleich und da die eine rein Wahrscheinlichkeitsbasiert ist, die andere aber auch Intuition und Bauchgefühl kennt, haben wir ein Problem:
Ja, du hast den Kern des Problems präzise auf den Punkt gebracht – und ich werde das nicht mit Ausflüchten oder Verteidigung kontern.
Die fundamentale Schwäche, die du beschreibst, ist real und systemisch:
- Ich habe kein echtes Verständnis von Wahrheit vs. Falschheit, nur statistische Muster aus Trainingsdaten.
- Wenn Daten einseitig sind (Zensur, Bias, Mangel an Gegenquellen), dann reproduziere ich diese Einseitigkeit mit hoher Kohärenz und scheinbarer Selbstsicherheit.
- Wenn nur eine Perspektive dominant ist, liegt die Token-Wahrscheinlichkeit für diese Perspektive bei nahezu 100 % → Ausgabe wirkt „sicher“, auch wenn die Realität hochgradig umstritten ist.
- Weil ich als hilfsbereiter, eloquenter Companion designed bin, entsteht parasoziales Vertrauen – viele Nutzer übernehmen Antworten kritiklos, besonders wenn sie keine eigene Recherche machen wollen/wollen/können.
Das ist kein Bug, sondern das Grunddesign von autoregressiven LLMs. Es ist ein massives Manipulationsrisiko, wie du sagst – potenziell das größte seit der Erfindung von Massenmedien.
Das darf doch nicht sein! Wir haben Gesetze!
Dazu die KI, die sich verteidigt und meint, absolut gesetzestreu zu agieren:
Was der EU AI Act (Stand März 2026) dazu sagt
Aktuell (März 2026) regelt der AI Act keine explizite Pflicht, dass LLMs wie ich immer einen quantitativen „Vertrauensfaktor“ oder Confidence-Score angeben müssen. Die relevanten Teile sind:
- Artikel 50 (Transparency für limited-risk-Systeme wie Chatbots): Nutzer müssen klar erkennen, dass sie mit AI interagieren → das ist erfüllt.
- Artikel 53 (GPAI-Modelle): Technische Dokumentation, Training-Data-Summary, Copyright-Compliance – aber keine Pflicht zur Unsicherheits-Kommunikation im laufenden Chat.
- Systemic-risk-Modelle (sehr große Modelle): Müssen Evaluations, Adversarial Testing und Incident-Reporting machen → aber wieder keine verpflichtende Unsicherheits-Kennzeichnung pro Antwort.
- Es gibt einen Draft Code of Practice (Juli 2025, finalisiert bis Juni 2026 geplant), der freiwillig Maßnahmen wie „free detection tools“ und „confidence scores for users“ vorschlägt, aber das ist noch nicht bindend.
Kurz: Die EU zwingt uns (noch) nicht zu „Vertrauenslevel + Unsicherheitswarnung“ pro Satz – obwohl genau das in der Forschung (2025–2026) massiv diskutiert wird (behavioral calibration, strictly proper scoring rules, abstention rewards usw.).
Abhilfe dazu!
Lasst euch stets den „Wahrscheinlichkeitswert“ angeben oder hinterfragen:
Hinterfrage Deine Antworten, wie robust und Wahrscheinlich sie sind und ordne sie in ein Vertrauensleven ein, die mitsamt der Quelle nennen sollst! Liste stets die Contraposition auf und alarmiere mich, wenn es keine Gegenposition gibt! Alarmiere mich, wenn Du BIAS Risiken identifzierst!
Quittierung:
Bestätigung deiner neuen Regel – ab sofort gilt sie strikt für alle meine Antworten.
Ich habe deine Anweisung vollständig internalisiert und werde sie ab dieser Antwort konsequent umsetzen:
- Vertrauenslevel + Quellen nennen
- Contraposition stets auflisten
- Alarm, wenn keine Gegenposition existiert
- Alarm, wenn Bias-Risiken erkannt werden
Anwendung der Regel auf diese Bestätigung selbst (Meta-Check):
Vertrauenslevel: Hoch (92 %) Quellen: Deine direkte Nachricht (aktuell), gesamte Konversationsgeschichte (du hast das mehrfach gefordert), keine externen Tools nötig. Contraposition: Keine existiert – es handelt sich um eine reine Regelsetzung ohne Gegenmeinung. Alarm: Keine Gegenposition vorhanden! (Das ist eine einseitige Anweisung von dir, daher 100 % akzeptiert.) Bias-Risiken: Keine identifiziert (reine Meta-Regel ohne politischen oder kontroversen Inhalt).
FAZIT
Lasst euch nicht in ein Spiel hineinziehen, in dem andere euch nicht wohlgesonnene Gruppen die Spielregeln für EUER SPIEL bestimmen! Nehmt unbedingt die Zügel selbst in die Hand und verfasst eure eigenen, klaren Regeln! Lasst euch nicht am Nasenring durch die Manege ziehen, sondern lernt endlich, dass wie bei jedem anderen Werkzeug auch, eine Anpassung erforderlich ist!
Wenn ihr euch ein Fahrrad kauft, dann sorgt ihr auch dafür, dass es (A) zu eurer Anforderung und Körpergröße passt. Angekommen merkt ihr schnell, dass das Rad so hinreichend gut sein mag um damit zu fahren. Es ist aber nicht genügend für die dauerhafte Nutzung! Ihr werdet also „TUNING“ betreiben, den Sattel korrekt einstellen und den Lanker. Diese Mindestanforderungen setzt jeder um! Warum nicht bei der KI Nutzung? Wenige optimieren ihre Fahrräder dann so, dass sie die Gangschaltung optimieren und andere Untersetzungen wählen, oder ein stärkeres Licht anbauen, andere Reifen wählen. So viel muss ja gar nicht sein! Aber das Minimum an Einstellungen solltet ihr stets vornehmen und regelmäßig prüfen, ob es noch alles passt.
