Die meisten Menschen verstehen leider den Unterschied zwischen GenAI, der Art von KI, mit der wir täglich interagieren und der sogenannten klassischen “Künstlichen Intelligenz” (auch “Technische KI”genannt) nicht wirklich. Das wurde mir durch meine vielen Gespräche mit Coachees, Trainingsteilnehmern und Kunden klar. Sie nehmen fälschlicherweise an, dass KI gleich KI ist und die verwendeten Tools (wie ChatGPT, Bildgeneratoren und Schreibassistenten) somit auch eine klassische KI ist. Das Ergebnis ist, dass ohne diese Unterscheidung überall falsch über KI geschrieben, gesprochen wird, wenn doch GenAI gemeint ist. Am Ende sind die Prompts falsch und die Ergebnisse, die erwartet werden, nicht zufrieden stellend. In diesem Artikel möchte ich die andere Seite der KI aus der technischen Sicht aufzeichnen, damit auch Du unterscheiden kannst und so besser Deinen Zielen mit KI bzw. GenAI erreichst.

KI ist nicht gleich KI und auch GenAI-Modells haben erhebliche Unterschiede.

Zuerst einmal vorweg: Es gibt eine Form von KI, die tatsächlich logisch und damit “klug” bzw. “Intelligent” arbeitet bzw. auf verlässliche, überprüfbare Ergebnisse ausgelegt ist. Diese wird in Forschung, Technik und Produktion eingesetzt: Die sogenannte technische bzw. klassische KI. Sie funktioniert regelbasiert, folgt klaren Zielvorgaben und unterscheidet sich grundlegend von der GenAI, mit der viele täglich arbeiten. (hier mehr) Sie ist sehr kompliziert, kann nicht mit Prompts gesteuert werden und ist sowohl betreuungsintensiv als auch teuer: Nichts für die breite Bevölkerung. Dagegen gehört GenAI zu den sogenannten “Enterprise AI” (hier mehr) und ist nicht nur komplett anders strukturiert sondern arbeitet auch anders, was oft zu Missverständnissen führt.
Die GenAI-Tools nutzt eine sehr spezifische Kategorie des maschinellen Lernens, die darauf ausgelegt ist, Inhalte zu generieren, indem sie vorhersagt, was als Nächstes passiert.

Das heißt: Sie denkt nicht (und nein, nicht mal wenn da “Reasoning” steht), sondern berechnet, was mathematisch-statistisch = wahrscheinlich am besten passt. Kurz: GenAI Tools liefern keine Originalität, sondern nur Wahrscheinlichkeiten, Näherungsergebnisse und Schätzungen. Wer das nicht versteht, denkt oft, er hat scheinbar “gute” Antworten in bekannten Muster n wird aber in Wahrheit ins Mittelmaß umgeleitet – ohne es zu merken.

GenAI ist nicht “klug” oder “intelligent”, sondern ein Art Navigationssystem.

Ich vergleiche GenAI gern in ihrer Funktionsweise mit einem Navigationsgerät. Man gibt ein Ziel ein, aber im Gegensatz zum richtigen Navigationsgerät, fährt man nicht auf einer offenen und wählbaren Landkarte. Die vorgeschlagenen Routen basieren auf Millionen vorheriger Fahrten – nicht von dir alleine, sondern von anderen und vom Training der KI. Je häufiger diese Fahrtstrecken genutzt wurden, desto stärker verfestigen sie sich – Alternativen sind dann nicht möglich. Auch wenn es sich nach individueller Entscheidung anfühlt, wird man doch oft auf die sicherste Strecke umgeleitet. Wer nicht erkennt, wie das Modell trainiert wurde und wie es seine Entscheidungen trifft, bleibt auf diesen vorgegeben Wegen – auch wenn er eigentlich Neues erkunden wollte und auch wenn der Prompt anders lautet.

Warum GenAI meistens Mittelmaß liefert – und was das mit Wahrscheinlichkeiten zu tun hat

Wir geben in GenAI Tools ein paar Worte oder auch ihre ersten Prompts ein und erhalten in Sekundenschnelle ganze Texte, Konzepte oder Vorschläge, das ist sehr faszinierend und scheinbar einfach. Was auf den ersten Blick nach einem intelligenten System aussieht, ist bei genauerem Hinsehen vor allem eines: ein Rechenprozess, wie gesagt auf Basis von Wahrscheinlichkeiten. GenAI ist kein kreatives “Wesen” und sorry, es ist auch nicht “intelligent” in dem Sinne, dass es selbst etwas erfindet. Sie ist ein Mustererkenner, der immer das wählt, was statistisch gesehen am wahrscheinlichsten passt. Klingt das nach Innovation? Nicht unbedingt. Eher nach Mittelmaß.

Und so läuft das ab (falls das ein Techie-Kollege liest, bitte um Nachsicht, ich vereinfache den Prozess hier nun):

1. Alles beginnt mit Text – aber die KI sieht nur Zahlen

Beim Training zerlegt GenAI riesige Textmengen in kleine Einheiten, sogenannte Token. Diese Token – Wörter, Wortteile oder Satzzeichen – werden in Zahlen umgewandelt (Binäre Codes wie 101010101000). Die KI „liest“ also keine Sprache, sie verarbeitet Zahlenströme, die Sprache nur repräsentieren. Da dies nicht in einem absoluten System geht, muss GenAI die Zusammenhänge oft “errechnen” (wir würden sagen “schätzen”) und landet häufig im Durchschnitt, also im Mittelmaß.

2. Die KI lernt leider also durch eine Art mathematisches Raten, nicht durch Verstehen

Dazu versucht GenAI bei jedem Schritt vorherzusagen, welches Token (in Binären Codes also 101010000 und damit nicht ein Wort, oder eine Silbe, wie oft fälschlicherweise dargestellt) wahrscheinlich als Nächstes kommt. Häufig genutzte Muster = Abläufe prägen das GenAI-Modell stärker. Es lernt nicht Bedeutung, sondern Regelmäßigkeiten. Die Zusammenhänge werden also bei jeder Antwort neu in Worte zurückgesetzt – deshalb sind oft die zweiten Ergebnisse anders bzw. nicht gleich. Und: Genau deshalb ist auch die Qualität der Trainingsdaten für den Output so wichtig und entscheidend für die Qualität.

3. Das Ergebnis ist statistischer Durchschnitt

Bei jeder Antwort versucht das Modell, das wahrscheinlichste nächste Token zu wählen. So entsteht kein kreativer Text, sondern ein statistisch abgesicherter Vorschlag. Die KI bewegt sich damit in der sicheren Mitte – nicht zu riskant, nicht zu eigenwillig. Viele denken, man kann diese Mitte durch gutes Prompting steuern. Die Antwort ist nein, kann man nicht – jedoch kann man GenAI Tools lenken, sie werden aber niemals ein absolut richtiges Ergebnis liefern, sondern nur Outputs mit maximal 60-80% “Richtigkeit”. Ergänzend muss man allerdings dazu sagen, dass es bei Texten im Alltag oft  nicht auf diese absolute Korrektheit ankommt. Im Gegensatz dazu ist dieses System bei z.B. juristischem oder medizinischem Einsatz von GenAI ein Problem, es ist eigentlich nur durch extreme zusätzliche Qualitätsmaßnahmen richtig.

4. Self-Attention ist statistische Mittelwertbildung

Bei der Verarbeitung vergleicht das Modell jedes Token mit allen anderen im Kontext (der Prozess ist natürlich viel komplexer, aber ich verkürze ihn hier mal). Daraus entsteht ein gewichtetes Bild dessen, was wichtig erscheint – erneut basierend auf Wahrscheinlichkeiten, nicht auf Verständnis. Auch hier nutzt das GenAI-Tool die bereits benutzten Wege und kommt so häufig eben wieder auf: Den Durchschnitt.

5. Temperatur bringt Zufall, nicht Kreativität

Über die Temperatureinstellung beginnen die Antworten zu „streuen“. Texte mit niedrigen Temperaturen klingen langweilig, steif, aber niedrige Werte liefern vorhersagbare Texte und für manche klingen sie sogar professioneller, da sie weniger “Emotion” einmischen. Hohe Temperatur-Werte sorgen für mehr Variation – aber das heißt nicht mehr Tiefe, sondern mehr Zufall. Und mehr Zufall bedeutet: Mehr Halluzination.

[Spoiler: Man kann das wunderbar gerade im Microsoft Copilot 365 erleben, der seit einer Woche auch in Europa “personalisiert” ist, also mit höheren Temperaturen schreibt und antwortet – und nun haben wir dort auch viel mehr Halluzinationsprobleme wie in ChatGPT, die vorher nur selten spürbar waren]

6. Logische Folge: GenAI mittelt – sie denkt nicht

Die eigentliche Grenze liegt im System selbst. Es erschafft keine Bedeutung, es destilliert sie aus statistischen Mustern. Das ist nützlich für Routineaufgaben – aber nicht für echte Ideen oder tiefergehende Perspektiven, denn sie wird Dich immer mitteln, also auf ihre durchschnittlichen Formulierungen herunterziehen, wenn Du ein Profi bist.

GenAI Prompting: Das System steuern, ohne die Straße zu sehen

Viele glauben, Prompting sei einfach: Man stellt eine gute Frage und bekommt eine kluge Antwort. Doch tatsächlich geht es um weit mehr. Beim Prompting grenzen wir ein Terrain ein, das die KI während ihres Trainings „gelernt“ hat. Wir navigieren durch einen Raum voller Token – also jener Bausteine, aus denen Sprache für das Modell besteht – und lösen gespeicherte Wahrscheinlichkeiten aus. Was zurückkommt, ist kein Wissen, sondern ein statistisch wahrscheinliches Echo, das wir im Grunde voraussehen müssen:

Ein Prompt ist in Wahrheit nicht Sprache, sondern ein in Sprache maskierter Code an die KI.

1. Mit jedem Wort verschieben wir Wahrscheinlichkeiten

Je präziser ein Prompt formuliert ist, desto enger zieht das Modell die Auswahl um bestimmte Muster zusammen. Doch genau hier liegt die Herausforderung: Die Benutzeroberfläche zeigt uns nicht, was wirklich passiert. Wir sehen keinen „Token-Raum“, keine Wahrscheinlichkeitsverteilungen und keine Temperatureinstellungen, die Einfluss auf die Zufälligkeit nehmen. Wir tappen durch ein System, das uns bewusst einfach erscheint – obwohl es tief im Inneren hochkomplex funktioniert. (Und wir wissen, das wir nie genau steuern können bzw. auch, dass es Wege geht, die man nicht eingeplant hat).

2. Die KI ist für die Masse gebaut – nicht für Experten

Die meisten großen Sprachmodelle sind so trainiert, dass sie gut mit durchschnittlichen Nutzenden funktionieren. Das heißt: Sie liefern Ergebnisse, die möglichst vielen gefallen. Doch dieser “optimierte Durchschnitt” macht es schwer, gezielt zu steuern. Auch wenn es sich so anfühlt, als könne man alles fragen, verhandeln wir in Wahrheit mit Systemstandards, die uns nicht sichtbar sind – aber unsere Ergebnisse stark beeinflussen. Bist Du ein Experte? Dann solltest Du vorsichtig sein, KI täglich für Deine Texte zu nutzen, sie hat Magie und damit steigt die Wahrscheinlichkeit, dass sie Dich auf die Mitte zieht, da ist in Deinem Fall: Nach unten.

3. Frameworks helfen – aber auch sie sind nur Mittelwertstrategien

Strukturhilfen wie PICO (Persona, Instructions, Context, Output) oder RTF (Rolle, Task, Format) können beim Aufbau eines Prompts sehr nützlich sein. Aber man sollte sich bewusst machen: Auch diese Modelle basieren auf Annahmen, die für ein allgemeines Publikum optimiert wurden. Sie helfen, Klarheit zu schaffen – aber sie führen ebenfalls nur dorthin, wo das Modell statistisch sicher unterwegs ist.

5. Es klingt gut – aber klingt es nach Dir?

Manchmal wirken die Antworten brillant. Sie klingen schlau, durchdacht, vielleicht sogar überraschend. Aber sobald jemand mit Fachwissen draufschaut, wird deutlich: Das war keine echte Tiefe. Es klingt gut aber eben auch generisch: Durch diese “Mitte” und die Output-Programmierung ergibt sich der Effekt des “People-Pleasings” sowie des Barnum-Effekts (hier mehr): Alles klingt glaubwürdig, nach Dir, es fühlt sich gut an und. Genau hier beginnt der Unterschied zwischen einem „brauchbaren“ und einem wirklich überzeugenden Ergebnis.

6. Verstehen, welcher Durchschnitt gerade spricht

Gutes Prompting bedeutet nicht nur, das richtige Format zu wählen. Es bedeutet vor allem, den Durchschnitt zu verstehen, den man auslöst – und zu entscheiden, ob er zum eigenen Ziel passt. Was wird erwartet? Welche Tonalität ist angemessen? Welche Tiefe braucht der Text wirklich? Diese Fragen sollten vor jeder Eingabe klar sein – sonst überlässt man dem System zu viel.

7. Manchmal ist ein Neuanfang der beste Prompt

Und wenn alles verschwimmt? Wenn die Antworten nicht mehr stimmig wirken und sich so oft verändert haben, dass man dauernd im Thread rauf und runter scrollt und sich fragt: Hätte ich das nicht besser selbst geschrieben? Dann liegt das oft nicht an Dir, sondern am Verlauf. Die bisherigen Prompts, das Gespräch im Hintergrund, der Kontext der letzten Fragen – all das beeinflusst die nächsten Antworten. Es gibt Prompting Methoden, die genau das planen genannt “Few-Shot-Methoden” wie z.B. Chain-of-Thought-Prompting (in Stufen). Das funktioniert oft ganz gut, wenn man strukturierte Texte erstellen will bzw. bestimmte Modelle der GenAI Tools reagieren darauf besser. Aber wenn nichts mehr geht hilft in solchen Momenten ein einfacher Schritt: Fenster schließen, neu beginnen. Denn auch KIs hängen manchmal fest. Und ein frischer Start kann Wunder bzw. ein neues Mittelmaß (er)wirken.

Profi-Tipp Nr. 1 gegen das Mittelmaß: Echtes Personalisieren

Eine wichtige Möglichkeit, GenAI nicht nach dem “Durchschnitt” klingen zu lassen und dennoch ihre Lösungsmöglichkeiten einzubauen ist mit ihr nicht als Ghostwriter zu arbeiten, sondern sie zu Deinem Assistenz-System zu machen. Und nein, alleine GenAI in ein Custom GPT einzubauen oder zu automatisieren ist damit nicht gemeint: Denn dann geht sie weiter genau den Trampelpfaden – nur auf Steroiden. Dann wird alles nur schlimmer.

Die Lösung ist so einfach, dass die meisten sie nicht sehen: Personalisieren. So klingt KI nicht nach KI, sondern nach Dir. Und sie nutzt weniger die Wege des Mittelmaßes, da sie ihre Antwort für Dich vorbereitet. Beispiel: ChatGPT hat in ihren Einstellungen und Features bereits über 30 verschiedene Arten integriert, wie Du ChatGTP zu Deinem ChatGPT machen kannst und es “personalisierst” wie z.B. durch die “Erinnerungen” oder die speziellen “Hinweise” in einem Projekt (bezahlter Account).

DIE Profi-Lösung ist allerdings ein Style Guide zu erstellen (Darüber schreibe ich im nächsten Artikel – Stay Tuned). So ein Guide hat den Vorteil, dass er von fast allen GenAI-Tools gelesen werden kann, man kann ihn bei jedem Prompt mit hochladen oder auch in Deinem Tool hinterlegen.

Fazit: GenAI ist ein Meister des Mittelmaßes – kein Schöpfer der Tiefe

GenAI ist also weder klug, noch ist sie nicht dumm. Aber sie hat kein Bewusstsein, auch wenn sie sehr danach klingt (“People-Pleasing”), damit man ihre Ergebnis akzeptiert. Das Gute ist: GenAI hat kein eigenes Ziel und keine eigene Werturteile – deshalb liegt es an Dir, wohin Du sie mit Deinen Prompts schickst , damit sie ihre Muster berechnet und auswählt, was sie für die wahrscheinliche, nächste Fortsetzung hält. Das ist in vielen Bereichen nützlich. Für Automatisierung, für erste Entwürfe, für Texte mit klarer Struktur und vorhersehbarem Zweck. Doch sobald es um Tiefe geht, um Haltung,  um Qualität und echte Verlässlichkeit, also um Differenzierung, zeigt sich die Grenze des Systems GenAI.

    Hat Ihnen dieser Blogbeitrag gefallen?
    Hier können Sie sich in die Liste für Blogupdates eintragen:

    Mit dem Absenden des Kontaktformulars erklären Sie sich damit einverstanden, dass Ihre Daten zur Bearbeitung Ihres Anliegens verwendet werden (Weitere Informationen und Widerrufshinweise finden Sie in der Datenschutzerklärung).

    Be Social - Bitte teilen Sie diesen Beitrag mit Ihrem Netzwerk!

    Author

    • Sie ist pragmatische Talentfinderin, Expertin im ‚Finden‘ talentierter Mitarbeiter, Social Recruiting Coach, Master-Sourcerin, Trainerin und Autorin des Besteller-Kompendiums “Praxiswissen Talent Sourcing” sowie Co-Autorin des Bestellerbuches ‘Praxishandbuch Social Media Recruiting’. Nach einem BWL-Studium in Deutschland und Großbritannien, langjähriger Erfahrung als Personalmanagerin in renommierten Qualitätsunternehmen der Industrie und als Partnerin bei Top-10-Personalberatungen gründete sie 2005 die Intercessio GmbH. Ihr Motto: In Dir muss brennen, was Du in anderen entfachen willst – Augustinus

      View all posts