Wieso KI gerade verhindert, was sie verspricht: Innovation

24. März 2025
KI ersetzt Arbeit – aber nicht das, was uns antreibt
Die derzeit eingesetzten generativen KI-Systeme basieren auf neuronalen Netzen, die im Kern vom biologischen Vorbild des menschlichen Gehirns inspiriert sind. Sam Altman, CEO von OpenAI, beschreibt das langfristige Ziel seiner Organisation als die Entwicklung einer „starken“ KI, also einer KI, die dem menschlichen Verhalten möglichst nahekommt. Auf dem Weg dorthin haben sie uns KI-Chatbots geschenkt, Large Language Models und generative Bildgenerierung.
Das ausgegebene Ziel prägt nicht nur unsere Wahrnehmung und Kommunikation der aktuellen KI-Systeme, sondern auch die bekannten Systeme wie ChatGPT, Claude, Deepseek sind so konfiguriert, dass sie unser Gefühl bestärken sollen, dass wir bereits mit menschenähnlichen Systemen interagieren.
Und tatsächlich agieren sie oft ähnlich ineffizient und missverständlich wie Menschen mit extrem viel theoretischem Wissen, die einem schnell mal Ratschläge erteilen, ohne meine Motivation hinreichend verstehen zu wollen oder zu können. Wie ein verschlossenes Genie, das seine Gedankengänge und Entscheidungsprozesse nicht offenlegen kann oder will.
Um dieser Intransparenz entgegenzuwirken, werden Hilfsfunktionen eingesetzt – beispielsweise Höflichkeit in der Ansprache und Wiederholung der Frage bei der Antwort. Neuerdings werden auch Erklärungsschritte («Chain-of-Thought Reasoning») eingeblendet, als das chinesische Deepseek dies vormachte.
Wer Chatbots wie ChatGPT sehr häufig einsetzt, merkt schnell, dass derartige Sprachelemente sich wiederholen wie Floskeln, sie wirken aufgesetzt. Und tatsächlich erscheint das «Reasoning» kein integraler Bestandteil des benutzbaren Systems zu sein, es wirkt hinzugefügt. Begründungen und Erklärungen werden zwar ausgegeben sind aber weder zu editieren noch in der Abfolge veränderbar und von daher wenig nützlich.
Diese grundlegende Schwäche spiegelt sich besonders deutlich in der Praxis wider. Unternehmen tun sich aktuell schwer, mit Hilfe generativer KI wirklich innovative Anwendungsfälle zu entwickeln, die über Effizienzsteigerung und Kostenoptimierung hinausgehen.
Vielmehr zeigen sich die Stärken der generativen KI genau darin, nämlich repetitive oder klar definierte Tätigkeiten wie Texterstellung, Zusammenfassung, Codierung und Bilderkennung zu ersetzen. Diese Tätigkeiten werden nicht unbedingt besser oder innovativer erledigt – sie werden aber erheblich günstiger, weil Menschen durch Systeme ersetzt werden können.
Durch die Nutzung dieser KI-Systeme können bestehende Unternehmensprozesse weiter auf Kosteneinsparung optimiert werdem, wodurch der Fokus auf maximaler Monetarisierung und minimalem Zeiteinsatz weiter zunimmt. Langfristig entsteht dabei eine Unternehmenskultur, in der nicht nur die intrinsische Motivation der Mitarbeiter:innen massiv beeinträchtigt wird.
Die aktuellen KI-Systeme tragen auch kaum dazu bei, neue Dienstleistungen, Geschäftsmodelle oder innovative Produkte zu entwickeln, die nicht primär auf Einsparpotenziale ausgerichtet sind. Die entstehenden „Innovationen“ fokussieren häufig darauf, bestehende Abläufe durch Systeme zu ersetzen, minimal zu modifizieren oder sich als neue Intermediäre in bestehende Wertschöpfungsketten einzufügen.
Motivation durch interessante Arbeit, nicht durch Entlohnung
Diese Entwicklung hat psychologische Folgen. Der Mensch ist ein lernendes, spielerisches Wesen. Unsere Motivation entsteht nicht vorwiegend aus Belohnungssystemen, sondern aus Neugier, aus Freude an Erkenntnis und Gestaltung. Wir stammen – um es plakativ zu sagen – von Affen ab, nicht von Ameisen. Wenn das Spiel aus der Arbeit verschwindet, entsteht ein Vakuum: Langeweile, Demotivation, Zynismus.
Diese Entwicklung hat auch Konsequenzen für Unternehmen: Wenn Tätigkeiten zunehmend monoton werden, suchen Menschen nach beruflicher Veränderung.
Oder es geschieht umgekehrt, die kreative Produktivität verlagert sich zu einem 1:1 Spiel mit KI-Systemen. Ursprünglich klar abgegrenzte Berufsfelder könnten zunehmend verschwimmen, da viele Fachkräfte versuchen, andere Bereiche wie etwa Coding, Journalismus oder Design „spielerisch“ mit Ihrem neuen KI Companion zu erkunden. Dies könnte einerseits produktives Chaos erzeugen, andererseits auch zu gegenseitiger beruflicher Kannibalisierung führen.
Zwischen Individualisierung und Isolation – Auswirkungen der KI-Nutzung auf Zusammenarbeit
Schwerer noch wiegt der mögliche Schaden an einer Innovations-Kultur, der durch die weitere Vereinzelung bei der Arbeit entsteht. Hat neu jede ihren KI Companion als Sparrings-Partner geht das zu Lasten der ohnehin schon geschwächten kreativen Zusammenarbeit mit meinen realen Kolleg:innen.
Als UX-Designer sehe ich persönlich bereits erste Auswirkungen: Lange Zeit war ich auf Prototyping-Tools wie Figma angewiesen, weil direkte Programmierung für Designexperimente zu teuer war. Heute ermöglichen es LLM-Systeme mir jedoch, schnell und kostengünstig eigene Single Page Applications für Javascript Frameworks wie React oder Next zu erstellen und diese über GitHub direkt auf Plattformen wie Vercel zu testen. Dadurch könnte ich Auftraggeber:innen künftig nicht nur Kosten einsparen, sondern vielleicht interaktiver, auf jeden Fall aber schneller und iterativer experimentieren.
Dennoch stellt sich die Frage, ob diese Interdisziplinarität tatsächlich Innovation bewirkt oder lediglich oberflächliches, unkoordiniertes Chaos produziert, das von Mittelmässigkeit und technischen Fehlern geprägt ist.
Sprachmodelle ohne Verständnis – Grenzen der Generativen KI im Innovationsprozess
Weiter frage ich mich, ob diese Besessenheit, das menschliche Gehirn nachzubilden der Grund ist, warum die KI-Systeme nicht von Grund auf so gestaltet wurden, dass sie bei der Umsetzung von Ideen für neue Produkte und Dienste helfen.
Denn genau dort, wo es um praktische, nur schwer sprachlich beschreibbare Herstellung geht – etwa im Bereich CAD-Konstruktion oder handwerklichen Prozessen – zeigt sich die derzeitige generative KI limitiert und hilflos. Um dies zu verbessern, bräuchten wir tatsächlich weniger geniale Gehirnnachbildungen, sondern nützlichere KI-Werkzeuge, die Menschen bei der Arbeit unterstützen anstatt sie ihnen wegzunehmen.
LLM’s lernen zwar aus gigantischen Textmengen, nicht aber aus direkter physischer Weltinteraktion, sie haben kein kausales Weltverständnis und imitieren Sprache, statt sie zu verstehen.
Vielleicht sollten KI-Entwickler:innen daher dem Ansatz des Franzosen Yann LeCun mehr Beachtung schenken, der glaubt, das wirkliche Intelligenz die Bildung eines internen Modells der Welt braucht: Ein Abbild, wie die Welt funktioniert.
Ein lohnenswertes, aktuelles Interview mit ihm ist hier zu hören:
https://pod.link/1522960417/episode/13d6afeaa7f75bca5daf8f9e21824c37