Warum wir SMARTe ESG-Ziele brauchenPaddaxum | 10/2024Neue ESG-Ziele und Regularien wohin man...
Die Macht der KI und die Ohnmacht der Vernunft – ein Plädoyer fürs Hirnen
Paddaxum | 12/2024
Viele der aktuellen Diskussionen um KI, wie wir mit der Technologie arbeiten und wie sie Arbeitswelt beeinflusst, bilden zwei Extreme ab: naive Technologiegläubigkeit – eine Welt, in der die KI die Antwort auf alle Fragen gibt – oder Weltuntergangsszenarien, in der eine Superintelligenz die Menschheit ausrottet. Eine sinnvollere Diskussion beschäftigt sich mit der Frage, wie KI und menschliche Intelligenz sich am besten ergänzen und wie die offensichtlichen Chancen und Potenziale realisiert werden können.
Wo verläuft die Grenze zwischen KI und menschlicher Intelligenz?
Auf den ersten Blick ist dies eine abstrakte, philosophische Frage. Jedoch hat die Antwort sehr konkrete praktische Implikationen, wenn wir uns überlegen, in welchen Fällen wir einer KI-Aufgaben übertragen und die Ergebnisse einfach übernehmen, diese kritisch prüfen oder uns gegen die Nutzung entscheiden. Hier einige beispielhafte Anwendungsfälle:
- Einfache mathematische Fragen, wie die Generierung einer zufälligen Zahl zwischen 1 und 100
- Verknüpfung von Wissen und Meinung z. B. Erstellung eines Entwurfs für eine Buchrezension
- Kreativität, hier eine Winterlandschaft plus Text als Illustration für einen Newsletter
Vor der Prüfung dieser konkreten Beispiele hätte ich auf Basis meiner bisherigen Erfahrungen vermutet, dass alle drei Aufgaben durch eine KI (hier ChatGPT 4.0) gut lösbar sind – vielleicht mit leichten Einschränkungen bei der Buchrezension und wie „kreativ“, d.h. ansprechend die Winterlandschaft aussieht. Hier die konkreten Ergebnisse, die mich zum Teil erstaunt haben:
- Einfache mathematische Fragen wie die Generierung einer zufälligen Zahl zwischen 1 und 100. Dies gelingt ChatGPT 4.0 erstaunlicherweise nur eingeschränkt. Bei den ersten Prompts erscheint „42“ immer als erster Wert. Dies ist ein mittlerweile bekanntes Phänomen, wobei es keine eindeutige Begründung hierfür gibt. Eine witzige Erklärung ist der Hinweis auf die Sciencefiction-Satire von Douglas Adams „A hitchhikers Guide to the Galaxy“, in der ein Supercomputer nach dem Sinn des Lebens gefragt wird. Seine Antwort lautet „42“. Vielleicht hat ChatGPT zu viel Science-Fiction „gelesen“? Oder die KI hat doch die Fähigkeit zur Selbstironie?
- Verknüpfung von Wissen und Meinung z.B. Erstellung einer Buchrezension. In diesem Fall habe ich ChatGPT um Vorschläge für Rezensionen von J. Weizenbaums „Macht der Computer und Ohnmacht der Vernunft“ und H. Schellmanns „The Algorithm“ gebeten. Im ersteren Fall ist der Vorschlag passabel, aber auch nicht so gut, dass man darauf aufbauen möchte. Im zweiten Fall gibt die KI eine vollkommen generische Rezension ab, die fast nichts mit den Inhalten zu tun hat. Worin besteht der Unterschied? Weizenbaums Buch ist seit 1978 auf dem Markt, x-fach diskutiert und rezensiert worden d.h. Unmengen von Trainingsdaten stehen zur Verfügung. Dies trifft auf Schellmanns Buch nicht zu.
- Kreativität, hier eine Winterlandschaft plus Text als Illustration für meinen Newsletter. Dies klappt klasse, insbesondere wenn man der KI als Referenz einen Stil oder bekannten Maler nennt. Jedoch scheitert die KI erstaunlicherweise daran, einen einfachen Text korrekt ins Bild einzufügen, wie man hier sieht.
Diese zugegebenermaßen willkürlich gewählten Beispiele illustrieren, was Ethan Mollick als die „Jagged frontier“ bezeichnet, d.h. eine Grenze zwischen KI und menschlicher Intelligenz, die unklar ist, erstaunliche Vorstöße ermöglicht und sich ständig weiterentwickelt. Da es kein Standardrezept für alle Themen, konkreten Aufgaben und möglichen Rollen gibt, hilft nur ein ständiges Ausprobieren. Die Ergebnisse sind argwöhnisch zu prüfen und fallweise ist zu entscheiden, ob z.B. die Zeitersparnis durch Einsatz der KI mögliche Unschärfen und Prüfungsaufwand rechtfertigt. Mollick empfiehlt, sich die KI wie einen sehr smarten und ehrgeizigen Praktikanten oder Praktikantin vorzustellen. Er oder sie können großen Mehrwert stiften, aber verstehen Fachthemen (noch) nicht und vor allem werden sie nie sagen: „Das kann ich oder weiß ich nicht.“
Wenn der Algorithmus übernimmt: KI im Personalwesen
Ein Beispiel was passiert, wenn man den Praktikanten oder exakter formuliert den Algorithmus alleine lässt, zeigen die Analysen von Hilke Schellmann zur Nutzung von KI im Personalwesen bei großen US-amerikanischen Firmen. So werden Kernprozesse von der Einstellung bis zur Kündigung an KI-Tools übertragen, ohne dass die grundlegende Logik für Entscheidungen durchdacht wurde noch die Ergebnisse qualitätsgesichert werden. Wer mehr erfahren möchte, lese „The Algorithm“ von Hilke Schellmann, die das Thema investigativ und spannend analysiert hat. Dieses Vorgehen widerspricht dem oben genannten Konzept der „jagged frontier“ und resultierenden Notwendigkeit für eine kritische und kontinuierliche Überprüfung der Ergebnisse. Noch wichtiger und gefährlicher ist das freiwillige „Abdanken“ des Managements auf Basis einer naiven Technologiegläubigkeit in Verbindung mit einem falsch verstandenen Effizienzgedanken.
Lernen mit KI oder woher kommt die Expertise?
Die bisher geschilderten Beispiele beschäftigten sich mit der Frage, wie wir aktuell mit KI umgehen und welche Risiken sich ergeben. Die nächste logische Frage ist, wie die dynamische Entwicklung von KI und menschlichen Fähigkeiten aussehen könnte. Hierbei solle es nicht um das beliebte Thema gehen, wie viele Jobs sich verändern oder wegfallen werden, sondern darum, wie wir langfristig die notwendige Expertise aufrechterhalten und ausbauen können, um KI Tools zu steuern und weiter zu entwickeln.
Ein erhellendes Beispiel ist der Einfluss auf KI auf Studierende an Hochschulen und Universitäten, da diese Beobachtungen Gültigkeit für fast alle Lernprozesse – auch in Unternehmen – haben. Je nach Studienfach werden KI-Tools mehr oder minder stark z.B. für das Schreiben von Seminar- und Abschlussarbeiten genutzt, welches das Ziel der schriftlichen Arbeiten, das selbständige Denken zu üben, zumindest teilweise ad absurdum führt.
Daraus ergibt sich die grundsätzliche Herausforderung, wie Expertise in Zeiten von KI aufgebaut werden kann. Gehen wir davon aus, dass der Erwerb von Expertise auf Basis von konkretem Wissen und dem kritischen und vielfach wiederholten Umgang mit diesem beruht. Wie sollen Studierende und alle „Lernende“ in Unternehmen Expertise aufbauen, wenn KI-Tools einen verführerisch leichten Ausweg bieten? Die Schärfe dieses immanenten Widerspruchs besteht darin, dass genau diese Expertise zukünftig in immer stärkerem Maße benötigt wird. Oder um es konkreter zu formulieren: wenn allgemein verfügbares Wissen von KI-Tools schnell, billig und verhältnismäßig zuverlässig produziert wird, worin besteht dann die Differenzierungsmöglichkeit zukünftiger Berufsanfänger? Vermutlich in der Expertise, kritisch Problem anders zu analysieren, zu hinterfragen und zu lösen – sprich zu hirnen!
So what? Who Cares?
Künstliche Intelligenz prägt unser Berufsleben, wird es weiter verändern und uns ermöglichen, repetitive Aufgaben zu delegieren, einen virtuellen Sparringspartner zu haben oder uns vielleicht sogar zu neuen Ideen inspirieren. Wie wir dies konkret tun, hängt vom jeweiligen Thema, der Fragestellung und der Rolle ab, die wir der KI zuweisen. Gleichzeitig ist die weitere Entwicklung von KI-Lösungen und ihre Auswirkungen auf Arbeitsleben und Gesellschaft noch weitgehend unklar. Jedoch scheint bei allem fallspezifischen Handeln und genereller Unsicherheit bezüglicher Entwicklungen eines klar: die Notwendigkeit, weiter zu „hirnen“ d.h. sich selbständig Wissen anzueignen, Annahmen und tradierte Aussagen zu reflektieren und diese Expertise im Umgang mit der KI einzusetzen. Diese Aufforderung klingt vielleicht trivial, weil selbstverständlich. Jedoch ist die Umsetzung alles andere als trivial, denn es bedarf der anstrengenden intellektuellen Arbeit, des Mutes, Annahmen und Prozesse in Unternehmen zu hinterfragen, und die eigene Rolle zu überprüfen. Nur wenn Entscheider in Unternehmen, Hochschulen und anderen Organisationen, diese intellektuelle Arbeit leisten und resultierende Klarheit vorleben und einfordern, können wir das Potenzial von KI nachhaltig und erfolgreich nutzen. In diesem Sinne: „Hirnen Sie weiter!“
Let’s talk!
Wählen Sie Ihren persönlichen Wunschtermin für einen 30minütigen Videocall. Oder schreiben Sie mir gern eine E-Mail: info@paddags.com
Copyright © 2025 Dr. Paddags Consulting GmbH