Im Umgang mit KI empfehle ich Unternehmer:innen entspannten Pragmatismus. Keine Vogel-Strauß-Taktik und kein Der-Masse-Nachlaufen. Das erscheint nicht immer einfach, da hier viele Irritationen, Unsicherheiten und Ängste vorliegen. Diese entstehen dann, wenn Themen von Vielen diskutiert, aber von Wenigen verstanden werden. Wen wundert’s: Hier verspricht Ihnen ein IT-Experte selbstfahrende Autos, dort erklärt Ihnen eine IT-Expertin, dass diese nie kommen werden und Forschungen dazu schon eingestellt sind. Wem glauben Sie und warum?

„Wer nichts weiß, muss alles glauben.“ [1] Was ich nicht verstehe, kann ich nur wiederholen. So wie die Gleichung E = mc2. Wer versteht tatsächlich, was das bedeutet und wofür es nützlich ist? Nur wenige würden sich jetzt zu Wort melden. Manche würden ihre Unkenntnis ignorieren oder ausblenden. Oder – um sich keine Blöße zu geben – vermeintlich „Wissenden“ nachlaufen und sich in Abhängigkeit vom Denken anderer begeben. So können nicht aktiv, fundierte Entscheidungen getroffen werden.

Beim Thema KI ist das so ähnlich. Wie verstehen Sie KI? In diesem Artikel soll es nicht nur um Wissen, sondern um den Prozess des Verstehens gehen.

1. Wissenschaft

Wissenschaft wird oft so verstanden, dass sie eine „Wahrheit“ verkündet. Aber kein:e seriöse Wissenschaftler:in  macht das. Wissenschaft bedeutet, ein Problem mithilfe wissenschaftlicher Methoden zu analysieren, Erkenntnisse daraus abzuleiten und diese für weitere Forschung bereit zu stellen, das heißt: Ergebnisse in den Kommunikationsprozess zu bringen.

Manche Forschungsergebnisse werden auch von einer breiten Öffentlichkeit diskutiert. So wie Einsteins E = mc2. Diese Gleichung wird als unumstößliche Wahrheit angenommen. Welches Phänomen beschreibt Einstein damit? Wie beginne ich meinen Verstehens-Prozess?

  • Der Versuch, die mathematische Ableitung nachzuvollziehen, wäre für mich ein Jahrhundertprojekt, ohne dass ich das Problem verstehen würde.
  • Nachzulesen, wie wird ein Ergebnis in wissenschaftlichen Kreisen diskutiert und erklärt, würde die Komplexität noch weiter erhöhen, ohne dass ich verstehe.
  • Sekundärliteratur und Rezensionen anderer Suchender?
  • Es bleibt nur noch übrig dem nachzuforschen, was die Ausgangsfrage war. Welches Problem hat Einstein mit seiner Erkenntnis gelöst? Hier kommen wir zu den Annahmen hinter den Erkenntnissen.

2. Fakten und Annahmen

Sie glauben etwas zu wissen? Dennoch dürfen Sie sich auch in diesen Fällen fragen, ob Sie nicht manchmal nur annehmen, etwas zu wissen. Ob Ihr Wissen nicht manchmal nur Wunschdenken ist. Sie nehmen an, das kann Ihnen nicht passieren, da Sie ausschließlich von Fakten ausgehen und sich gerne auf Zahlen stützen?

Zahlen – Daten – Fakten sind Begriffe, die gelegentlich synonym verwendet werden. Dabei sind Zahlen oft das Ergebnis von zugrunde liegenden Annahmen und somit nicht unumstößliche Fakten. In der Ökonomie beispielsweise werden Zukunfts-Prognosen und Erklärungen normalerweise basierend auf mathematischen Berechnungen erstellt. Nun ist die erste Schwierigkeit, aus Parametern und Variablen fundierte mathematische Funktionen abzuleiten, um präzise und möglichst realistische Aussagen tätigen zu können. Die zweite Schwierigkeit ist, die dabei verwendeten Parameter mit korrekten Daten zu füllen. Da diese nicht immer vorhanden sind  – beispielsweise weil zukünftige Daten eben nicht erhoben werden können – ist es nötig, realistische Annahmen zu treffen um sinnvoll etwas berechnen zu können. Und hierin liegt die dritte Schwierigkeit. Es kommt auch vor, dass Annahmen getroffen werden, die nicht sehr realistisch erscheinen, nur um überhaupt etwas berechnen zu können.

Als Anwender:innen, Konsument:innen, Interessierte sind wir oft derart mit den Ergebnissen, der Zahl oder dem Wort beschäftigt, dass wir nicht darauf achten, welche Annahmen genau zu jenen Erklärungen oder Daten geführt haben. Wir betrachten sie als „Fakten“. Oft sind wir so damit beschäftigt, Sachverhalte, Ergebnisse oder Erklärungen inhaltlich zu verstehen, dass wir gar nicht auf den Gedanke kommen, diese aufgrund zugrundeliegender  – möglicherweise fragwürdiger – Annahmen zu relativieren. Dabei sind gerade diese zugrundeliegenden Annahmen essentiell, um über die Güte bzw. Glaubwürdigkeit der Ergebnisse zu befinden. Und wenn ich die Annahmen nicht kenne, verstehe ich die Erkenntnis nicht.

3. Einsteins Gleichung E = mc2

Manchmal helfen uns erst die zugrunde liegenden Annahmen dabei, ein Ergebnis zu verstehen. In der Schule haben wir die Gleichung E = mc2 gelernt. Diese stand da wie eine Tatsache und so manche haben sich abgemüht herauszufinden, was Energie – Masse – Äquivalenz bedeutet und was man damit anfangen kann. Einsteins Formel wird leichter dadurch verständlich, wenn wir nachforschen, aufgrund welcher Annahmen er zu diesen Parametern bzw. dieser Gleichung kam.

Mir jedenfalls ging es so, nachdem mir ein zweiminütiges Video den Eindruck vermittelt hat, etwas grundsätzlich verstanden zu haben. Daher will ich es kurz wiederholen:

Zur Herleitung der Formel setzte Einstein zwei wissenschaftliche Erkenntnisse als Fakten voraus: 1. den Schwerpunktsatz und 2. die Erkenntnis, dass Lichtimpulse Objekte bewegen können.

Der Schwerpunkt befindet sich im Mittelpunkt einer Masse. Der Schwerpunktsatz besagt, dass in einer Ansammlung von Massen der Schwerpunkt nie durch innere Kräfte aus dem Mittelpunkt gezogen werden kann, sondern nur durch äußere Faktoren.

Aus der Elektrodynamik kamen Erkenntnisse, dass Licht einen Impuls besitzt und Objekte in Bewegung versetzt. Die Größe des Lichtimpulses (p) ist die Energie des Lichts (E), geteilt durch die Lichtgeschwindigkeit (c), also p = E/c.

Aufbauend auf diesen Erkenntnissen startete Einstein ein Gedankenexperiment, das ihn zum Schluss führte, dass das Licht eine kleine Masse (m) verlagert hat, und nur dadurch kann der Schwerpunkt konstant bleiben. Es folgt die Berechnung, dass das Licht genau diese Masse m = E/ c2 verlagert hat, damit sich der Schwerpunkt nicht bewegt. Es gilt also E = mc2. Das heißt, dass jede Form der Energie in einem System zur Masse des Systems beitragen muss. Energie und Masse müssen also vollkommen äquivalent sein, damit die zugrunde liegenden Gesetze gültig bleiben. [2]

Auch diese mathematische Beweisführung, mit der wir uns ein Stückchen der Welt erklären können, gilt nur solange, bis jemand die zugrunde liegenden Gesetze oder die Beweisführung in Frage stellt. So etwas ist immer wieder passiert, obwohl es zuvor völlig undenkbar war, dass sich etwas, das als „Fakt“ verstanden wurde, als falsche Annahme herausstellt. Denken Sie an die „drei Kränkungen der Menschheit“ [3] durch Galileo Galilei, Charles Darwin und Sigmund Freud, die mit ihren wissenschaftlichen Erkenntnissen jeweils ein ganzes Weltbild zerstört haben.

4. Annahmen im Unternehmen

Auch in Unternehmen treffen wir täglich Annahmen, um (durch diese Reduktion der Komplexität) zu Ergebnissen kommen zu können. Es gibt Annahmen, mit denen wir uns – oft unausgesprochen – firmenintern auf ein gemeinsames Verständnis einigen.

Das kann der normative Rahmen [4] von Unternehmen sein, der angibt welche Normen und Werte, welche Unternehmenskultur und welche Kommunikation für das jeweilige Unternehmen gelten. Und damit auch, was in diesem Unternehmen die „No Gos“ sind. Es ist eine Orientierung für die Mitarbeiter:innen wenn klar ist, wo will das Unternehmen hin, was ist seine Ausrichtung, seine Vision. Und wenn vorgegeben ist, was ist die Mission des Unternehmens, was ist sein Zweck. Welche Werte werden hochgehalten und was hat keinen Platz.

Die Bestandteile dieses normativen Rahmens werden oftmals explizit ausformuliert in sogenannten Unternehmens-Leitbildern. An erster Stelle steht dabei die Unternehmens Vision. Die Vision gibt eine Orientierung, wohin sich das Unternehmen entwickeln will, was wird angestrebt wird, wo sieht es sich langfristig. Unternehmensvisionen können eine große Motivation für Mitarbeiter:innen sein, wenn sie die Vision akzeptieren und für erstrebenswert halten. Das was da entwickelt wurde, kann im Arbeitskontext durchaus sinnstiftend sein. In der Unternehmensvision werden ganz wesentlich die mitgedacht, die die Produkte oder Leistungen des Unternehmens nachfragen. Welchen langfristigen Nutzen stiftet das Unternehmen seinen Kund:innen. Dies deutlich zu machen wird in Unternehmen immer wichtiger, wenn es manchmal auch nur eine Kreativitätsübung der Marketingabteilung ist.

Es verschafft Klarheit, wenn die geltenden Werte nicht nur ausgedrückt, sondern im Unternehmensalltag gelebt werden. Loyalität ist beispielsweise gerade in Familienunternehmen ein Wert, der allen eine gewisse Sicherheit bietet. Dieser Wert kann nicht verordnet werden, so etwas muss als gelebte Unternehmenskultur erlebt werden. Gleiches gilt für Vertrauen und andere Werte.

Veränderungen wie Firmennachfolgen, können mit veränderten Annahmen, mit einem geänderten Verständnis über Werte etc. so etwas wie eine „Welterschütterung“ darstellen. Diese wird nicht von allen Betroffenen akzeptiert, denn Veränderung wirft aus der Sicherheit. Die Emotion dahinter ist die Angst.

Es hilft, wenn eigene Annahmen ausgesprochen werden, denn dann kann widersprochen werden. Dann erst können Missverhältnisse und Missverständnisse geklärt und bereinigt werden. Dann erst kann weiter gearbeitet werden.

Beispielsweise wenn Sie sich als Führungskraft für digitale Tools begeistern und annehmen, dass Ihre Mitarbeiter:innen von deren Notwendigkeit ebenso überzeugt sind wie Sie. Wenn Sie annehmen, dass sich alle sofort in die Umsetzung Ihrer Digitalisierungsprojekte stürzen werden. Dann verkennen Sie, dass da Angst ist, Widerstand entsteht und so ein ganzes Digitalisierungsprojekt „in den Sand gesetzt“ wird.

Genauso ist es umgekehrt, wenn Sie als Führungskraft nicht die impliziten Annahmen Ihrer Mitarbeiter:innen kennen. Bitte greifen Sie nicht einfach Vertrauen heischende Marketingsprüche aus der IT Branche auf, die etwa fordern, KI als Teil des Teams zu sehen. Warum sollten Sie eine Maschine oder ein Software Programm als Mitarbeiter:in betrachten? Das beleidigt die Intelligenz und ist kontraproduktiv, denn KI ist genauso wenig Ihr Kollege wie „Alexa“ Ihre Frau ist. So verstärken Sie nur Widerstand. Wenn Sie beispielsweise verkünden, dass KI jetzt „Teil des Teams“ wird und es geht das Gerücht um, dass deswegen ein anderer Teil der Belegschaft gekündigt wird, aber niemand spricht diese Ängste aus. Nun, es gibt wohl kein probateres Mittel, ein Projekt zum Scheitern zu bringen, als es einem Team zu übergeben, das sich misstraut.

Was hilft? Klarheit, Offenheit, Transparenz. Und klare Worte, selbst wenn diese nicht immer angenehm sind.

Wie sieht es aus mit den Annahmen hinter KI, mit Offenheit und Transparenz? Was sind Ihre Annahmen, worum es sich bei künstlicher Intelligenz handelt?

5. Generative Künstliche Intelligenz und Sprachmodelle

Wird heute von KI gesprochen, dann sind damit hauptsächlich generative KI Modelle gemeint. Es gibt aber nicht „eine“ KI, sondern verschiedene KI-Modelle mit unterschiedlichen Formen des maschinellen Lernens. Sie unterscheiden sich auch im Umgang mit Daten sowie im Output.

Generative KI Modelle werden eingesetzt um aus Trainingsdaten neue Daten bzw. Inhalte zu erzeugen. Diese KI generiert, das heißt sie „erfindet“ etwas, das ähnliche statistische Eigenschaften hat wie ein vorgegebener Datensatz. So können beispielsweise Text, Bilder, Audio, Video, Programmcode, 3D-Modelle oder Simulationen erzeugt werden, je nach den Anweisungen der Nutzer:innen und den Datensätzen, mit denen das Modell gefüttert und trainiert wurde. [5]

Dem liegen Basismodelle, sogenannte Foundation Models zugrunde. Dabei handelt es sich um große maschinelle Lernmodelle, die auf Basis einer großen Menge allgemeiner Daten trainiert wurden. Nach diesem Basistraining können die Modelle für eine Vielzahl spezifischer Aufgaben feinjustiert werden.

Zu den Basismodellen gehören die großen Sprachmodelle (Large Language Models – LLMs). Daneben gibt es auch visuelle und multimodale Basismodelle, die beispielsweise aus Text Bilder erzeugen.

Large Language Models besitzen Milliarden von Parametern und beherrschen komplexe Aufgaben wie Textklassifikation, Textgenerierung, Sprachübersetzung und Frage-Antwort-Systeme. Diese LLMs wurden für die Verarbeitung natürlicher Sprache mit großen Mengen von Textdaten trainiert. Dabei lernen sie, Texte fortzusetzen, indem sie statistische Beziehungen zwischen Wörtern herstellen. So baut KI Wissen über Syntax, Semantik und Ontologie der Sprache auf und generiert einen Text.

Nach diesem Vortraining können die Basismodelle für ihren spezifischen Einsatz feinjustiert werden, beispielsweise für die Nutzung als Chatbot. Ihre „Transformer-Architektur“ ermöglicht die effiziente Verarbeitung großer Datenmengen und die Berücksichtigung entfernter Abhängigkeiten in Daten. [5]

Bei dem sehr bekannten Softwareprogramm Chat GPT handelt es sich um generative KI. GPT steht für Generative Pre-trained Transformer. Es wertet aus, mit welcher Wahrscheinlichkeit welche Wörter auf die Begriffe folgen, die Sie in Ihren Anweisungen, den sogenannten „Prompts“, verwendet haben. Dann generiert es einen Text, indem es Wörter im Baukastensystem zusammensetzt. Man könnte sagen, das was am häufigsten vorkommt, wird reproduziert.

Diese Texte als Grundlage für eigene Arbeiten zu verwenden, kann sicherlich eine große Arbeitserleichterung sein, denn Selber-Denken braucht Zeit. Diese Texte klingen gut, sie können auch Sinn machen. Den Anspruch auf Wahrheitsgehalt dürfen Sie nicht stellen, der Text wurde ja erfunden. Die Art, einen Text so zu erstellen, ist ein sehr rascher Ideen-pool. Wirklich innovativ wird der Text nicht sei, da er nur Mehr-vom-Gleichen produziert. Mit all den damit zusammenhängenden Nachteilen, dass sich Stereotype, Diskriminierungen, Vorurteile etc. verfestigen. Chat GPT wird uns wohl nicht intelligenter machen, da es wiederholt, was am häufigsten in seinem Datenspeicher vorkommt, dazu gehören auch die Texte, die es selbst erfunden hat. Derart selbstreferenzielle Modelle senken zwangsläufig das Niveau.

Auf welche Daten Chat GPT und andere generative Modelle zugreifen, ist nur eines von vielen Geheimnissen, das IT Konzerne nicht lüften.

6. Der Transparez Index FMTI

Um die Transparenz von Basismodell Entwicklern zu bewerten, hat das Center for Research on Foundation Models (CRFM) der Stanford Universität [6] im Jahr 2023 ein neues Bewertungssystem entworfen, den Foundation Model Transparency Index (FMTI). Der FMTI Index evaluiert Transparenz basierend auf 100 verschiedenen Indikatoren.

Etwa ein Drittel der Indikatoren bezieht sich auf die Art und Weise, wie ein Unternehmen ein Basismodell erstellt. Das beinhaltet Informationen über Trainingsdaten und inwieweit urheberrechtlich geschütztes Material als Trainingsdaten verwendet wird. Weiters Informationen über Arbeitspraktiken und die Arbeit, die zur Erstellung verwendet wurde sowie der damit verbundenen Rechenressourcen.

Ein weiteres Drittel befasst sich mit dem Modell selbst, wie es funktioniert, wie vertrauenswürdig es ist, welche Risiken es birgt und wie diese reduziert werden.

Das letzte Drittel beinhaltet Indikatoren, wie Daten von den Konsument:innen zum Server übertragenen werden, ob Unternehmensrichtlinien offengelegt werden, wie es um den Datenschutz bestellt ist und ob das Unternehmen Möglichkeiten für Feedback oder Entschädigung für betroffene Personen bietet etc.  

Mit diesem Index wurden 2023 zehn Basismodell Entwickler bewertet. Die Unternehmen mit der höchsten Punktezahl erreichten etwa die Hälfte der Transparenzkriterien – ein Ergebnis, das in Schulnoten mit „nicht genügend“ bewertet würde. Das Unternehmen mit der niedrigsten Punktzahl erfüllte nur 12 Prozent der Transparenzkriterien. Der Durchschnitt liegt bei 37 Prozent.

Drei von den zehn evaluierten Unternehmen hat das CRFM als Entwickler von Open Source Modellen klassifiziert. Die höchste Punktzahl erhielten zwei der drei Open Source Modelle: Meta’s Llama 2 erreichte 54 von 100 Transparenzkriterien, BLOOMZ von Hugging Face 53 Prozent. Stability.ai, der dritte Entwickler von Open Source Modellen, landete mit 47 erfüllten Transparenz Kriterien für Stable Diffusion 2 am vierten Platz.

OpenAI ist kein Open Source Entwickler, auch wenn der Firmenname dies vermuten lässt. GPT-4 von OpenAI liegt mit 48 Prozent auf dem 3.Platz. Google‘s PaLM2 liegt mit 40 erfüllten Transparenzkriterien noch über dem Durchschnitt von 37 Prozent. Darunter liegen Anthropic’s Claude2, cohere’s Command, Jurassic-2 von ai21 und Inflection’s Inflection-1. An letzter Stelle liegt TitanText von Amazon mit 12 von 100 Transparenzkriterien.

Neun der zehn Unternehmen, die evaluiert wurden, haben sich freiwillig verpflichtet, die Risiken von KI zu managen. Das Center for Research on Foundation Models der Stanford Universität ist zuversichtlich, dass der neu veröffentlichte FMTI und der Vergleich mit den anderen Unternehmen sie motivieren wird, diese Zusagen zu befolgen, indem sie die Transparenz erhöhen. OpenAI hat allerdings klar gemacht, dass es die meisten Aspekte seines Flaggschiff-Modells GPT-4 nicht transparent machen wird. Eine weitere Hoffnung des CRFM ist, dass der Transparenz Index den politischen Entscheidungsträger:innen zu einer wirksamen Regulierung von Basismodellen verhelfen wird. [6] Auf all das werden wir wohl noch ein paar Jahre warten müssen.

7. Empfehlungen

Intransparenz hinterlässt Unklarheit über Interessen, Vorgehensweisen, Datennutzung etc. und führt dadurch zu Irritationen, Unsicherheiten und Ängsten.

Die Annahme, dass man den Technologien, die man so gut und so gerne verwendet, einfach vertrauen kann, war noch nie zutreffend. Die Annahme, dass wir IT-Expert:innen sind, wenn wir digitale Tools mit Leichtigkeit intuitiv benutzen können, leider auch nicht.

Die Annahme, dass IT Expert:innen mehr über Interessen, Vorgehensweisen, Datennutzung der IT Konzerne wissen, kann spätestens seit Veröffentlichung des Transparenz Index nicht mehr aufrecht erhalten werden. Auch Expert:innen können Ihnen zu diesen Problemen nur die jeweils eigenen Annahmen mitteilen. Selbstverständlich bleiben IT Expert:innen Ihre Ansprechpesonen in Fragen rund um Digitalisierung, KI und deren Implementierung im Unternehmen, denn darin sind sie Fachexpert:innen. Aber Fachexpert:innen können Ihnen keine Verantwortung abnehmen.

Digitalisierung bleibt, was es immer schon war: eine strategische Entscheidung. Eine Verantwortung, die Sie für sich und Ihr Unternehmen übernehmen müssen, die Sie nicht an die IT Abteilung delegieren können. Und das bei so viel Unklarheit, Intransparenz, Unsicherheit und Ängsten. Letztere können wir nicht wegdenken oder wegschieben, wenn sie uns unangenehm sind.

Es geht nicht um Vertrauen, denn blindes Vertrauen ist in der digitalen Welt grundsätzlich nicht angebracht. Hier geht es um Klarheit und um Schutz, nicht um Scheuklappen. Um Verantwortung, um verantwortungsvolles Handeln, auch bzw. gerade bei Informationsdefiziten.

Hier geht es um Risikoabwägung. Mit welchen Risiken müssen Sie rechnen, wenn Sie digitale Tools und KI einsetzen. Mit welchen Risiken müssen Sie rechnen, wenn Sie diese nicht einsetzen. Was könnte den größeren Schaden verursachen und wie können Sie diesen jeweils minimieren.

Auch umgekehrt: Welche Chancen, Potentiale und Nutzen bieten Ihnen der Einsatz von digitalen Tools und KI. Wieviel Neugier erlauben Sie sich? Vielleicht entdecken Sie sogar, dass Ihnen bestimmte Tools richtig Spaß machen.

Insgesamt geht es um eine gehörige Portion Pragmatismus – um wieder handlungsfähig zu werden bzw. zu bleiben. Um auch im Umgang mit KI klare, pragmatische Entscheidungen treffen zu können. Damit es gut weiter geht. Sprechen wir darüber.  

AnnA wirkt   II  anna-wirkt.at

Quellen

[1] Ebner-Eschenbach, von, Marie (1893): Aphorismen. Aus: Schriften. Bd. 1, Paetel, Berlin, S. 21

[2] 100SekundenPhysik (2022): Einsteins geniale Gedankenspiele, 16.12.2022, https://www.youtube.com/watch?v=62IelKdqzdQ, (aufgerufen am 13.03.2024)

[3] Welt.de (2014), Wenn das Weltbild zusammenbricht: Die 3 Kränkungen der Menschheit, 15.02.2014, https://www.welt.de/geschichte/article160308329/Die-drei-Kraenkungen-der-Menschheit.html, (aufgerufen am 13.03.2024)

[4] Vahs, Dietmar, Schäfer-Kunz, Jan, (2021): Einführung in die Betriebswirtschaftslehre, Verlag Schäffer-Poeschel, Stuttgart

[5] Club Niederösterreich (Hg) (2024), Künstliche Intelligenz – Kooperative Kollegin oder Konkurrentin außer Kontrolle? Verlag Club Niederösterreich, Pixendorf

[6] Miller, Katharine (2023), Transparency Index, Center for Research on Foundation Models (CRFM), 18.10.2023, https://hai.stanford.edu/news/introducing-foundation-model-transparency-index, (aufgerufen am 24.02.2024)