Kürzlich habe ich den Artikel KI inside: Aufs Etikett oder doch besser auf den Beipackzettel? geschrieben.
Er war stark von der Perspektive von Unternehmen, die Software herstellen, geprägt: die im Moment am liebsten auf jedes Software-System draufschreiben, dass „KI drin ist“. Jetzt geht es stärker um die Perspektive von Anwendern und Anwenderunternehmen, die Software nutzen.
Hintergrund des früheren Artikels war, dass KI oft als Merkmal für Innovationskraft betrachtet wird und deshalb drin sein muss. Ich hatte stark dafür plädiert, dass KI doch bitte als „Material“ zu betrachten ist und dass es eben drauf ankommt, was man dann draus macht und welchen Nutzen ein Produkt durch den Einsatz bieten kann. Dazu hatte ich mich schon mit der Frage auseinandergesetzt, was es überhaupt bedeutet, dass KI in einem System drin ist und wie viel KI denn eigentlich „genug“ ist.
In der Zwischenzeit ist eine Perspektive hinzugekommen, an die ich vor einem halben Jahr so überhaupt nicht dachte: Es gibt auch Kontexte und Organisationen, in denen gerade der Wunsch zu sein scheint, dass in ihrer Software keine KI drin ist. Hier ist das Nicht-Enthaltensein von KI dann eher als Merkmal für Unbedenklichkeit und Zuverlässigkeit interpretiert.
Manchmal ist auch ”Keine KI inside” das Ziel
AI Act
Leider hat der AI Act der EU auch bei Anwenderunternehmen für Verunsicherung gesorgt. Die in letzter Zeit häufig zitierte KI-Kompetenz-Schulung, die selbst für Anwender-Unternehmen ab Februar 2025 verpflichtend ist, führt nicht gerade zu Aufbruchstimmung. Gerade bei risikoaversen Organisationen wie Behörden führt das dazu, dass man eher versucht, auf der sicheren Seite zu sein und eben Software-Systeme „ohne KI“ bevorzugt.

„Ohne KI“ fühlt sich dann nach „unbedenklich“, „risikofrei“ und „besonders zuverlässig“ an.
Die Konsequenz ist dann natürlich, dass wegen oberflächlicher Betrachtung sehr viele Chancen im Keim erstickt werden.
Bildungssystem
Es gibt noch einen weiteren Bereich, bei dem die Diskussion häufig suggeriert, „ohne KI“ sei der erstrebenswerte Zustand: In der Bildung. Natürlich ist das ein Thema mit sehr vielen Facetten, und ich will dieses in diesem Artikel nicht umfänglich diskutieren.
Warum wird KI in der Bildung häufig so negativ gesehen? Weil die Möglichkeit besteht, dass Aufgaben und Leistungsnachweise mithilfe von KI gelöst werden, es kann also geschummelt werden. Natürlich konnte man auch früher schon seine Hausarbeit von jemandem anderen schreiben lassen (war auch nicht erlaubt), das war aber ein viel höherer Aufwand (vor allem für die andere Person). Heute geht es quasi auf Knopfdruck.
Im Bildungssystem ist also zunächst mal die Frage, welche Kompetenzen gelernt werden sollen. Und dazu gehört auf jeden Fall, dass man selbst in der Lage ist, Themen zu strukturieren, zu diskutieren und zusammenhängende Texte zu produzieren. Das sollte auch hinreichend oft geübt werden, sonst ist es einfach nicht gelernt.
Dass darauf aufbauend aber auch die Nutzung von KI seine Berechtigung hat, erscheint ziemlich einleuchtend. Und deren sinnvolle Verwendung muss auch gelernt werden. Es ist ein bisschen wie mit dem Taschenrechner. Zunächst muss jeder lernen, wie man grundsätzlich rechnet und das Prinzip verinnerlichen. Dann darf gerne der Taschenrechner verwendet werden.

Es gibt aber immer wieder Bereiche in der Bildung, in denen die ganz klare Aussage ist: „Der Einsatz von KI ist verboten“. Das mag in gewissen Fällen mit Recht so sein, aber sicher nicht immer. (Siehe Handelsblatt-Briefing vom 15.03.2024.) Hier ist also ganz klar Differenzierung notwendig, sonst wird die Verwendung von KI einerseits nicht sauber erlernt und fristet andererseits ein Schattendasein im Graubereich, dem immer etwas Illegales anhaftet.
”Ist da jetzt KI drin oder nicht?”
Während im letzten Artikel die Perspektive eher war, wie viel KI in einem Software-System drin sein muss, damit guten Gewissens das Label „KI inside“ drauf darf, ist jetzt die umgekehrte Perspektive spannend. Nehmen wir also mit den oben genannten Beispielen an, dass es ab und zu wirklich wichtig ist zu wissen, ob irgendwo KI drin ist oder nicht.
“
Diese Frage ist logischerweise genauso schwierig zu beantworten, wie die Frage „ob KI drin ist“.
Sie fühlt sich nur irgendwie noch kritischer an:
- Wenn jemand bestätigt „da ist keine KI drin“ und es ist doch KI drin, dann fühlt sich das nach Fahrlässigkeit oder gar vorsätzlicher Täuschung an. So ähnlich, wie wenn man einem Allergiker wider besseren Wissens sagt „da sind keine Nüsse drin“, „da ist keine Milch drin“. Oder auch „da ist kein Asbest drin“.
- Wenn jemand bestätigt „da ist KI drin“ und es ist doch keine KI drin, dann fühlt sich das eher nach Etikettenschwindel und leichter Übertreibung an. Also eher danach, das eigene Produkt ein bisschen schöner darzustellen, als es ist.

Wie nähert man sich also der Frage, ob in einem Software-System KI drin ist?
Zunächst könnte man fragen: Ist KI wirklich im Produkt enthalten, oder war sie nur am Entwicklungsprozess oder Produktionsprozess beteiligt?
„KI im Produktionsprozess beteiligt“ scheint weniger problematisch, weil das eigentliche Software-System dann immer noch „frei von KI“ sein kann. Ob das wirklich der bessere Zustand ist, sei mal dahingestellt.
Wenn man sich auf die Suche nach „KI in Software-Systemen“ macht, dann ist KI ja nicht einfach „als Bauteil reingebaut“. Sie ist vielmehr die technische Grundlage, um Features des Systems zu realisieren. Und das kann auf unterschiedlichste Art und Weise geschehen. Vor allem kann KI in jeder erdenklichen Menge enthalten sein: Von „es ist fast alle Logik durch KI umgesetzt“ bis hin zu nahezu vernachlässigbaren Mengen im Bereich „kann Spuren von KI enthalten“ oder „KI in homöopathischen Dosen“.
Machen wir ein Beispiel. Stellen wir uns eine HR-Software vor. Also eine Software fürs Personalwesen (Human Resources).
Eine solche Software hat typischerweise hunderte oder tausende Features und unterstützt sehr unterschiedliche Prozesse rund ums Personal in einem Unternehmen. KI könnte jetzt unterschiedlichste Dinge unterstützen oder automatisieren. Hier nur ein paar wenige Beispiele:
- Automatisierte Zuordnung von eingehender Kommunikation auf unterschiedlichsten Wegen (Telefon, E-Mail, Post, …) zu einer Person und ihrem Vorgang.
- Korrektur und Überarbeitung von Texten, die vom internen Personal nach außen geschickt werden sollen.
- Chatbot für einfache Fragen von Bewerbern, die direkt beantwortet werden können und sollen.
- Zusammenfassung von Bewerbungen für die schnellere Sichtung.
- Klassifikation von Bewerbungen nach Qualität und Priorität der Bearbeitung.
Manche Features kann man mit KI besser oder auch einfacher umsetzen. Es gibt aber auch viele solcher Features, die schon seit Jahrzehnten umgesetzt werden, ganz ohne Einsatz von KI.

Damit stellt sich natürlich auch die Frage, wann denn überhaupt etwas als „KI“ gilt. Es gibt viele Definitionen mit unterschiedlichen Schwerpunkten. Viele sind für die Frage „Ist da KI drin?“ wenig hilfreich (z.B. „Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“)
Wenn es um den gegenwärtigen Einsatz von KI geht, ist mit KI fast immer gemeint, dass „Maschinelles Lernen“ verwendet wird, um mithilfe eines Lernverfahrens auf (großen) Datenmengen ein Modell (z.B. ein neuronales Netz) zu trainieren. Dieses Modell wird dann verwendet, um im entwickelten Softwaresystem aus gewissen Input-Daten gewünschte Output-Daten zu errechnen (z.B. aus dem Bild des Backofeninhalts abzuleiten, ob es sich um einen Braten oder um eine Torte handelt).
Man könnte also vielleicht sagen, die Abwesenheit von Features, die auf maschinellem Lernen beruhen, und damit ein zumindest wahrgenommen höherer Grad an Determinismus, lässt sich als „da ist keine KI drin“ interpretieren.
„Von außen“, also aus Sicht der Nutzer und des nutzenden Unternehmens lässt sich in den meisten Fällen überhaupt nicht erkennen, wie bestimmte Features umgesetzt werden: also mit oder ohne KI. Manche Features, wie z.B. ein leistungsstarker Chat-Bot deuten allerdings stark auf die Verwendung von KI hin, weil solche Leistungen auf „üblichem Wege“ kaum erreicht werden können. Eine solche Einschätzung hängt aber auch sehr stark von der Erfahrung und Kompetenz der einschätzenden Person ab.
Hier kommt es also wieder auf das „Etikett“ an und dass der Hersteller einer Software ehrlich beschreibt, wie ein Software-System realisiert ist.
Eigentlich geht es nicht darum, ob KI drin ist!
Wenn diese Frage dominiert, dann läuft schon etwas schief.
Wer zu sehr betont, dass KI drin ist, der hat nicht verstanden, dass das kein Wert an sich ist, sondern ein Mittel zum Zweck. Mit dem „Material“ KI kann man wahnsinnig viel erschaffen, es geht dann aber immer darum, was der Nutzen davon ist.
Wer darauf pocht, dass keine KI drin ist, der hat meistens diffuse Ängste und möchte irgendwelche bestimmten Risiken vermeiden. Es erscheint dann oft einfacher, radikale Forderungen zu stellen wie „keine KI drin“ als differenzierte Lösungen anzustreben. Und wenn es dann um Vorschriften und deren Einhaltung geht, dann wird gerne die Nadel im Heuhaufen gesucht, um doch noch sagen zu können, dass irgendwie eine Spur von KI enthalten sein könnte.

Deshalb mein Appell sowohl an die Ersteller von Software-Systemen als auch an die Anwender: Kümmert euch bitte differenziert um eure konkreten Ziele und präzise Darstellungen in allen Diskussion!
Das könnte zum Beispiel bedeuten, dass im Bildungssystem klar formuliert wird, dass zunächst gewisse Grundkompetenzen in der Textarbeit erlernt werden sollen und dass dabei keine Systeme wie ChatGPT verwendet werden dürfen. An anderer Stelle könnte es dann aber das Ziel geben, die Arbeit mit Systemen wie ChatGPT zu lernen, auszutesten, wie viel Effizienz dadurch gewonnen werden kann und wo vor allem die kritische menschliche Begutachtung notwendig ist, damit kein Unsinn passiert. Außerdem muss klar herausgearbeitet werden, welche Leistungen eigentlich bewertet werden sollen und welche Hilfsmittel dabei zulässig sind.
Im Fall von Unternehmen und Behörden könnte das bedeuten, sich viel klarer darüber zu werden, wo Risiken und z.B. Haftungsfragen liegen und wie diese beseitigt werden können. Diese Risiken können von möglichen Falschauskünften in Rechtssachen bis hin zu Datenschutzverstößen alles sein. Das Spektrum ist riesig, und es muss klar herausgearbeitet sein, was verhindert werden soll und welche Möglichkeiten sich aber trotzdem ergeben.
In aller Kürze also: Bitte nicht alles auf das Minimum verkürzen! Denn dann landet man bei „KI inside“ oder „keine KI inside“ und das nützt meistens weder als Zielstellung noch als Feststellung irgendjemandem.
Insgesamt müssen wir besser darin werden, die Chancen zu nutzen, die sich durch Technologien wie KI bieten. Vor allem wir in Deutschland und Europa!
Gleichzeitig ist kritisches Hinterfragen auch gut. Aber nicht, um alles zu verhindern, sondern um das Bestmögliche zu erreichen und gleichzeitig wach zu sein gegenüber wirklich bedrohlichen Risiken.
Und wenn wir mal ein paar Schritte in die richtige Richtung gegangen sind, dann dürfen wir das auch feiern. Aber bitte nicht, wenn noch fast nichts erreicht wurde. Und auch nicht so selbstgefällig, dass dann niemand mehr etwas macht, weil alle denken, das Ziel sei schon erreicht.
Matthias
0 Kommentare