Deutsche Vereinigung für Politikwissenschaft

Wie und warum verwenden zukünftige Verwaltungsentscheider*innen KI-basierte Informationen?

Autor: Tobias Krause

 

 

Künstliche Intelligenz (KI) ist ein Sammelbegriff, denn eine einzige Technologie, die sich als „Künstliche Intelligenz“ versteht, gibt es eigentlich nicht. Im allgemeinen Sprachgebrauch spricht man von KI, sobald eine Simulation menschlicher Intelligenz vorliegt, die es Maschinen ermöglicht, Probleme zu lösen, die ansonsten nur von Menschen gelöst werden könnten.

Großes Interesse an KI im öffentlichen Sektor

Das Interesse an KI-basierten Anwendungen im öffentlichen Sektor ist groß, denn die Systeme sind in der Lage, große Datenmengen in einer kurzen Zeitspanne zu verarbeiten. Nichtsdestotrotz bestehen zahlreiche Bedenken. KI-Anwendungen zur Bewertung von Szenarien werden oft als „Black Boxes“ empfunden und stehen dem Idealbild fairer und transparenter Entscheidungen entgegen. Ein aktueller Beitrag in der Zeitschrift dms untersucht unterschiedliche Intentionen im Hinblick auf die KI-Verwendung bei 109 Student*innen einer deutschen Verwaltungshochschule. Diesen wurde ein fiktives Szenario einer Förderentscheidung vorgelegt. Im Rahmen des Szenarios stand es den Studierenden frei, ein hypothetisches KI-Unterstützungssystem einzusetzen. Ausgangspunkt ist, dass zukünftige Verwaltungsentscheider*innen die KI kooperativ, sehr restriktiv oder auch in einer eher unreflektierten Weise anwenden können.

Es zeigte sich, dass die empfundene Überlegenheit des KI-Systems dabei eine große Rolle spielt. So kann die Einschätzung, dass ein KI-System dem Menschen gegenüber stark überlegen ist, beispielsweise dazu führen, dass KI-Empfehlungen tendenziell weniger häufig oder gar nicht überprüft werden. Wird die Expertise eines KI-Systems jedoch von einer Personengruppe als niedrig empfunden, so zeigt sich auch eine stärkere Tendenz zur Ablehnung der Technologie.

Mensch-Maschine-Interaktion kann zu Verzerrungen führen

Vollautomatisierte Verwaltungsakte sind in Deutschland nach § 35a Verwaltungsverfahrensgesetz (VwVfG) nur möglich, wenn weder ein Ermessens- noch ein Beurteilungsspielraum besteht. Eine KI-Unterstützung bei der Entscheidungsfindung wird dadurch jedoch rechtlich nicht ausgeschlossen. KI kann also in der Entscheidungsunterstützung eine wichtige Rolle einnehmen. Der gängige Fall ist, dass menschliche Entscheider*innen Informationen heranziehen, die durch eine (wie auch immer geartete) KI generiert wurden. Folglich besteht eine Mensch-Maschine-Interaktion.

Die Interaktion zwischen KI und dem Menschen kann jedoch besondere Verzerrungen hervorrufen und liefert teilweise schlechtere Ergebnisse als eine reine KI- oder menschliche Entscheidung. Besondere Verzerrungen wie der sogenannte Automation Bias führen etwa dazu, dass es zu einem übersteigerten Vertrauen in die neue Technologie kommt und Ergebnisse unreflektiert übernommen werden. Da die menschliche Informationsverarbeitung kognitiven Grenzen unterliegt, neigen Entscheider*innen dazu, Informationen zu kontextualisieren und danach zu strukturieren. Eine Vorauswahl durch eine KI könnte beispielsweise eine Ankerfunktion übernehmen und zu einer eher oberflächlicheren Entscheidungsfindung beitragen. Im Gegensatz dazu sprechen einige Studien von einer Aversion gegenüber maschinellen Entscheidungen. Ein besonderes Erkenntnisinteresse der Studie liegt daher darin, mit welcher Nutzungsintention KI-Systeme von zukünftigen Bürokrat*innen verwendet werden und welche individuellen Einflussfaktoren darauf einwirken.

Zur Erklärung der Nutzungsabsicht werden unterschiedliche Theorieansätze verwendet, beispielsweise auch das sogenannte Technologie-Akzeptanz-Modell nach Davis (1986), das davon ausgeht, dass die Nutzung von den Faktoren Einfachheit in der Bedienung und wahrgenommener Systemnutzen beeinflusst wird (siehe Abbildung 1).

 

 

 

 

Alternative Erklärungsmöglichkeiten stellen unter anderem das Systemvertrauen, die wahrgenommene Überlegenheit des Systems oder das Kompetenzerleben der Anwender*innen in den Mittelpunkt. In einer großen Anzahl von Studien wurde allerdings nur auf die Absicht zur Verwendung (im Sinne einer ja/nein Entscheidung) abgezielt, nicht aber auf unterschiedliche Nutzungsintentionen (= das „Wie“ der Nutzung). So macht es beispielsweise einen Unterschied, ob die KI-Unterstützung als kooperativer Prozess begriffen wird, man die Information durch die KI nur passiv aufnimmt oder man sich vollständig auf die Empfehlungen eines KI-Systems verlässt.

Vignettenstudie mit zukünftigen Entscheider*innen untersucht verschiedene Nutzungsintentionen

In einer Vignettenstudie unter zukünftigen Bundesbürokrat*innen wurden daher vier verschiedene Intentionen voneinander unterschieden: (1) eine direkte Übernahme der KI-Entscheidung, (2) eine reflektierte Entscheidung unter Berücksichtigung der KI-Empfehlung, (3) eine reine Kenntnisnahme der Empfehlung sowie (4) ein Ignorieren des KI-Systems. Dazu wurde den Befragten ein fiktives Szenario der Fördermittelvergabe vorgestellt.

Als Unterstützungsmöglichkeit wurde eine hypothetische KI beschrieben, die in der Lage sei, ein automatisiertes Rating der Kommunen für eine Förderentscheidung zu produzieren. Über die Funktionsweise der KI wurden die Student*innen einer deutschen Verwaltungshochschule nur eingeschränkt aufgeklärt. Eine konkrete Empfehlung der KI wurde nicht simuliert, sondern lediglich ein beispielhafter Output des KI-Systems.

Jede Nutzungsintention ließ sich unterschiedlich durch die Faktoren Einfachheit der Nutzung, Systemleistung, Kompetenzerleben, KI-Expertenvertrauen und KI-Überlegenheit erklären. Im Ergebnis zeigte sich, dass die reflektierte Nutzung am häufigsten anzutreffen ist – die Nutzer*innen also von einem kooperativen Prozess ausgehen und die Empfehlung der KI miteinfließen lassen. Insbesondere ein höheres KI-Expertenvertrauen und eine hohe, wahrgenommene Systemleistung können diese reflektierte Nutzungsintention positiv beeinflussen. Bei besonders niedrigem KI-Vertrauen oder einer wahrgenommenen Überlegenheit menschlicher Entscheidungen wurde tendenziell eher vollständig auf die KI verzichtet.

Einen besonders kritischen Fall stellt die unreflektierte Übernahme der KI-Empfehlungen dar (ohne diese überhaupt zu kennen). In diesem Fall zeigte sich ein positiver Zusammenhang zur individuell wahrgenommenen Überlegenheit technischer Systeme. Werden diese also als dem Menschen tendenziell überlegen eingeschätzt, so besteht ein Zusammenhang mit einem eher unkritischen Umgang.  

Steigende Anforderungen an die KI-Kompetenz zukünftiger Verwaltungsentscheider*innen

Auch wenn die Studie einigen Einschränkungen unterliegt (u.a. geringe Stichprobengröße, fiktives Szenario, Survey- und keine Experimentalstudie, ausgewählte Studiengänge), lässt sich festhalten, dass dem Thema „KI-Kompetenzen“ in Zukunft eine hohe Bedeutung zukommen sollte. Insbesondere im Rahmen der 2024 in Kraft getretenen KI-Verordnung der Europäischen Union sind KI-Verwender*innen und Betreiber*innen dazu rechtlich angehalten, entsprechende KI-Kompetenztrainings bereitzustellen. Auch zukünftig müssen durch KI unterstützte Verwaltungsentscheidungen einer kritischen Überprüfung standhalten. Durch KI generierte Empfehlungen sollten daher (insbesondere bei bestehenden Ermessensspielräumen) unter Berücksichtigung von Expertenwissen sorgfältig abgewogen und überprüft werden.

 

Über den Autor:

Tobias Krause ist Professor für allgemeine Betriebswirtschaftslehre, insbesondere Public- und Nonprofit-management an der Frankfurt University of Applied Sciences. Im Rahmen seiner Forschung beschäftigt er sich mit Verwaltungsdigitalisierung, dem Einsatz von KI im öffentlichen Sektor sowie hybriden Organisationsformen.