"KI ist eine Reise"

Digitale Ethik

Autofahrt bei Nacht

Beim Einsatz von Künstlicher Intelligenz sollte es nicht nur darum gehen, was technisch möglich ist. Unternehmen müssen sich auch Gedanken machen, was ethisch vertretbar ist – die Themen reichen von Fragen der Transparenz über Persönlichkeitsrechte bis zu den ökologischen Folgen der Datennutzung.

Die Fortschritte bei der Entwicklung von algorithmischen Systemen und Künstlicher Intelligenz (KI) beflügeln die Fantasie: Effizienter, exakter, einfacher, objektiver soll die Arbeit mit Hilfe der smarten Technologien werden, so die Hoffnung. Und das in unzähligen Bereichen, ob im Personal-, im Gesundheits- oder im Finanzwesen, in der Rechtsprechung, beim Bau von Autos oder beim Erstellen von Informationen und Übersetzungen. Wohl das prominenteste Beispiel der jüngsten Zeit: die generative KI Chat GPT, die auf Knopfdruck menschenähnliche Antworten ausspuckt.

Daten haben Macht

Doch bei der Entwicklung und beim Einsatz der „intelligenten“ Systeme ist Umsicht gefragt – denn die Macht, die die Daten haben können, ist groß. Zahlreiche Fälle sogenannter Bias zeigen, wie fehlerhafte, unvollständige oder falsch verarbeitete Datensätze Ergebnisse verzerren und Diskriminierung verstärken können: Da ist zum Beispiel der Chatbot, der nicht mit den Anfragen von Jugendlichen umgehen kann, weil er auf deren Sprache und Ausdrucksweise nicht trainiert wurde. Da ist der Seifenspender, der nur hellhäutigen Menschen Seife spendet, weil sein Sensor auf dunklere Hauttöne nicht reagiert. Da ist die Bewerbungsfiltersoftware, die für ein männlich dominiertes Berufsfeld systematisch Bewerbungen von Frauen aussortiert – nicht, weil die KI so programmiert wurde, sondern weil das lernende System eine in der Gesellschaft vorherrschende Gegebenheit schlicht fortgeschrieben hat.

 

Viele unterschiedliche Blickwinkel berücksichtigen

Solchen Verzerrungen vorzubeugen oder Schieflagen in der Datenbasis auszumerzen sind Herausforderungen, denen sich auch die Entwicklungsteams bei Atruvia gegenüber sehen. Als Digitalisierungspartner der Genossenschaftlichen FinanzGruppe entwickeln wir algorithmische Entscheidungssysteme meist mit dem Ziel, Prozesse bei den Banken zu automatisieren und zu optimieren. Als Principal Expert für Künstliche Intelligenz begleitet Thomas Weßling bei Atruvia die Entwicklung von KI-Modellen. Er weiß: „Dass durch eine KI einzelne Gruppen systematisch benachteiligt werden, passiert viel schneller als man denkt.“ Um bei der Entwicklung möglichst viele Facetten im Blick zu haben und gute Ergebnisse zu generieren, müssen ihm zufolge fachlicher und technischer Input gleichberechtigt zusammenkommen. Und noch etwas anderes ist laut Weßling wichtig: „Für eine ausgewogene Datenbasis sind auch menschliche Intuition und Fingerspitzengefühl nötig.“ Co-Creation und Co-Innovation, also das Zusammenspiel unterschiedlicher Blickwinkel, sind für den Datenfachmann im Entwicklungsprozess essenziell – ganz im Sinne des genossenschaftlichen Gedankens. Ebenso wichtig: kontinuierliches Feedback und Nachbessern.

„Keine magische Black Box“

„KI ist keine magische Black Box, die ich mir fix und fertig in den Keller stelle und die dann alle meine Prozesse automatisiert. Sondern KI ist eine Reise“, macht Weßling deutlich. „Manchmal müssen sich da auch mehrere Seiten zusammenraufen, denn es geht darum, ein Problem aus verschiedenen Blickwinkeln zu betrachten und zu lösen.“ Was aus fachlicher Perspektive wünschenswert erscheine, sei aus technischer Sicht oder aufgrund der Menge der verfügbaren Daten nicht immer machbar. Hinzu kommen ethische Fragestellungen, die berücksichtigt werden sollten – allen voran die Frage: Wie weit soll und darf die Entscheidungskompetenz der Maschine reichen?

 

Regulierungen sollen für Transparenz sorgen

Mit verschiedenen gesetzlichen Regelungen sollen Grenzen für den Einsatz von KI gezogen werden. Dazu gehört die deutsche Datenschutzgrundverordnung (DSGVO) sowie der AI Act der Europäischen Union, der Künstliche Intelligenz künftig auf europäischer Ebene regulieren soll. Zusätzlich zu diesen rechtlichen Vorgaben ist auch digitale Verantwortung von jedem einzelnen Unternehmen gefragt. Etwa wenn es darum geht, Transparenz herzustellen, also offenzulegen, wo und warum eine KI etwas entschieden hat, zum Beispiel bei der Kreditvergabe oder im Bewerbungsprozess.  

 

Entscheidungshoheit beim Menschen

Bei Atruvia sind diese Transparenz-Anforderungen bereits heute erfüllt: Auch wo es „nur“ um unterstützende KI geht, machen wir stets sichtbar, ob Entscheidungen aufgrund von Daten getroffen werden. „Damit Mensch und Maschine reibungslos zusammenarbeiten können, muss transparent sein, warum die Maschine wie entschieden hat. Denn nur dann kann der Mensch daran anknüpfen und gegebenenfalls auch anders entscheiden“, verdeutlicht Thomas Weßling.

 

Je komplexer, desto ressourcenintensiver

Komplette Entscheidungsprozesse an eine Künstliche Intelligenz abzugeben, hält er nicht für vertretbar, auch nicht dort, wo es technisch möglich wäre. „Natürlich soll KI die Dinge erleichtern“, so der Experte. „Aber manchmal ist es sinnvoller, einen Schritt zurückzutreten und statt des neuesten Modells eines zu nehmen, das etwas mehr manuellen Aufwand erfordert, dafür aber transparent arbeitet und ethische Aspekte berücksichtigt.“  Neben Themen wie Transparenz und Datenschutz denkt Weßling dabei auch an das oft ausgeblendete Problem des Ressourcenverbrauchs bei der Nutzung digitaler Daten: Je komplexer das verwendete Modell, desto größer zum Beispiel die Menge an CO2, die durch jede noch so banale Anfrage freigesetzt wird. Auch dieser ökologische Fußabdruck sollte bei der Entwicklung mitgedacht werden, findet Weßling: „Ein Modell, das etwas weniger komplex ist, liefert im Zweifelsfall das gleiche Ergebnis, verbraucht aber weniger Ressourcen.“