Anmeldung
Anmelden
Neu hier?
Wenn du noch keinen Zugang besitzt, kannst du dich hier registrieren.
Das erste Forum unserer Reihe „Ethischer Einsatz von KI: Theorie, Praxis und Learnings“ fand am 26.09.2024 in Form eines virtuellen Trainings statt. Es richtete sich insbesondere an Projektteams, die ihre gemeinwohlorientierten KI-Projekte unter ethischen Aspekten prüfen möchten.
Besonderer Fokus lag in diesem Training auf der Identifizierung von ethischen Blindspots bei Projekten und Anwendungsfällen mithilfe von Ethics Canvas. Das Open-Source-Tool betrachtet zwölf Aspekte und gibt den Nutzer*innen Denkanstöße und Fragen an die Hand, die dabei helfen sollen, blinde Flecken in ihrer KI-Lösung oder Projektidee zu erkennen, die aus ethischer Sicht risikobehaftet sind.
Nach einer Übersicht über die Methode konnten die Teilnehmenden anhand eines fiktiven KI-Fallbeispiels den Umgang mit dem Ethics Canvas lernen und die Potenziale und Grenzen des Tools diskutieren.
Felix von Roesgen, Mitarbeiter der Civic Coding-Geschäftsstelle und Consultant für Digitalisierung und Nachhaltigkeit bei der ifok GmbH, gab fachlichen Input und moderierte den interaktiven Workshop.
Zum Einstieg fand ein Austausch über den Zusammenhang zwischen Ethik und KI statt, dazu wurden die Ideen der Teilnehmer*innen gesammelt.
Felix von Roesgen zeigte das Spannungsfeld von KI und Ethik am Beispiel des bereits verstorbenen isländischen Komikers Hemmi Gunn, den ein Start-up mithilfe von KI für ein Musikvideo „wiederbelebt“ hat. Dieser Fall polarisierte in Island stark und zeigt, dass einige Unternehmen einen ethischen und verantwortungsvollen Umgang mit KI nicht immer berücksichtigen, da für sie die Entwicklung innovativer Produkte im Vordergrund steht.
Dabei bringt die Auseinandersetzung mit den ethischen Folgen eines digitalen Geschäftsmodells einige Mehrwerte mit sich: Sie stellt das Geschäftsmodell auf eine robustere Basis, da ein besseres Verständnis für die Zielgruppe entsteht, weniger Risiko für negatives Feedback besteht und eine breitere gesamtgesellschaftliche Akzeptanz erzielt wird. Hinzu kommt eine höhere Resilienz gegenüber möglichen Regulierungen.
In Bezug auf KI-Ethik lassen sich drei Kategorien unterscheiden:
Daher ist es wichtig, die Interessen der jeweils betroffenen Personengruppen zu berücksichtigen und abzuwägen, betonte von Roesgen. Das macht ethische Entscheidungen sehr komplex und erfordert ein systematisches Vorgehen.
„Bei ethischen Entscheidungen sollten Interessen von verschiedenen Personengruppen Berücksichtigung finden.“
Felix von Roesgen, Consultant bei der ifok GmbH
Das grundlegende Prinzip von ethischer Entscheidungsfindung besteht darin, eine Situation im Gesamtkontext zu betrachten, die dahinterstehenden Werte und Normen zu analysieren und Maßnahmen abzuleiten, die das System im besten Fall ändern.
Dabei kann laut Felix von Roesgen ein Top Down- oder ein Bottom Up-Ansatz verfolgt werden. Die Top Down-Methode kam beispielsweise bei Gesetzen wie dem Digital Service Act oder beim AI Act, die auf EU-Ebene von den EU-Institutionen erarbeitet und verabschiedet wurden, zum Einsatz. Um jedoch die gesamten ethischen Folgen zu erfassen, ist es sinnvoll, dies durch einen Bottom Up-Ansatz zu ergänzen, bei denen Organisationen selbst aktiv werden können, so von Roesgen.
Beispiele hierfür sind der Kompass Start-up with Ethics oder der IEEE 7000 Standard, der allerdings sehr komplex ist. Eine niedrigschwelligere Möglichkeit bieten Canvas-Systeme wie der Ethics Canvas. Dieser ist an den Business Canvas angelehnt, mit dem sich ein Geschäftsmodell entlang verschiedener Kategorien wie Schlüsselpartner*innen und -aktivitäten, Kund*innen und Einnahmequellen strukturieren lässt. Der Ethics Canvas überträgt diesen Ansatz auf ethische Überlegungen und ist in drei Schritte gegliedert:
1. Identifizierung der relevanten Stakeholder*innen
2. Identifizierung der ethischen Konsequenzen für die jeweiligen Stakeholder*innen
3. Diskussion, in welcher Weise die Adressierung der ethischen Konsequenzen vollzogen werden soll
In einer interaktiven Übung konnten die Teilnehmenden die Methodik des Ethics Canvas selbst ausprobieren. Dabei ging es um den fiktiven Fall des Unternehmens IdentiFace, das eine kleine, über dem Babybett platzierbare Kamera anbietet, mit der durch Gesichtserkennung die Bedürfnisse von Säuglingen analysiert und über eine App an die Eltern kommuniziert werden. Das Unternehmen wirbt damit, dass durch das Produkt die Eltern-Kind-Beziehung gestärkt wird und Kindesbedürfnisse seltener vernachlässigt werden.
Die Teilnehmer*innen haben zu den einzelnen Schritten ihre Gedanken und Ideen eingebracht. Sie analysierten zunächst die betroffenen Individuen, das heißt die Personen, die das Produkt nutzen oder davon betroffen sind – in diesem Fall unter anderem Säuglinge, Eltern und Babysitter*innen, aber auch Ärzt*innen oder Entwickler*innen der Software. Auch die betroffenen Gruppen, die in Gestaltung, Produktion und Vertrieb des Produkts involviert oder darüber hinaus davon betroffen sind – beispielsweise Jugendämter, IT-Dienstleister*innen oder Psycholog*innen – wurden diskutiert.
Im nächsten Schritt ging es um das Verhalten und wie sich beispielsweise Gewohnheiten, zeitliche Abläufe oder Aktivitäten durch das Produkt ändern. Hier wurden sowohl mögliche positive Effekte, wie mehr Sicherheit im Umgang mit dem Kind oder mehr Zeit für andere Aktivitäten, als auch negative Auswirkungen, wie weniger Nähe und Aufmerksamkeit sowie eine mögliche Verschlechterung der Kommunikation zwischen Eltern und Kind, genannt.
In der Kategorie „Verbindungen“ ging es darum, wie sich die Beziehungen zwischen Menschen und/oder Gruppen durch das Produkt verändern. Bezogen auf das Fallbeispiel wurde aus der Gruppe unter anderem die Beziehung zwischen den beiden Elternteilen genannt, die möglicherweise Entlastung erfahren, weil beide ein besseres Verständnis für die Bedürfnisse des Kindes haben.
Es folgte das Thema der Weltanschauungen und welche Auswirkungen das Produkt auf diese hat. Blindes Technikvertrauen, Effizienzgetriebenheit und ein Management-Ansatz der Erziehung waren hier einige der Ideen, die die Teilnehmenden diskutierten.
Anschließend beschäftigen sich die Teilnehmenden mit Gruppenkonflikten, die durch das Produkt entstehen können. Sie arbeiteten heraus, dass zwischen Elternteilen und zwischen Eltern und der Kita aufgrund einer Überwachung der pädagogischen Mitarbeitenden Konflikte entstehen könnten.
Als weiterer Aspekt wurden negative Auswirkungen eines Produkt- oder Dienstleistungsausfalls besprochen. Dazu gehörten für die Teilnehmenden beispielsweise der Tamagotchi-Effekt (Entwicklung einer emotionalen Bindung zu Maschinen, Robotern oder Software-Agenten), mögliche Unterversorgung oder auch Diskriminierung und Bias.
Der problematische Umgang mit Ressourcen und potenzielle negative Auswirkungen des Produkts auf den Ressourcenverbrauch war die nächste diskutierte Kategorie. Neben dem hohen Strom- und Wasserverbrauch wurden hier auch negative Konsequenzen für die „Ressource Mensch“, beispielsweise durch einen geringeren Personalbedarf in Kitas und daraus resultierenden niedrigeren Betreuungsschlüssel angeführt.
Abschließend wurden auf der Handlungsebene die wichtigsten ethischen Auswirkungen und wie diese angegangen werden können, diskutiert. Eine Idee war die Limitierung der Nutzungszeit, um eine Abhängigkeit der Eltern von der Technologie zu verhindern. Zudem können Schulungen dem blinden Vertrauen in die Technik entgegenwirken, außerdem wurde eine begleitete Testphase zu (langfristigen) Folgen angeregt. Wichtig sei auch ein transparenter Umgang mit den gespeicherten Daten.
Insgesamt lässt sich sagen, dass Ethics Canvas eine unkomplizierte und niedrigschwellige Möglichkeit bietet, ethische Aspekte in KI-Projekten zu beleuchten. Es ermöglicht, verschiedene Perspektiven einzunehmen und durch den Austausch und den Input anderer Personen die eigene Sichtweise zu erweitern – eine Erfahrung, die sich auch im Workshop deutlich zeigte. Das Tool ist flexibel und lässt sich auf unterschiedliche Fälle unabhängig von Branche oder Organisation anwenden. Je nach verfügbarem Zeitrahmen kann es für einen schnellen Überblick genutzt oder für tiefgehende Analysen der einzelnen Fragen verwendet werden.
Zu beachten ist jedoch, dass die Ergebnisse je nach Teilnehmenden und Dauer des Prozesses oft nur oberflächlich sind und lediglich erste Anhaltspunkte bieten, die gegebenenfalls eine vertiefte Analyse erfordern. Auch der Teilnehmendenkreis spielt eine entscheidende Rolle: Gruppendynamiken und unterschiedliche Erfahrungsstände können den Output stark beeinflussen und zu variierenden Ergebnissen führen.
Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.