Anmeldung
Anmelden
Neu hier?
Wenn du noch keinen Zugang besitzt, kannst du dich hier registrieren.
Am 21.03.2024 fand das Civic Coding-Schlaglicht statt – dieses Mal zum Thema AI Act und seiner Bedeutung für gemeinwohlorientierte Projekte. Der AI Act, zu deutsch KI-Verordnung, und seine Auswirkungen sind in der KI-Branche bereits seit Längerem in aller Munde. Die EU-Verordnung soll einen rechtlichen Rahmen für die Entwicklung, Bereitstellung und Nutzung von KI-Systemen in der EU schaffen, um sicherzustellen, dass diese transparent, zuverlässig und sicher sind und die Grundrechte aller respektieren.
In unserer Online-Veranstaltung gaben Expert*innen aus Wissenschaft und Praxis Einblicke in die Auswirkungen des neuen Gesetzes und beantworteten konkrete Fragen aus dem Publikum.
Dr. Julian Stubbe von der Civic Coding-Geschäftsstelle moderierte den virtuellen Austausch mit Beiträgen von:
Prof. Dr. Christian Djeffal forscht an der TU München aus rechtlicher Perspektive zu der Frage, wie Technologien unsere Lebenswelten und unsere Gesellschaft verändern und wie wir damit umgehen können. Er bezeichnete den AI Act als ein „epochenmachendes Gesetz“, weil dieser erstmals eine Querschnittsregulierung für eine Technologie wie Künstliche Intelligenz einführe, die in vielen verschiedenen Bereichen und Branchen angewendet werde und dort teilweise schon reguliert sei. Er befürwortete den Ansatz der EU-Kommission, einen klaren Governance-Rahmen zu schaffen, der auf einem risikobasierten Ansatz beruht. Dies bedeutet, dass KI-Anwendungen, je nachdem, welche Risiken sie bergen, unterschiedlichen Anforderungen unterliegen. Außerdem, so Djeffal, betrachte die Verordnung die gesamte Wertschöpfungskette eines KI-Produkts und beziehe so zum ersten Mal auch den Innovationsprozess und die Grundrechte mit ein.
Laut Djeffal könne das Gesetz einen wichtigen Standardisierungsprozess anstoßen, in dem definiert würde, welche operationalen Standards für Hochrisikosysteme gelten sollen. Dieser Prozess der Verständigung auf gemeinsame Standards empfinde er als das größte Potenzial des KI-Gesetzes, denn hier könne eine „Meta-Governance“ entstehen, die auch über den unmittelbaren Anwendungsbereich hinaus Einfluss entfalten und einen Orientierungsrahmen bilden könne.
Außerdem sorge der AI Act laut allen Expert*innen dafür, dass branchenübergreifend Expertise und Kompetenz aufgebaut werde und ein Wissensökosystem entstünde. Der AI Act hat für sie also eine klare Praxisrelevanz.
„Der AI Act ist ein epochemachendes Gesetz. Es wird eine Querschnittstechnologie reguliert, die schon jetzt in so vielem drinsteckt. Das ist eine große Aufgabe und die Europäische Kommission hat aus meiner Sicht einen guten Ansatz gewählt.“
Prof. Dr. Christian Djeffal, Professor für Recht, Wissenschaft und Technik an der TU München
Auf eine vertrauenswürdige KI gäbe es verschiedene Blickwinkel, so Franziska Weindauer. Aus Sicht des TÜV sei zunächst die Risikominimierung ein zentraler Aspekt von vertrauenswürdiger KI. Dazu gehören Themen wie Cybersicherheit, Sicherheit für Leib und Leben, Genauigkeit, Robustheit und andere Risiken, die in der KI-Verordnung adressiert werden.
Darüber hinaus betonte sie allerdings, dass die Gesellschaft noch einmal ganz andere Erwartungen an die KI hätte, wenn es darum ginge, Vertrauenswürdigkeit zu beweisen. Hier nannte sie zum Beispiel Faktoren wie Gemeinwohlorientierung oder keine negative Beeinträchtigung der Demokratie. Die Gesellschaft wolle der Technologie vertrauen können, denn man ließe sie sehr nah an sich heran, stelle ihr möglicherweise intime Fragen. Der Anspruch sei hoch und dem müssten Anbieter*innen nachkommen.
Das TÜV AI Lab, so Weindauer, versuche hier die Brücke zwischen der hochrangigen Regulierung und der konkreten Umsetzung in der Praxis zu schlagen. Das Unternehmen hilft anderen Unternehmen dabei, die Anforderungen des neuen Gesetzes zu verstehen und konkret in die Umsetzung zu bringen. Hierzu entwickelt es Prüfkriterien, die es ermöglichen, eine klare Aussage über die Zulässigkeit von KI-Systemen zu treffen. Denn hier gäbe es gesellschaftlich noch viel zu tun, erklärte Weindauer, beispielsweise zu erörtern, wie hoch der Qualitätsanspruch an KI-Systeme im Vergleich zu menschlichem Handeln sein soll.
Die Expert*innen hoben die Chance hervor, durch den AI Act eine höhere Transparenz und Sicherheit in KI-Anwendungen zu gewährleisten, was das Vertrauen der Öffentlichkeit in diese Technologien stärken könne. Sie betonten, dass Europa hiermit eine Vorreiterrolle bezüglich vertrauenswürdigen KI-Anwendungen einnehmen könne.
Laut Verena Zink ist die Hauptaufgabe der Initiative MISSION KI, Innovation aus der Forschung auf den Markt zu bringen, das bedeute auch, KI-Vorhaben bei diesem Schritt zu unterstützen. Hierfür beschäftigen sie sich unter anderem damit, transparente Qualitäts- und Prüfstandards zu entwickeln und praktisch in der Anwendung zu testen. Sie sagte voraus, dass es in den nächsten Monaten viel darum gehen werde, Orientierung zu bieten, Akteur*innen zu vernetzen und eine gemeinsame Wissensbasis zu schaffen.
Weindauer wies darauf hin, dass in der EU-Verordnung viele Unterstützungshilfen mitgedacht seien, wie beispielsweise Guidelines zur Auslegung des Rechtstextes und zur Etablierung von einheitlichen Standards. Das unterscheide das Gesetz unter anderem von der DSGVO (Datenschutz-Grundverordnung). Es gelte jetzt, harmonisierte Standards abzuleiten, die dabei helfen werden, die Verordnung zu interpretieren und in der Praxis KI-Systeme umzusetzen und zu prüfen.
Veranstaltungstipp: In unserem neuen Format Civic Coding x ZVKI behandeln wir das Thema AI Act und Standardisierung mit unserem Partner, dem Zentrum für vertrauenswürdige künstliche Intelligenz (ZVKI). Ziel ist es, in der Zivilgesellschaft anhand konkreter Beispiele das Bewusstsein für die Bedeutung und Funktionsweise von Standardisierung zu stärken.
Hierzu seien laut des Gesetzes auch Reallabore vorgesehen, mindestens eines auf nationaler Ebene. Diese Testzentren sahen die Expert*innen als unverzichtbar an, um Räume zu schaffen, in denen Unternehmen verschiedene Umsetzungsmöglichkeiten austesten können. Denn das Reallabor stelle eine Infrastruktur dar, so Djeffal, in der relevante Akteur*innen – Unternehmen, Forscher*innen, Behörden etc. – zusammenkommen und gemeinsam an Lösungen arbeiten können. Es sei ein gefragtes und daher vielversprechendes Geschäftsmodell, betonte Weindauer, daher entstünden gerade zahlreiche Unternehmen und Initiativen in diesem Bereich.
Entscheidend sei hier, merkte Djeffal an, dass die Bedürfnisse und Anforderungen der KI-Community bei der Ausgestaltung eines Reallabors berücksichtigt würden. Nur so kann sichergestellt werden, dass die bereitgestellte Infrastruktur tatsächlich den Bedürfnissen der Nutzer*innen entspreche.
„Vertrauenswürdige KI aus klassischer TÜV-Perspektive bedeutet, ihre Risiken zu reduzieren. Denn jede Technologie und jede Anwendung ist möglicherweise mit Risiken verbunden.“
Franziska Weindauer, Geschäftsführerin des TÜV AI.Lab
Zink betonte, dass die Diskussion darum, ob Verordnungen Innovation fördern oder behindern, ein typisches Thema sei, das nicht nur bezüglich KI immer wieder auftauche. Eine solche Verordnung biete Vorteile, indem sie mehr Klarheit und Planungssicherheit in einen diffusen Rahmen brächte und definiere, was als gut oder angemessen gilt. Allerdings sei noch viel weitere Definitionsarbeit nötig, um die spezifischen Marktauswirkungen genau zu verstehen.
Djeffal beschrieb einen Vorteil, den die EU-Verordnung mitbrächte: Das Reallabor biete eine rechtliche Sonderzone, in der sonst geltende Regulierungshemmnisse vorübergehend ausgesetzt werden können. Dies ermögliche es den Teilnehmer*innen, neue KI-Anwendungen schneller zu entwickeln und zu testen, ohne von bestimmten rechtlichen Vorgaben wie der Zweckbindung von Daten eingeschränkt zu werden.
Weindauer merkte hierzu an, dass allerdings auch ein großer bürokratischer Aufwand auf die Unternehmen zukäme, die diese einmalige Möglichkeit nutzen wollen. Sie bräuchten beispielsweise einen klaren vordefinierten „Exit Plan“, der beschreibt, wie sie die im Reallabor entwickelten Lösungen später im regulären Betrieb umsetzen können. Sie merkte zudem an, dass ein zu strenger regulatorischer Rahmen innerhalb des Reallabors insbesondere kleinere Unternehmen davon abschrecken könne, daran teilzunehmen. Stattdessen betonte sie die Wichtigkeit eines pragmatischen Umsetzungsansatzes, der bürokratische Hürden und übermäßige Anforderungen vermeide und vor allem kleinere Unternehmen nicht überfordere.
Vor allem gemeinwohlorientierte KI-Anwendungen könnten dazu beitragen, die Vertrauenswürdigkeit von KI-Anwendungen gegenüber der Gesellschaft zu steigern. Allerdings sehen sich kleinere Unternehmen hinsichtlich der neuen Verordnung und ihren Anforderungen mit Herausforderungen konfrontiert.
Auf eine Frage aus dem Publikum erklärten die Expert*innen, dass es wichtig sei, sich bereits früh im Produktlebenszyklus mit den Anforderungen des AI Acts und kommenden Zertifizierungen auseinanderzusetzen. Weindauer unterstrich, dass der TÜV traditionellerweise erst zu einem späteren Innovationsstand ins Spiel käme. Wenn Unternehmen, vor allem mit Produkten im Hochrisikobereich, sich allerdings erst kurz vor Zertifizierung mit ihren Anforderungen und Pflichten auseinandersetzen würden, sei es zu spät. Auch der AI Act setze bereits früh im Innovationsprozess ein: Angefangen bei Datenkuratierung, -labeling, über die Modellphase bis hin zum Embedding. Und all diese Schritte müssten dokumentiert werden, um eine Zertifizierung zu erlangen.
Etablierte Unternehmen und Unternehmen in Branchen, in denen bereits viel reguliert ist, beispielsweise der Medizin oder im Maschinenbau, brächten hier etablierte Prozesse und jahrelange Erfahrung mit sich, so Weindauer. Jüngere Unternehmen und Start-ups aus Branchen wie dem Bildungsbereich oder der Verwaltung hätten diese Erfahrungswerte möglicherweise nicht, vor allem, wenn sie nun erstmals in den Hochrisikobereich eingestuft werden.
An dieser Stelle betonte sie die Bedeutung einer geeigneten Unterstützungsinfrastruktur vor allem für kleinere Unternehmen, wie viele gemeinwohlorientierten KI-Initiativen. Diese hätten oft nicht die Möglichkeit, teure Expert*innen, wie Data Scientists oder Unternehmensberater*innen einzustellen. Wichtig sei es, neben den Testzentren, frei zugängliche Angebote wie Datenbanken, Tools, Libraries und andere Open-Source-Ressourcen zu schaffen. Diese könnten kleineren Unternehmen dabei helfen, eigene KI-Anwendungen zu entwickeln und zu evaluieren.
„Um Planungssicherheit in der Entwicklung von KI-Anwendungen zu schaffen und das Vertrauen in die Nutzung zu stärken, brauchen wir transparente und einheitliche KI-Qualitäts- und Prüfstandards im Einklang europäischer Werte.“
Verena Zink, Stellvertretende Teamleitung KI-Qualität, MISSION KI
Du hast die Veranstaltung verpasst? In der Civic Coding-Communitykannst du dir die Aufzeichnung des Schlaglichts ansehen – registriere dich jetzt!
Jetzt anmelden und keine Neuigkeiten verpassen! Mit dem Civic Coding-Update wollen wir dich über Veranstaltungen, Förderangebote und Projekte aus der Initiative und der KI-Welt auf dem Laufenden halten.