Vor allem gemeinwohlorientierte KI-Anwendungen könnten dazu beitragen, die Vertrauenswürdigkeit von KI-Anwendungen gegenüber der Gesellschaft zu steigern. Allerdings sehen sich kleinere Unternehmen hinsichtlich der neuen Verordnung und ihren Anforderungen mit Herausforderungen konfrontiert.
Auf eine Frage aus dem Publikum erklärten die Expert*innen, dass es wichtig sei, sich bereits früh im Produktlebenszyklus mit den Anforderungen des AI Acts und kommenden Zertifizierungen auseinanderzusetzen. Weindauer unterstrich, dass der TÜV traditionellerweise erst zu einem späteren Innovationsstand ins Spiel käme. Wenn Unternehmen, vor allem mit Produkten im Hochrisikobereich, sich allerdings erst kurz vor Zertifizierung mit ihren Anforderungen und Pflichten auseinandersetzen würden, sei es zu spät. Auch der AI Act setze bereits früh im Innovationsprozess ein: Angefangen bei Datenkuratierung, -labeling, über die Modellphase bis hin zum Embedding. Und all diese Schritte müssten dokumentiert werden, um eine Zertifizierung zu erlangen.
Etablierte Unternehmen und Unternehmen in Branchen, in denen bereits viel reguliert ist, beispielsweise der Medizin oder im Maschinenbau, brächten hier etablierte Prozesse und jahrelange Erfahrung mit sich, so Weindauer. Jüngere Unternehmen und Start-ups aus Branchen wie dem Bildungsbereich oder der Verwaltung hätten diese Erfahrungswerte möglicherweise nicht, vor allem, wenn sie nun erstmals in den Hochrisikobereich eingestuft werden.
An dieser Stelle betonte sie die Bedeutung einer geeigneten Unterstützungsinfrastruktur vor allem für kleinere Unternehmen, wie viele gemeinwohlorientierten KI-Initiativen. Diese hätten oft nicht die Möglichkeit, teure Expert*innen, wie Data Scientists oder Unternehmensberater*innen einzustellen. Wichtig sei es, neben den Testzentren, frei zugängliche Angebote wie Datenbanken, Tools, Libraries und andere Open-Source-Ressourcen zu schaffen. Diese könnten kleineren Unternehmen dabei helfen, eigene KI-Anwendungen zu entwickeln und zu evaluieren.