Das internationale Vordringen von Autokratien und die Zurückdrängung pluralistischer Diskursräume waren und sind zentrale Themen der öffentlichen Debatte und medialen Berichterstattung. Technologische Neuerungen wie KI-generierte Deepfakes, automatisierte Propaganda oder algorithmische Manipulation stellen zusätzliche Herausforderungen für demokratische Prozesse dar. Die hiermit verbundene Diskussion reicht über politische und gesellschaftliche Sphären hinaus und berührt verschiedene Fragestellungen: Welche Verantwortung tragen Journalismus, klassische Medien und soziale Netzwerke für eine demokratische Gesellschaft? Wie beeinflusst das veränderte Informationsverhalten die öffentliche Meinungsbildung? Wie können bekannte Informations- und Diskursräume geschützt oder neue Angebote geschaffen werden? Was kann man auch von jeder/jedem Einzelnen erwarten, um entsprechend aufmerksam im Umgang mit KI zu werden?
Bei der Suche nach Antworten spielen Akteur*innen aus Politik, Wirtschaft und Journalismus, vor allem aber auch der Zivilgesellschaft eine entscheidende Rolle: Faktencheck-Organisationen wie CORRECTIV, der Faktenfinder der Tagesschau und EUvsDisinfo arbeiten daran, den Wahrheitsgehalt von Informationen zu überprüfen, Fehl- und Desinformationen aufzudecken und Inhalte richtigzustellen. Der europäische Digital Services Act (DSA) hat zum Ziel, ein sicheres, berechenbares und vertrauenswürdiges Online-Umfeld zu schaffen und verpflichtet Plattformen unter bestimmten Voraussetzungen zum Vorgehen gegen rechtswidrige Inhalte. Um dies schnell und zuverlässig zu erreichen, setzt der DSA auf sogenannte „Trusted Flagger“, die bei der Identifizierung und Entfernung von rechtswidrigen Inhalten wie ggf. systematisch verbreiteten Desinformationen unterstützen sollen. Im Bereich der Medienkompetenz fördern Projekte wie Lie Detectors und klicksafe das kritische Denken im Umgang mit digitalen Inhalten. Vermehrt kommen zudem auch KI-basierte Anwendungen zum Einsatz, beispielsweise Initiativen wie Bellingcat Crowdsourcing und Open-Source-Methoden, um Falschinformationen zu entlarven. Inwieweit gerade gemeinwohlorientierte KI-Systeme die Initiativen aus Zivilgesellschaft, Medien, Wirtschaft und Politik bei ihren Bemühungen gegen Desinformation unterstützen können, wird in den kommenden Monaten zu diskutieren sein.
Mit diesem Themenschwerpunkt – Gemeinwohlorientierte KI zur Identifikation und Bekämpfung von Desinformation – trägt Civic Coding dazu bei, die vielen unterschiedlichen Aspekte und Diskussionsräume zum Thema Desinformation miteinander zu vernetzen. Insbesondere für Sozialunternehmen und Entwickler*innen aus der Civic Coding-Community ist dies relevant, da sie durch Teilnahme an Fachdiskursen und Tagungen außerhalb der klassischen KI- und Digital-Community sichtbarer werden können: bei klassischen Medienhäusern, in der Journalismusforschung, in der IT-Forschung, in der politischen Bildung oder auch bei Verbraucherschutzorganisationen.