Der Einsatz von KI zur Unterscheidung zwischen akzeptabler Meinungsäußerung und Hassrede stoße laut Dr. Zywietz besonders bei der Erfassung des Kontexts an Grenzen. Er beobachte zum Beispiel sehr viele, auch KI-generierte Inhalte, die vielleicht einmal ironisch, als Satire gemeint waren, dann aber durch die Sozialen Medien durchgereicht und irgendwann ernst genommen werden. KI-Tools können die vielfältigen Bedeutungsebenen nicht immer korrekt erfassen, daher sei immer eine Einzelfallabwägung durch Menschen notwendig, erklärte Dr. Zywietz. Besonders beschäftigen seine Institution in diesem Zusammenhang Deepfakes sowie KI-generierte Influencer*innen, also virtuelle Figuren, die in sozialen Netzwerken erscheinen und von vielen nicht als synthetisch erkannt werden.
Doch KI werde nicht nur genutzt, um Fakes zu generieren, sondern auch, um politische Aussagen oder Fakten zu leugnen. Ein konkretes Beispiel seien die Aufnahmen von Demonstrationen gegen Rechts aus dem Frühjahr 2024, als extremistische Akteur*innen behaupteten, die Menschenmassen seien gefälscht. „Unter demokratietheoretischen Gesichtspunkten ist das sehr problematisch, da Fakten einfach aus dem Diskurs gedrängt werden“, so Dr. Zywietz.