Die Corona-Pandemie beschäftigt die gesamte Welt. Täglich liest und hört man neue Aspekte der Krise, darunter medizinische, politische sowie wirtschaftliche. Wir erhalten Nachrichten in sozialen Netzwerken oder in Messengern, welche die Herkunft des Virus mutig und heldengleich erklären, als Teil einer weltweiten Verschwörung (meist initiiert und kontrolliert von Einzelpersonen oder einer elitären Gruppe) oder eines ungeplanten Ausbruchs aus einem geheimen Labor. Wir erhalten (ungefragt) detaillierte Anwendungsbeschreibungen darüber, wie eine Infektion mit ein paar wenigen Hausmitteln ad-hoc zu heilen ist und hören Interviews von Personen, bei denen eine akribische Befolgung der Anweisungen zur unmittelbaren Heilung geführt hat. Wir sehen Videos, die in professionellen Fernsehstudios entstanden sind, welche wir sonst nur von Nachrichtensendungen der etablierten Fernsehsender kennen, in denen Staaten genannt werden, die bereits vor dem ersten Corona-Ausbruch über einen Impfstoff verfügten.

Es scheint ein nicht endender Strom an Informationen zu sein, der sich mit den auf räumlicher Distanz geführten Gesprächen mit Mitmenschen mischt und letztlich zu einer sehr spezifischen und gleichzeitig einzigartig persönlichen Wahrnehmung der Krise führt. Dieses sehr individuelle Bild auf die Corona-Pandemie basiert im besten Fall auf validierten und wissenschaftlich fundierten Informationen und repräsentiert dabei ein höchst mögliches Maß an „Wahrheit“. Ohne den Wahrheitsbegriff philosophisch oder logisch an dieser Stelle diskutieren zu wollen, so ist doch breiter Konsens, dass der Wahrheitswert, den eine Person einer Information beimisst, dadurch festgelegt wird, wie sich eine Aussage oder Handlung in das eigene Weltbild einfügen lässt. Das eigene Weltbild umfasst dabei die Summe an Erfahrungen, die zusammen mit dem persönlichen Wertesystem dazu führt, dass wir eine Information mehr oder weniger emotionalisiert aufnehmen und ihr die Beachtung zu schenken, die ihr durch unsere individuelle Brille gebührt. Was passiert jedoch, wenn dieses der Wahrheit zu Grunde gelegte Verständnis instrumentalisiert wird, mit dem Ziel, Falschinformationen zu verbreiten?

Es kommt zu einer ebenso gefährlichen Pandemie, einer Infodemie, dessen Virus die Falschinformation ist. Diese Art der Pandemie ist mit offiziellen Maßnahmen viel schwerer beizukommen als der eigentlichen Corona-Pandemie. Sie ist nicht greifbar, was durch ihre Vielgestaltigkeit begründet ist; das Desinformations-Virus mutiert ständig und infiziert unaufhaltsam und verdeckt, mit geringster Inkubationszeit selbst diejenigen unter uns, die über ein in der Regel gutes Abwehrsystem gegen diese Art von Information verfügen. Die Dunkelziffer ist hoch und nicht abzuschätzen. Durch die Corona-Pandemie entstandene Verunsicherung der Menschen, gepaart mit dem aktuell erfahrenen Kontrollverlust und der subjektiv empfundenen Hilfslosigkeit durch das Corona-Virus, werden Informationen als wahr angesehen und Kausalitäten darin gesucht, die uns unter anderen Umständen so nicht erreicht hätten. Wird hierzu noch ein sozialer Aspekt beigemischt, beispielsweise in dem eine Person von einer anderen ihr nahestehenden Person eine Information erhält, ein auf einer Website angepriesenes „Wundermittel“ gegen eine Corona-Infektion zu erwerben, wird die eigene Ratio degradiert zu einem Ausführungsgehilfen der Emotion. Das Problem liegt in ebendieser Degradierung und darin, dass durch die Krise entstandene Informationsvakuum füllen zu wollen, um der empfundenen Unsicherheit Herr zu werden. Zuvor gehörte und gelesene sowie wissenschaftlich validierte Berichte über fehlende Impfstoffe oder reaktionslose Medikamente scheinen wie weggeblasen. Emotionen leiten uns. Als soziale Wesen möchten wir diese neu gewonnen Erkenntnisse mit anderen Menschen teilen, vor allem mit solchen, die uns lieb sind. Auch sie möchten wir durch Informationen geschützt wissen. Die Folge ist schließlich, dass die durch die Falschinformation infizierte Person, symptomatisch zu einem (digitalen) Medium greift, um weitere Menschen mit diesem Virus anzustecken, wenn auch mit ehrwürdigen Absichten. Das Ergebnis hiervon ist eine ähnlich exponentielle Ausbreitung des Virus wie in der Corona-Pandemie.

Der aktuell in den Medien als überwiegend positiv dargestellte Digitalisierungshype von nicht digitalisierten Prozessen und (sozialen) Interaktionen vor Corona, hat damit ebenso zwei Seiten. Auf der einen Seite sind wir dazu genötigt unser Leben so gut es geht aufrecht zu erhalten und müssen hierfür neue Wege in die digitale Welt gehen, auf der anderen Seite wird die Beschreitung dieser Wege in kürzester Zeit umgesetzt, geboren aus einer Not heraus. Wenn man bedenkt, dass Michal Kosinski als renommierter Datenforscher davon spricht, dass jede Person, die digitale Medien nutzt, 2012 einen Datenoutput von 500 MB pro Tag erzeugt hat, dieser aber bis 2025 auf 62 GB täglich anwachsen wird (also auf das 127-fache!)1, so sind darin eben auch solche Informationen eingerechnet, die als Falschinformationen klassifiziert werden. Pandemien, wie die aktuelle Corona-Krise, sorgen dafür, dass womöglich dieser enorm umfangreiche Datenfußabdruck bis 2025 sogar schon früher erreicht wird.

Doch nicht nur Menschen erzeugen Falschinformationen und verbreiten diese, wissentlich oder unwissentlich. Auch Algorithmen tun dies, intendiert von Menschen. Mit der massiven Entwicklung der Künstliche Intelligenz (KI) der letzten Jahre, nimmt auch die Anzahl an Falschinformationen zu, die im Internet erzeugt und darüber konsumiert werden. Wenn Algorithmen Falschinformationen erzeugen, beispielsweise in Form eines Twitter-Posts oder eines Videos (das ist keine Rocket-Science mehr, das ist Realität), so bedarf es einer entsprechenden Verbreitung in den einschlägigen Netzwerken. Diese Verbreitung übernehmen in vielen Fällen Botnetzwerke, also wiederum Software, die beispielsweise ein Youtube-Video massenhaft liked, kommentiert oder teilt. Wird dabei eine kritische Masse an „Beliebtheit“ auf der Plattform erreicht, sorgen die Algorithmen einer Plattform dafür, dass Inhalte ihren Benutzern prominenter präsentiert werden (der nette Nebeneffekt: die Verantwortlichen der Falschinformationen erhalten für deren Popularität in vielen Fällen monetäre Gegenleistungen), da sie vermeintlich relevant zu sein scheinen. Sie tun dies – stark vereinfacht erklärt – nach einem Ähnlichkeitsprinzip, dies bedeutet, was einem Benutzer in der Vergangenheit an Inhalten auf einer Plattform zusagte und womit er sich beschäftigte, wird vermutlich auch in ganz ähnlicher Weise in der Zukunft interessant sein. Der Effekt, der dabei entsteht, ist, dass Benutzer von Plattformen immer tiefer in einen Sumpf an Falschinformationen versinken und ihr medial-inhaltliches Echo negativ verstärkt wird. Dieser Effekt wirkt gesellschaftlich polarisierend und härtet damit Attitüden und Werte, die auf gezielt eingesetzten falschen Informationen basieren. Wie effektiv dies funktionieren kann, indem die politischen Meinungen von Millionen Menschen manipuliert wurden, zeigen beispielsweise die Enthüllungen rund um Cambridge Analytica und deren Beteiligung an der amerikanischen Präsidentschaftswahl sowie der Pro-Brexit-Kampagne2.

Jürgen Schmidhuber, einer der Väter der KI, vergleicht diese mit dem Feuer3: nützlich, wenn es kontrolliert werden kann, aber ebenso schädlich, sollte es missbraucht werden. Die Nützlichkeit von KI liegt unter anderem in der Identifikation von Falschinformationen. Zwar tun sich viele soziale Netzwerke und Plattformen noch schwer, „wahre“ Aussagen von Fake-News mit Hilfe von Algorithmen zu unterscheiden, was aber nicht zuletzt an der Komplexität dieser Unterscheidung liegt. Auch für das menschliche Auge sind die Unterschiede von Wahrheit und Fiktion umso schwerer zu erkennen, je echter die Fakes aussehen. Beispielsweise erlaubt Deepfaking4, also die Manipulation von Videos unter Einsatz von KI, dass Gesichter von beliebigen Personen auf die Gesichter in Videos gelegt werden. Das Ergebnis ist, dass scheinbar real wirkende Personen in Videos Aussagen in den Mund gelegt bekommen, die sie im „echten“ Leben niemals getroffen hätten.

Unter den beschriebenen Gesichtspunkten stellt sich nun die Frage, wie Falschinformationen bzw. Desinformationen von „wahren“ Informationen abgegrenzt werden können. Umso wichtiger erscheint es, dass mit zunehmenden Fähigkeiten von KI, die Kompetenz, Informationen kritisch zu hinterfragen und verlässliche Quellen erkennen zu können, jeder Mensch entwickeln bzw. stetig verbessern sollte. Die aktuelle Corona-Krise zeigt deutlich, dass wir lernen müssen, ähnlich, aber besser als KI, Informationen zu hinterfragen und uns Strategien erarbeiten, die deren Echtheit verifizieren können. Wir müssen die Überhand über das behalten, was uns ausmacht und darüber, welchen Informationen wir glauben, nach bestem Wissen und Gewissen. Dieser Verantwortung gerecht zu werden, ist gleichzeitig eine Bürde, die dem „digitalen Menschen“ des 21. Jahrhunderts auferlegt wird. Denn sie erfordert Interesse sowie Engagement und das von klein auf. Für primare und sekundare Bildungseinrichtungen ist es nicht damit getan den Schülerinnen und Schülern programmieren beizubringen und sie als „digital natives“ zu klassifizieren. Diese Arten der digitalen Kompetenzen erfordern weit mehr als Code zu schreiben, sich im Internet auf einschlägigen Websites bewegen zu können oder mit Freundinnen und Freunden über Messenger zu kommunizieren. Solche Skills helfen, aber lösen nicht das Problem, das attestiert unter anderem auch die letzte ICLIS-Studie von 20185. Vielmehr bedarf es Transparenz darüber, wie und vor allem mit welchem Ziel derartige Plattformen Informationen verarbeiten, die schließlich permanent den Weg zu uns finden. Es muss eine Bewegung einsetzen, die also von der Plattform wieder zu der Quelle einer Information führt und dort ansetzt. Dafür haben IT-Spezialist*innen den Auftrag, das Wissen über komplexe Technologien so zu vereinfachen, dass es in Bildungsprozessen adressatengerecht vermittelt werden kann, egal ob für Erwachsene im Rahmen von tertiärer Bildung oder für Schulkinder. Zwar gibt es bildungspolitisch erste Vorstöße in diese Richtung, leider handelt es sich dabei nur um mediale Zielkompetenzen, die isoliert in den einzelnen Fächern im Schulalltag vermittelt werden sollen. Wie diese Vermittlung im Detail aussieht, bleibt ungeklärt. Ein verpflichtendes Schulfach, welches diese Kompetenzen bündelt und konkret Themen wie das Erkennen von Falschinformationen adressiert, gibt es leider deutschlandweit nur in einem Bundesland, nämlich Mecklenburg-Vorpommern6. Dieses kollektive Versäumnis, bestehend aus der (technischen) Fertigkeit, Falschinformationen in Plattformen kenntlich zu machen (bzw. kenntlich machen zu wollen) sowie die vielfach nur rudimentär ausgebildeten digitalen Kompetenzen bei deren Nutzern, rächt sich nun in der aktuellen Krise.

Nichtsdestotrotz gibt es auch konkrete Hilfestellungen (siehe z.B. Planet Wissen7 ), die dabei helfen, Falschinformationen entweder direkt mit Referenzinformationen bzw. kollektivem Wissen oder indirekt, anhand von Metainformationen, zu erkennen. Ebenso sind Initiativen wie die Lie Detectors8 in Schulen unterwegs, welche kritisches Hinterfragen von Informationen aufzeigen und Schülerinnen und Schülern dabei helfen, Falschinformationen von validierten Informationen abzugrenzen. Ein Zugang zu dieser Art der Bildung sollte, politisch verankert und als Angebot für alle, auch Menschen ermöglicht werden, die das Schulalter bereits hinter sich gelassen haben, denn schließlich sind wir die Mütter und Väter von Morgen, die unsere Werte an unsere Kinder weitergeben und das wollen wir doch nach bestem Wissen und Gewissen tun, oder?

 

Über den Autor

Dr. Alexander Bartel studierte Wirtschaftsinformatik (B.Sc.), Angewandte Informatik (M.Eng.) und promovierte im Fachbereich Medieninformatik (Dr.phil.). Er ist ehemaliger wissenschaftlicher Mitarbeiter im BMBF-Forschungsprojekt EVELIN an der Hochschule Kempten und beschäftigte sich sechs Jahre lang mit der Professionalisierung der Software Engineering Ausbildung an Hochschulen. Während seiner Zeit an der Hochschule Kempten lehrte er an der Fakultät Informatik in Bachelor- und Masterstudiengängen. Nach der 2018 abgeschlossenen Promotion wechselte er in die freie Wirtschaft und ist seither als IT-Architekt für die T-Systems International GmbH tätig. Seine Interessen liegen im Bereich Softwarearchitektur, neue Technologien, Privacy und Gamification in Lehr-Lernkontexten. Er publizierte hierzu zahlreiche Fachartikel.

Fußnoten

1. https://www.tngtech.com/fileadmin/Public/Images/BigTechday/BTD10/Folien/Folien_MichalKosinski.pdf, zuletzt abgerufen am: 26.04.20

2. https://www.theguardian.com/news/series/cambridge-analytica-files, zuletzt abgerufen am: 26.04.20

3. https://www.ndr.de/nachrichten/netzwelt/cebit/Deutschland-sollte-Vorreiter-bei-KI-werden,cebit4040.html, zuletzt abgerufen am: 26.04.20

4. https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them, zuletzt abgerufen am: 26.04.20

5. https://www.gfdb.de/icils-2018/, zuletzt abgerufen am: 26.04.20

6. https://www.bildung-mv.de/schueler/schule-und-unterricht/faecher-und-rahmenplaene/rahmenplaene-an-allgemeinbildenden-schulen/informatik/, zuletzt abgerufen am: 26.04.20

7. https://www.planet-wissen.de/kultur/medien/fake_news/fake-news-erkennen-102.html, zuletzt abgerufen am: 26.04.20

8. https://lie-detectors.org/de/, zuletzt abgerufen am: 26.04.20

 

Titelbild: ©GDJ/pixabay.com