Adzine Top-Stories per Newsletter
SOCIAL MEDIA

Die Grenzen der Künstlichen Intelligenz bei der Content-Moderation

Adam Singolda, 21. December 2020
Bild: Taboola Adam Singolda, Taboola

Künstliche Intelligenz findet sich als Begriff mittlerweile in jedem Investoren-Pitch oder auf allerhand Über-uns-Webseiten im Netz. Doch es gibt große Unterschiede zwischen Machine Learning (ML), Deep Learning (DL) und Bullshit (BS). Aber auch KI kann falsch liegen.

Erst kürzlich konnte man auf Tiktok den Satz “I had pasta tonight” lesen, der nicht darüber informierte, was jemand am Abend gegessen hat, sondern ein Hilferuf war, um Selbstmordabsichten zu signalisieren. Der Algorithmus von TikTok war nicht in der Lage, dies zu erkennen und so konnte die Redeweise ungestört im Netzwerk trenden. Anstatt diese Posts zu stoppen, befeuerte die KI den Trend. Es war beileibe nicht Tiktoks Fehler, dass der Algorithmus nicht schnell genug reagierte, da dieser auf historischen Datensätzen beruht. In der Informatik wird hier von “Garbage in, Garbage out.” gesprochen. Das ist auch der Grund, warum KI Menschen im Schach oder Mahjong schlagen kann, aber KI hätte niemals das Spiel erfunden.

Im letzten Jahr saß ich mit Steven Pinker, Professor am Harvard College, zusammen und diskutierte mit ihm über die „Kunst, Fragen zu stellen“, etwas, das immer noch den Menschen vorbehalten ist. Künstliche Intelligenz wird zwar zunehmend besser in der Informatik, aber sie wird sich niemals verlieben oder eine Frage stellen können.

Künstliche Intelligenz ist wichtig und sie spielt eine kritische Rolle bei der Überprüfung von Online-Inhalten. Sie entscheidet, was für uns in Ordnung ist und was eben nicht. Aber wie wir bei den großen Technologieplattformen in den letzten Jahren oder bei dem obigen Beispiel gesehen haben, bereitet KI bereits fundamentale Probleme. Reicht Künstliche Intelligenz also aus, um Content und auch Werbung zu überprüfen? Oder brauchen wir doch Menschen, die uns unterstützen?

Maschinen

KI ist eine herausragende Entwicklung und genauso bedeutsam wie die Entdeckung der Elektrizität oder das Internet. KI wird in unserem Leben eine große Rolle spielen - für immer. Aber es gibt zwei wichtige Dinge, die wir über KI wissen sollten.

1. KI funktioniert nur dann, wenn ausreichend Daten zur Verfügung stehen, um sie zu trainieren.

Einige Beispiele: Die Künstliche Intelligenz konnte nicht die Verbreitung und das Ausmaß von Covid-19 hervorsagen, denn es gab keine historischen Daten, um die Größe des tatsächlichen Impacts von Covid-19 zu modellieren. Oder als die Face ID eingeführt wurde, um das iPhone zu entsperren, versagte die KI beim Erkennen von Gesichtern direkt nach dem Aufstehen. Das iPhone ließ sich nicht entsperren. Es gab nicht genügend Daten, die darauf hindeuteten, dass Menschen morgens, wenn sie aufwachen, anders aussehen könnten als zu anderen Tageszeiten.

2. Einige Fehler wiegen schwerwiegender.

Folgendes Beispiel: Wenn Alexa einen Fehler macht und mir empfiehlt, Kaffeebohnen zu kaufen, die ich eigentlich nicht mag, ist das keine große Sache. Es ist ärgerlich, aber nicht weiter schlimm. Wenn YouTube ein Video als „Haustier-Video“ kategorisiert, weil die KI annimmt, es sind Hunde im Video zu sehen, auch wenn keine zu sehen sind, dann ist das auch nicht weiter beunruhigend. Aber wenn wir uns dazu entschließen, KI für Angelegenheiten zu nutzen, z.B. ob wir den Beginn der Ausbreitung eines Virus ernst nehmen sollten oder wenn es um Themen wie Demokratie, Depressionen, Rassismus oder Menschenrechte geht, stellt sich die weitaus wichtigere Frage: Ist KI hierfür ausreichend?

Menschen

Wenn es darum geht, Inhalte zu überprüfen, dann müssen wir auch die menschlichen Grenzen betrachten. Menschen werden müde, Computer dagegen haben eine unendliche Ausdauer, ganz gleich, ob sie 100 oder 1000 Artikel überprüfen müssen. Menschen sind voreingenommen, haben gute und schlechte Tage und vieles mehr. Wenn wir also einen menschlichen Ansatz bei der Überprüfung von Inhalten in Betracht ziehen, dann ist es wichtig, dass die Content-Review-Teams divers sind und unterstützt werden.

Als festgestellt wurde, dass „eating pasta“ nicht davon handelte, Pasta zu essen, sondern ein Code war, um Selbstmordabsichten zu äußern, waren es Menschen, die darauf aufmerksam wurden. Als die Covid-19-Pandemie begann, waren es nicht die Rechner, sondern Menschen, die die rasante Ausbreitung des Virus sahen. Als eine KI schwarzhäutige Menschen als Gorillas kategorisierte, waren es Menschen, die darauf aufmerksam wurden, nicht die KI.

Menschen & Maschinen

Die Zukunft wird sich mehr auf Maschinen stützen, die uns bei vielen Dingen im Alltag helfen, ein besseres Leben zu führen. Ich bin davon überzeugt, dass menschliche Probleme nur von Menschen gelöst werden können; wobei die KI eine unterstützende Rolle spielen wird.

Nach dem Facebook-Boykott schlug ich vor, zusätzlich 50.000 Content-Moderatoren/Reviewer einzustellen, die zusätzlich zur KI Inhalte manuell prüfen. Meiner Meinung nach muss jede technische Plattform, die eine große Reichweite hat, die Verantwortung für die Inhalte auf ihrer Plattform übernehmen.

Die Grenzen der Überprüfung durch Menschen wiegen nicht schwerer als die Risiken, die wir eingehen, wenn wir sie nicht nutzen. Ich bin daher für den Einsatz menschlicher Fähigkeiten (im Zusammenspiel mit KI).

Tech Finder Unternehmen im Artikel

Adam Singolda Über den Autor/die Autorin:

Adam Singolda ist der Gründer und CEO von Taboola, der weltweit führenden Discovery-Plattform. Über 20.000 Unternehmen nutzen Taboola um mehr als 1,4 Milliarden Menschen pro Monat auf der ganzen Welt zu erreichen. Taboola unterhält mit einigen der innovativsten Digitalmedien in der Welt langfristige, exklusive Geschäftsbeziehungen. Zu den Publisher-Partnern in Deutschland zählen u.a. Axel Springer mit Bild und Die Welt, Ströer Content Group, die Bauer Media Group und Sport1.