Inhaltsverzeichnis:

Wenn Hass Viral Wird: In Den Bemühungen Der Sozialen Medien Zur Bekämpfung Des Terrorismus
Wenn Hass Viral Wird: In Den Bemühungen Der Sozialen Medien Zur Bekämpfung Des Terrorismus

Video: Wenn Hass Viral Wird: In Den Bemühungen Der Sozialen Medien Zur Bekämpfung Des Terrorismus

Отличия серверных жестких дисков от десктопных
Video: Wenn Demokratien sterben (Levitsky/ Ziblatt) 2023, Februar
Anonim

Das Online-Video dient dem Islamischen Staat und anderen Terrororganisationen als wirksames Instrument zur Rekrutierung neuer Mitglieder und zur Anstiftung zu Gewalt. Eine mögliche Lösung bleibt merkwürdigerweise in der Schwebe.

Wenn Hass viral wird: In den Bemühungen der sozialen Medien zur Bekämpfung des Terrorismus
Wenn Hass viral wird: In den Bemühungen der sozialen Medien zur Bekämpfung des Terrorismus

Am Silvesterabend 2015 verhafteten lokale und föderale Agenten einen 26-jährigen Mann in Rochester, New York, weil er vorhatte, später in dieser Nacht willkürlich Menschen mit Messern und einer Machete anzugreifen. Kurz vor seiner Gefangennahme hatte Emanuel L. Lutchman ein Video gemacht, das nach dem Angriff in den sozialen Medien veröffentlicht werden sollte, in dem er dem islamischen Staat im Irak und in Syrien oder ISIS seine Treue versprach. Lutchman würde später sagen, dass eine wichtige Inspirationsquelle für seine Handlung ähnliche Videos waren, die zur Unterstützung des Islamischen Staates und des „gewalttätigen Dschihad“in sozialen Medien und auf Websites veröffentlicht und geteilt wurden.

Lutchman, der jetzt eine 20-jährige Haftstrafe verbüßt, war besonders fasziniert von Videos von Anwar al-Awlaki, einem in den USA geborenen Geistlichen und Al-Qaida-Rekrutierer im Jemen. Al-Awlakis vitriolische Online-Predigten werden ebenfalls beschuldigt, die Boston-Marathon-Bomber 2013 und mehrere andere prominente Terroranschläge in den USA und Europa in den letzten 15 Jahren inspiriert zu haben. Beamte hatten Lutchmans Aktivitäten Tage vor seiner Verhaftung überwacht und waren sofort eingezogen, nachdem er sein Video fertiggestellt hatte - das nie veröffentlicht wurde - und dienten ironischerweise als Beweis für seine Absicht, mehrere Verbrechen zu begehen.

Aber al-Awlakis Videos motivieren weiterhin beeindruckende junge Menschen, mehr als fünf Jahre nachdem der Kleriker bei einem US-Drohnenangriff als "bin Laden des Internets" bezeichnet wurde. Facebook, Twitter und Googles YouTube haben sich bemüht, terroristische Propagandavideos zu entfernen und Konten zu schließen, die mit ISIS und einigen anderen gewalttätigen Gruppen in Verbindung stehen. Das Filmmaterial wurde jedoch so oft kopiert und geteilt, dass es auf diesen Websites für digital versierte und extremismusanfällige Millennials wie Lutchman und Omar Mir Seddique Mateen weiterhin weit verbreitet ist. Letzterer versprach, ISIS in den sozialen Medien die Treue zu halten, bevor er im Juni letzten Jahres im Pulse Nightclub in Orlando 49 Menschen ermordete.

Social-Media-Unternehmen verwenden seit langem ausgefeilte Algorithmen, um die Wörter, Bilder, Videos und Standortdaten der Benutzer abzurufen, um die Suchergebnisse zu verbessern und Werbung gezielt einzusetzen. Die Bemühungen, ähnliche Technologien anzuwenden, um Videos auszurotten, die die Sache der Terroristen fördern, neue Mitglieder rekrutieren und Mittel beschaffen, waren jedoch weniger erfolgreich. Videos, die weit über die Hälfte des mobilen Online-Verkehrs ausmachen, sind besonders problematisch, da sie die Nachrichten von Extremisten innerhalb von Minuten viral verbreiten können, schwer zu verfolgen und noch schwerer zu beseitigen sind. Trotz dieser hochkarätigen Herausforderungen sehen sich Facebook, Google und Twitter einer wachsenden Gegenreaktion ausgesetzt - einschließlich Boykotten und Klagen von Werbetreibenden -, die sie dazu drängen, effektiver mit den dunkleren Elementen der von ihnen erstellten Plattformen umzugehen. Es entstehen neue Video-Fingerprinting-Technologien, die versprechen, extremistische Videos zu kennzeichnen, sobald sie veröffentlicht werden. Es bleiben jedoch große Fragen offen: Funktionieren diese Tools gut genug, um zu verhindern, dass sich terroristische Videos in sozialen Medien verbreiten? Und werden die Unternehmen, die solche Propaganda ermöglicht haben, sie annehmen?

Bild
Bild

ISIS-Problem der sozialen Medien

Laut JM Berger, einem ehemaligen nicht ansässigen Mitarbeiter des Projekts US Relations with the Islamic World der Brookings Institution, verfügt ISIS über ein gut etabliertes Spielbuch für die Nutzung sozialer Medien und anderer Online-Kanäle, um neue Rekruten anzuziehen und sie zu ermutigen, im Namen der Terroristengruppe zu handeln. "Das Durchschnittsalter eines [ISIS] -Rekruten liegt bei 26 Jahren", sagt Seamus Hughes, stellvertretender Direktor des Programms für Extremismus der George Washington University. "Diese jungen Leute lernen nicht, wie man mit sozialen Medien umgeht - sie wissen es bereits, weil sie damit aufgewachsen sind."

ISIS-Videos wurden vor einigen Jahren zu einem festen Bestandteil auf YouTube, sodass die automatisierten Werbealgorithmen der Website s für Procter & Gamble, Toyota und Anheuser-Busch vor Videos einfügten, die mit der Terroristengruppe in Verbindung stehen. Trotz der Zusicherungen zu der Zeit, dass Google die Anzeigen und in einigen Fällen die Videos selbst entfernt hat, ist das Problem bei weitem nicht gelöst. Im März entschuldigte sich Googles Präsident für EMEA (Europa, Mittlerer Osten und Afrika), Matthew Brittin, bei großen Werbetreibenden - darunter Audi, Marks and Spencer und McDonald's UK -, die ihre Online-Anzeigen geschaltet hatten, nachdem sie festgestellt hatten, dass sie nebeneinander erschienen waren Inhalte von Terroristengruppen und weißen Supremacisten. AT & T, Johnson & Johnson und andere große US-Werbetreibende haben YouTube aus demselben Grund boykottiert.

Ob Google solche Inhalte ignoriert hat, ist umstritten, vor allem zwischen dem Unternehmen und dem Counter Extremism Project (CEP), einer gemeinnützigen Nichtregierungsorganisation, die 2014 gegründet wurde, um die Aktivitäten terroristischer Gruppen und ihrer Unterstützer zu überwachen und darüber Bericht zu erstatten. Sicherer ist die Tatsache, dass es im weitläufigen YouTube-Netzwerk von Google keine einfache Möglichkeit gibt, alle oder sogar die meisten Videos zu finden und zu entfernen, die die Grenze zwischen bloß provokativ und einem umfassenden Aufruf zu Gewalt und Hass überschreiten. Social-Media-Websites wie Facebook, Google und Twitter haben in den letzten Jahren die PhotoDNA-Software von Microsoft mit einigem Erfolg verwendet, um Standbilder, die sie möglicherweise entfernen möchten, automatisch zu identifizieren. Es gab jedoch kein vergleichbares Tool für Videos. Social-Media-Websites verlassen sich stattdessen hauptsächlich auf ihre große Nutzerbasis, um Videos zu melden, die möglicherweise gegen die Richtlinien der Unternehmen gegen die Veröffentlichung terroristischer Propaganda verstoßen. Das jüngste Versprechen von Facebook-CEO Mark Zuckerberg, 3.000 weitere Rezensenten hinzuzufügen, um die auf der Website veröffentlichten Videos besser überwachen zu können, unterstreicht nur das Ausmaß des Problems. Wie Twitter in mindestens zwei separaten Blog-Posts im letzten Jahr feststellte, gibt es keinen „magischen Algorithmus“, um terroristische Rhetorik und Rekrutierungsbemühungen im Internet zu identifizieren.

Videosignaturen

Dieses Argument könnte nicht mehr lange dauern. Ein wichtiger Forscher hinter PhotoDNA sagt, er entwickle eine Software namens eGLYPH, die die Grundprinzipien von PhotoDNA anwendet, um Videos zu identifizieren, die den Terrorismus fördern - selbst wenn die Clips bearbeitet, kopiert oder auf andere Weise geändert wurden.

Große Videodateien stellen ein „imposantes Problem“für Suchwerkzeuge dar, da sie je nach Qualität aus 24 oder 30 verschiedenen Bildern pro Sekunde bestehen können, sagt Hany Farid, Informatikprofessor am Dartmouth College, der Microsoft vor fast einem Jahrzehnt bei der Entwicklung von PhotoDNA unterstützt hat gegen Online-Kinderpornografie vorgehen. Laut Farid wäre eine Software zur Analyse einzelner Bilder in Videodateien aufgrund der erforderlichen Rechenleistung des Computers unpraktisch. Er arbeitet seit mehr als einem Jahr an der Entwicklung des eGLYPH-Algorithmus, der Video-, Bild- und Audiodateien analysiert und eine eindeutige Signatur namens „Hash“erstellt, mit der entweder ein ganzes Video oder bestimmte Szenen innerhalb eines Videos identifiziert werden können Video. Die Software kann Hashes neuer Videoclips, die online veröffentlicht wurden, mit Signaturen in einer Datenbank mit Inhalten vergleichen, von denen bekannt ist, dass sie den Terrorismus fördern. Wenn eine Übereinstimmung gefunden wird, kann dieser neue Inhalt automatisch entfernt oder markiert werden, damit ein Mensch ihn überprüfen kann.

Einer der Vorteile von eGLYPH besteht darin, dass schnell eine Signatur für ein Video erstellt wird, ohne viel Rechenleistung zu verbrauchen, da Änderungen zwischen Frames und nicht das gesamte Bild in jedem Frame analysiert werden. "Wenn Sie ein Video von einer sprechenden Person aufnehmen, ist ein Großteil des Inhalts [von Bild zu Bild] gleich", sagt Farid. Die Idee ist, „ein Video auf das Wesentliche zu reduzieren“und dies nur dann zur Kenntnis zu nehmen, wenn sich zwischen den Bildern eine signifikante Änderung ergibt - eine neue Person betritt das Bild oder die Kamera schwenkt, um sich auf etwas Neues zu konzentrieren. "Wir nehmen diese Videos und versuchen, so viel Redundanz wie möglich von den Daten zu entfernen und die Signatur aus den verbleibenden Daten zu extrahieren", sagt er.

.

Farids Partner bei eGLYPH ist die CEP, die ein riesiges Repository mit gehashten Bildern, Audiodateien und Videos aufgebaut hat, das „die schlimmsten Inhalte enthält, denen nur wenige Menschen nicht zustimmen würden, wenn es um Terrorakte, extremistische Propaganda und Rekrutierungsmaterialien geht“. sagt Mark Wallace, Chief Executive Officer der CEP und ehemaliger US-Botschafter. Videoclips, die die CEP mit Scientific American aus ihrer Datenbank geteilt hatte, zeigten Hinrichtungen - mehrere durch Enthauptung - sowie Bombenanschläge und andere gewalttätige Handlungen. eGLYPH vergleicht die von ihm generierten Signaturen mit den in der CEP-Datenbank gespeicherten. Dies ähnelt im Prinzip PhotoDNA, das entwickelt wurde, um Signaturen von im Internet veröffentlichten Bildern zu erstellen und mit denen in der Bilddatenbank des Nationalen Zentrums für vermisste und ausgebeutete Kinder abzugleichen, die die Organisation als Kinderpornografie gekennzeichnet hat.

Danke, aber nein Danke

Die CEP hat Social-Media-Anbietern, die versuchen, mit terroristischen Videopostings Schritt zu halten, freien Zugang zu eGLYPH und zur Datenbank der Organisation angeboten. Facebook, Twitter und YouTube lehnten den Vorschlag der CEP jedoch ab und kündigten stattdessen im Dezember Pläne an, eine eigene gemeinsame Datenbank mit gehashten Terrorismusvideos zu entwickeln. Sogar Microsoft, das Farids Arbeit an eGLYPH finanzierte, entschied sich für den Beitritt zum Social-Media-Konsortium und war sich nicht sicher, ob es sich weiterhin für eGLYPH engagiert.

Jedes der Social-Media-Unternehmen gibt an, eine eigene Datenbank mit Unterschriften zu erstellen, in der Videos und Bilder mit den „extremsten und ungeheuerlichsten terroristischen Bildern und Videos“aufgeführt sind, die sie aus ihren Diensten entfernt haben. Dies geht aus einer gemeinsamen Erklärung der Unternehmen vom 5. Dezember hervor. Die Unternehmen Sie haben nicht viele Details zu ihrem Projekt preisgegeben, z. B. wie sie neue Videos auf ihren Plattformen veröffentlichen oder wie sie diese Signaturen - die sie als „Fingerabdrücke“bezeichnen - mit in ihren Datenbanken gespeicherten gehashten Videos vergleichen. Jedes Unternehmen entscheidet unabhängig davon, ob markierte Videos von seiner Website und seinen Apps entfernt werden sollen, basierend auf den individuellen Richtlinien des Unternehmens zur Veröffentlichung von Inhalten. Die Unternehmen antworteten auf die Interviewanfragen von Scientific American mit Bezug auf ihre Pressemitteilung vom Dezember und andere Materialien, die auf ihren Websites veröffentlicht wurden.

Ein Grund für den fragmentierten Ansatz der Unternehmen, Videos zu löschen, die Terrorismus unterstützen oder anstacheln, ist das Fehlen einer universellen Definition von „terroristischen“oder „extremistischen“Inhalten. Social-Media-Unternehmen werden sich wahrscheinlich nicht ausschließlich auf das Urteil der CEP oder von CEP verlassen wollen ihre Altersgenossen. Die Richtlinie von Microsoft besteht beispielsweise darin, Inhalte, die von oder zur Unterstützung von Organisationen auf der Sanktionsliste des konsolidierten Sicherheitsrates der Vereinten Nationen, zu der al-Awlaki und viele ISIS-Mitglieder gehören, erstellt wurden, aus dem Azure Cloud-Hosting und anderen Diensten zu entfernen.

Je häufiger Benutzer bei Facebook Inhalte melden, die möglicherweise gegen die Unternehmensregeln verstoßen, desto wahrscheinlicher ist es, dass sie die Aufmerksamkeit des Unternehmens auf sich ziehen, sagte Joaquin Candela, Direktor für angewandtes maschinelles Lernen des Unternehmens, bei einer Facebook-Veranstaltung für künstliche Intelligenz in New York City Februar. Candela äußerte sich nicht speziell zu dem im Dezember angekündigten Projekt, sagte jedoch, Facebook entwickle KI-Algorithmen, mit denen Videopostings auf Inhalte analysiert werden können, die gegen die Community-Standards des Unternehmens verstoßen. Eine der größten Herausforderungen bei der Erstellung des Algorithmus ist das enorme Volumen an Beiträgen, die Facebook täglich erhält. Im vergangenen Jahr haben Facebook-Nutzer weltweit nach Angaben des Unternehmens täglich 100 Millionen Stunden Video angesehen. Eine weitere Herausforderung besteht darin, den Algorithmus so zu optimieren, dass Inhalte, die entfernt werden sollen, genau identifiziert werden können, ohne Bilder und Videos, die den Facebook-Regeln entsprechen, fälschlicherweise zu kennzeichnen.

Twitter verließ sich zunächst ausschließlich auf seine Nutzer, um Tweets zu entdecken - unter den Hunderten von Millionen, die täglich veröffentlicht werden -, die möglicherweise gegen die Regeln für die Veröffentlichung von Inhalten des Unternehmens verstoßen. Die zunehmende Kritik an der scheinbaren Unfähigkeit von Twitter, terroristische Tweets zu kontrollieren, veranlasste das Unternehmen jedoch, proaktiver zu sein. Allein in der zweiten Jahreshälfte 2016 hat Twitter 376.890 Konten "für Verstöße im Zusammenhang mit der Förderung des Terrorismus" ausgesetzt, wie aus dem "Transparenzbericht" des Unternehmens vom März hervorgeht. Fast drei Viertel der gesperrten Konten wurden nach Angaben des Unternehmens von den Spam-Bekämpfungstools von Twitter entdeckt.

Die Community-Richtlinien von YouTube verbieten Videos, die "für terroristische Organisationen rekrutieren, Gewalt anstacheln, Terroranschläge feiern oder auf andere Weise Terrorakte fördern" sollen. Auf der Website können Benutzer jedoch Videos veröffentlichen, "die Ereignisse im Zusammenhang mit terroristischen Handlungen oder Nachrichten über terroristische Aktivitäten dokumentieren sollen", sofern diese Clips "ausreichenden Kontext und Absicht" enthalten. Diese dünne Linie schafft eine schwierige Situation für jede Software, die automatisch verbotenes Filmmaterial findet. Dies könnte erklären, warum YouTube hauptsächlich auf Besucher seiner Website angewiesen ist, um unangemessene Inhalte zu kennzeichnen. YouTube gab im November 2010 bekannt, dass es Hunderte von Videos mit al-Awlakis Aufrufen zur Gewalt entfernt hat, obwohl viele seiner Reden immer noch auf der Website verfügbar sind. Die CEP zählte im Februar dieses Jahres 71.400 Videos, die einen Teil seiner Rhetorik enthielten.

Social-Media-Unternehmen haben begonnen, sich auf die Idee einzulassen, dass sie mehr tun müssen, um terroristische Inhalte von ihren Websites fernzuhalten. Sie fügen zunehmend Verbote für Videos hinzu, die gemäß den Community-Richtlinien von YouTube verboten sind. „Einiges davon hat mit unternehmerischer Verantwortung zu tun, aber die überwiegende Mehrheit hat wahrscheinlich mit Öffentlichkeitsarbeit zu tun“, sagt Hughes vom Programm für Extremismus. Um fair zu sein, die Bemühungen von ISIS, soziale Medien zu entführen, haben zu philosophischen und technologischen Problemen geführt, mit denen die Unternehmen beim Aufbau ihrer digitalen Plattformen für die Verbindung von Freunden und das Posten zufälliger Gedanken wahrscheinlich nicht gerechnet hatten. "Es gab eine Lernkurve. Es dauert eine Weile, um zu sehen, wie sich Nachrichten online verbreiten, und um herauszufinden, wessen Konten gelöscht werden sollten und wie dies zu tun ist. “

Der Fall (die Fälle) gegen Social Media

Drei im vergangenen Jahr gegen die großen Social-Media-Unternehmen eingereichte Klagen haben versucht, diese Lernkurve zu beschleunigen. Die Klagen betreffen Mateens Angriff auf den Pulse Nightclub sowie die Massenerschießungen in Paris im Dezember 2015 in Paris und Dezember 2015 in San Bernadino, Kalifornien (pdf). In den Klagen wird behauptet, Facebook, Google und Twitter hätten ISIS "wissentlich und rücksichtslos" die Möglichkeit gegeben, ihre sozialen Netzwerke als "Instrument zur Verbreitung extremistischer Propaganda, zur Beschaffung von Geldern und zur Gewinnung neuer Rekruten" zu nutzen.

Excolo Law - die Anwaltskanzlei in Southfield, Michigan, die die Klagen im Namen der Familien von Terroropfern eingereicht hat - zitiert bestimmte Fälle von Angreifern, die vor und sogar während der Angriffe soziale Medien nutzen. Zwischen der Zeit, als Ehemann und Ehefrau Syed Rizwan Farook und Tashfeen Malik in San Bernardino 14 Menschen töteten und 22 verletzten und selbst von den Strafverfolgungsbehörden erschossen wurden, hatte Malik auf Facebook ein Video gepostet, in dem sie ihre Treue zu ISIS versprach US-Bezirksgericht für den Central District of California. "Wenn sie ein Zehntel Prozent der Anstrengungen unternehmen würden, die sie in gezielte Werbung gesteckt haben, um zu verhindern, dass Terroristen ihre Websites nutzen, würden wir diese Diskussion nicht führen", sagt Keith Altman, leitender Anwalt bei Excolo Law.

Scientific American kontaktierte Facebook, Google und Twitter, um Kommentare zu den Klagen zu erhalten. Nur Facebook antwortete mit den Worten: „Wir sympathisieren mit den Opfern und ihren Familien. Unsere Community-Standards machen deutlich, dass es auf Facebook keinen Platz für Gruppen gibt, die sich an terroristischen Aktivitäten beteiligen, oder für Inhalte, die diese Aktivitäten unterstützen, und wir ergreifen rasch Maßnahmen, um diese Inhalte zu entfernen, wenn sie uns gemeldet werden."

Eine wiederkehrende Kritik an den Social-Media-Unternehmen ist, dass sie zu langsam waren, um auf die gefährlichen Inhalte auf ihren Websites zu reagieren. "Im Jahr 2015 haben wir begonnen, mit Social-Media-Unternehmen zusammenzuarbeiten, um zu sagen:" Es gibt ein Problem, und wir sind der Meinung, dass Sie konkrete Schritte unternehmen sollten, um dieses Problem anzugehen ", sagt David Ibsen, Executive Director von CEP. „Und wir haben nicht die enthusiastischste Antwort von ihnen bekommen. Ein großer Teil des Rückschlags war, dass es keine technologische Lösung gab, das Problem zu groß ist, Bedenken hinsichtlich der Redefreiheit, es widerspricht unserem Ethos der freien Meinungsäußerung - all diese verschiedenen Dinge. " Die CEP stellte diese Ausreden in Frage, indem sie sich an Farid wandte. "Er sagte, es gäbe eine technologische Lösung für das Problem, extremistische Inhalte aus dem Internet zu entfernen, und er habe daran gearbeitet", sagt Ibsen. "Das war eines der ersten Male, dass ein anerkannter Computeringenieur sagte, dass das, was die Technologieunternehmen sagten, nicht wahr ist, dass es eine Technologielösung gibt."

Ungelöste Probleme

Unabhängig davon, ob CEP und Social Media-Unternehmen zusammenkommen, würde die von ihnen entwickelte Technologie ISIS oder seine Unterstützer nicht daran hindern, Live-Streaming-Videos eines Angriffs oder einer Propagandarede auf Dienste wie Facebook Live oder Twitter's Periscope zu übertragen. Ein solches Video hätte keine übereinstimmende Signatur in einer Datenbank, und jeder Versuch, ein neues Video zu kennzeichnen, würde einen Algorithmus erfordern, der "Terrorismus" definiert, damit er weiß, wonach er suchen muss, sagt Farid. "Ich weiß es, wenn ich es sehe", erklärt er. "Aber ich weiß nicht, wie ich es für ein Softwareprogramm so definieren soll, dass keine großen Mengen an Fehlalarmen ausgelöst werden." Algorithmen, die Gesichter bekannter ISIS-Mitglieder in Videos automatisch identifizieren, funktionieren „ziemlich gut“, sind aber bei weitem nicht genau oder schnell genug, um mit den riesigen Mengen an online gestreamtem Video Schritt zu halten im nächsten Jahrzehnt im Internet gelöst werden. “Die Unfähigkeit von Facebook, Menschen davon abzuhalten, Live-Aufnahmen von Morden und Selbstmorden über Facebook Live zu veröffentlichen, unterstreicht Farids Argument.

Auch wenn die großen Social-Media-Unternehmen eGLYPH und CEP weiterhin auf Distanz halten, ist Wallace zuversichtlich, dass Internetdienstanbieter und kleinere Social-Media-Unternehmen weiterhin an der Technologie interessiert sind. "Unabhängig davon hoffen wir, dass es ein Werkzeug ist, das die Menschen dazu bringt, sich dem Problem zu stellen", sagt er.

Farid räumt ein, dass die Bemühungen, die Nutzung sozialer Medien durch ISIS zu reduzieren, nur Teil eines viel größeren Kampfes sind, der viele Komponenten hat - sozioökonomische, politische, religiöse und historische. "Ich habe Leute sagen hören, dass diese [Software] nichts tun wird", sagt er."Meine Antwort: Wenn Ihre Messlatte für den Versuch, ein Problem zu lösen, lautet:" Entweder ich löse das Problem vollständig oder ich tue nichts ", dann sind wir in Bezug auf den Fortschritt an jeder Front absolut verkrüppelt."

Beliebt nach Thema