Schattenblick → INFOPOOL → MEDIEN → FAKTEN


FRAGEN/061: Frank Pasquale - Wie Facebook und Google die digitale Öffentlichkeit dominieren (Pressenza)


Internationale Presseagentur Pressenza - Büro Berlin

Interview mit Frank Pasquale: Wie Facebook und Google die digitale Öffentlichkeit dominieren

Von Ingo Dachwitz, Netzpolitik.org, 24. Juli 2017



Weltkarte, die die Verteilung der digitalen Vernetzung illustriert - Bild von Michael Coghlan | CC-BY-SA 2.0 [https://creativecommons.org/licenses/by-sa/2.0/]

Facebook spielt für die Herstellung digitaler Öffentlichkeiten inzwischen eine zentrale Rolle, wird der damit einhergehenden Verantwortung aber nicht gerecht, so Frank Pasquale
Bild von Michael Coghlan | CC-BY-SA 2.0
[https://creativecommons.org/licenses/by-sa/2.0/

Wir sollten weniger Angst davor haben, zentrale Plattformen der digitalen Öffentlichkeit zu regulieren, fordert US-Rechtswissenschaftler Frank Pasquale im Gespräch mit netzpolitik.org. Nutzer könnten kaum verstehen, wie die algorithmischen Black Boxes der Intermediäre ihre Wahrnehmung von der Welt prägen.

Die Debatte darum, wie mit der Medienmacht von großen Intermediären wie Facebook oder Google umzugehen ist, hat sich mit der Verabschiedung des Netzwerkdurchsetzungsgesetzes [1] noch lange nicht erledigt. Auf der Media Convention im Rahmen der re:publica hat Frank Pasquale [2] zu diesem Thema einen vielbeachteten Vortrag unter dem Titel "Die automatisierte Öffentlichkeit" [3] gehalten. Wir haben mit ihm darüber gesprochen, wie algorithmische Systeme die digitale Öffentlichkeit strukturieren und warum die Intermediäre stärker reguliert werden sollten. Pasquale ist Professor für Öffentliches Recht an der University of Maryland.


Leben in der Black Box

netzpolitik.org: Sie haben in Ihrem Vortrag "The automated public sphere" beschrieben, wie Algorithmen die digitale Öffentlichkeit strukturieren [4] und warum die Unternehmen, die sie kontrollieren, stärker reguliert werden sollten. Bevor wir ins Detail gehen: Was meinen Sie, wenn Sie von "Algorithmen" sprechen?

Frank Pasquale: Im Fokus standen für mich die computerisierte Sortierung von Newsfeeds in Sozialen Netzwerken und von Suchergebnissen. Dabei geht es mir vor allem um Facebook und Google, denn sie dominieren, wie viele Menschen Nachrichten wahrnehmen und die Welt verstehen. "Algorithmus" meint hier jegliche computerbasierte Methode, einen Daten-Input in einen bestimmten Output zu verwandeln. Der Input ist dann beispielsweise das vorangegangene Verhalten einer Person in einem Sozialen Netzwerk, welches den zukünftigen Nachrichtenkonsum [5] der Person beeinflusst.

Was finden Sie an diesen Systemen problematisch?

Diese Algorithmen sind deshalb ein Thema, weil sie extrem mächtig sind. Sie wären selbst dann bedenklich, wenn sie komplett transparent wären - weil einige wenige US-Konzerne die Öffentlichkeiten überall auf der Welt prägen. Aber sie sind zum zweiten deshalb besonders bedenklich, weil sie geheim sind. Das müssen sie zu einem gewissen Maße sein, damit sie nicht ohne Ende [6] ausgespielt werden können, doch derzeit sind sie eine totale Black Box [7]. Zu viele Menschen haben kein Verständnis davon, wie Google, Facebook und andere große Intermediäre unseren Daten in die eben beschriebenen Outputs verwandeln und unsere Wahrnehmung von der Welt prägen [8].


Facebook und Google: Marge über Mission

Wir sehen im Bereich dieser Intermediäre eine große Tendenz zur Monopolbildung [Youtube] [9]. Was bedeutet das für die digitale Öffentlichkeit?

Auch in der Vergangenheit gab es große Medienkonzerne, die die politische Agenda bestimmen konnten, beispielsweise die oft ebenfalls monopolartigen Rundfunkkonzerne. Dies geschah aber in einer Mischung aus dem Streben nach Profit auf der einen Seite und dem Bewusstsein für öffentliche Verantwortung und journalistische Sorgfaltspflicht auf der anderen. Da gab es eine gewisse Balance zwischen Marge und Mission. In der neuen, automatisierten Öffentlichkeit, die von wenigen Silicon-Valley-Unternehmen dominiert wird, wurde die Mission für viele Jahre dem Gewinnstreben komplett untergeordnet. Die übliche Erzählung ist, dass das eine gute Sache ist, weil der Gewinn zeige, dass diese Unternehmen ihre Kunden zufriedenstellen. Und je mehr Menschen ihre Dienste nutzen, desto besser würden sie werden. Wir sehen aber häufig, dass dieses Drängen auf Profit dazu führt, dass sie auch Inhalte verbreiten, die toxisch sind, sensationalistisch; Inhalte, die nicht zwangsläufig eine Faktenbasis haben - und die durch Microtargeting zugeschnitten sind.


Porträt - Bild von Joao Cassino | CC-BY-SA 4.0 [https://creativecommons.org/licenses/by-sa/4.0/]

Frank Pasquale
Bild von Joao Cassino | CC-BY-SA 4.0
[https://creativecommons.org/licenses/by-sa/4.0/]

Auch die meisten journalistischen Medien sind profitorientiert. Was ist die neue Dimension, die die Intermediäre mit sich bringen?

Natürlich waren auch die alten Medien sensationsheischend und verantwortungslos - und sind es manchmal bis heute, wie der Blick auf die großen Nachrichtenkanäle zeigt. Aber der Unterschied ist, dass dieses klassische Symptom der Verantwortungslosigkeit in der automatisierten Öffentlichkeit mit algorithmisch getriebenen Microtargeting [10] kombiniert wird. Man kann also wirklich extremistische Inhalte erzeugen, die nur an die Leute ausgespielt werden, für die sie annehmbar erscheinen. Andere Leute, die diese Inhalte in Frage stellen könnten, werden sie gar nicht zu sehen bekommen. Wenn alle das Gleiche sehen, kann ich jemanden zum Beispiel darauf hinweisen, dass etwas schlicht unwahr ist. Microtargeting führt zu einem Mangel an Anfechtungsmöglichkeiten bestimmter Inhalte und an argumentativer Deliberation, die für eine Demokratie unabdingbar sind.


Bedenkliche Konzentration finanzieller und psychologischer Macht

Sie weisen darauf hin, dass die Problematik der automatisierten Öffentlichkeit eng mit den Geschäftsmodellen der genannten Firmen zusammenhängt. Inwiefern?

Zwei Beispiele veranschaulichen das: In ihrem [kommenden] Buch "Algorithms of Oppression" [11] zeigt Safiya Noble [12] auf, wie die Auto-Complete-Funktion von Suchmaschinen gesellschaftliche Minderheiten oft mit negativen Eigenschaften assoziiert. Das passiert, weil die Suchmaschine hier in Teilen wie eine Wahlmaschine funktioniert, die leicht manipuliert werden kann [13]: Weiße Rassisten, Antisemiten oder andere Minderheiten-feindliche Gruppen können das Auto-Complete in ihrem Sinne manipulieren, indem sie häufig bestimmte Begriffe gemeinsam suchen. Aus einer ausschließlichen wirtschaftlichen Perspektive könnte man sagen: Die Suchmaschine gibt den Kunden, was sie wollen. Dem zugrunde liegt aber eben ein sehr limitiertes Verständnis davon, was Menschen wollen.

Für das Facebook-Beispiel hat Jodi Dean in ihrem Buch "Blog Theory" [14] die "Circuits of Drive" der Sozialen Medien beschrieben: In der automatisierten Öffentlichkeit stehen nicht die Inhalte an erster Stelle, die am nützlichsten, am wahrhaftigsten oder gemeinwohlorientiertesten sind, sondern Inhalte, die die größte Interaktion auslösen. Diese wiederum werden genutzt um psychologische Profile der Nutzer zu erstellen. Es geht dabei nicht mehr nur um die Binarität von Like oder nicht-Like, sondern um die Analyse emotionaler Reaktionen durch Affective Computing: Fröhliches Gesicht, trauriges Gesicht, weinendes Gesicht und so weiter. Das ist vor allem hilfreich für Werbetreibende, die Menschen an ihren verletzlichsten und emotionalsten Punkten treffen wollen. Die Ausrichtung auf Inhalte, die die größten Emotionen auslösen, ist also in erster Linie ein Weg, unsere emotionale Arbeit in Kapital umzuwandeln [15].

Anschaulich wird das unter anderem daran, dass vor wenigen Wochen öffentlich wurde [16], dass Facebook sein Targeted-Advertising-Tool bei einer australischen Großbank damit beworben hat, dass diese mit ihrer Werbung auf der Plattform gezielt emotional verletzliche Teenager ansprechen könnte. Für Ihre Analyse der digitalen Öffentlichkeit greifen Sie auch auf die Arbeit der Frankfurter Schule zurück. Wie kann sie helfen, die Macht der Intermediäre zu verstehen?

Ich spreche ja über den Zusammenhang von Kapitalakkumulation und emotionaler Manipulation - und ich entschuldige mich schon mal für meine intellektuellen Verkürzungen an dieser Stelle -, dafür sind die Arbeiten der Frankfurter Schule sehr hilfreich, weil sie Einsichten von Marx und Freud über das Ökonomische und das Psychologische kombiniert haben. Sie taten das, um zu zeigen, wie gewisse Formen der Macht von Unternehmen das Bewusstsein der Menschen so prägen können, dass diese bestimmte Aspekte des Lebens nicht mehr hinterfragen, in denen ihnen Emanzipation versagt wird. Das hilft zu erkennen, dass die Kombination aus großer Finanzkraft auf der einen und dem Schlüssel zur Psyche der Menschen, zu dem, was sie begehren, auf der anderen Seite, ein mächtiges Werkzeug für Manipulation und Kontrolle ist. Die Ideen der Frankfurter Schule mögen manchen in der heutigen Situation als unangemessen vorkommen, weil sie im abscheulichen Angesicht des Totalitarismus entwickelt wurden. Aber da immer mehr Menschen in der digitalen Öffentlichkeit leben und in der Mediatisierung ihrer Wertvorstellungen von diesen großen US-Unternehmen abhängen, müssen wir erkennen, dass deren Konzentration sowohl monetärer als auch psychologischer Macht ein Grund zur Sorge ist.


Microtargeting im Wahlkampf ist missbrauchsanfällig

Eine gutes Beispiel für die Bedeutung dieser Kombination ist vielleicht auch der Einsatz von Microtargeting im Wahlkampf. Wir haben in den USA gesehen, wie die Trump-Kampagne Negativinformationen über Hillary Clinton [17] sehr gezielt an bestimmte Wählergruppen ausgespielt hat, um ihre Motivation zu schwächen, für seine Konkurrentin zu stimmen - sogenanntes "Voter Suppression". Die Parteien in Deutschland sagen bislang einhellig, dass Microtargeting eine gute Möglichkeit sei, mit Wählerinnen und Wählern in Kontakt zu kommen.

Ich würde dem entgegnen, dass es viele Studien gibt, in denen Menschen eindeutig gesagt haben, dass sie kein verhaltensbasiertes Targeting wollen, speziell von politischen Parteien. Aber gab es dazu in Deutschland nicht eigentlich auch ein Abkommen?

Es gibt mehr oder weniger klare Selbstverpflichtungen [18] der demokratischen Parteien, auf Fake News und Manipulation durch Social Bots zu verzichten. Microtargeting ist da nicht miteingeschlossen.

Oh, das ist interessant. Ich finde, dass es eine demokratische Minimalanforderung ist, ein Register der zugeschnittenen Werbung einzurichten, um Microtargeting öffentlich nachvollziehbar zu machen. Wenn es einen Missbrauch dieser Technik gibt, haben wir zumindest einen Nachweis dieser Tätigkeit und könnten notfalls widersprechen. Ich würde aber lieber in einer Welt ganz ohne Microtargeting leben. In den USA kommt beispielsweise noch das Problem der Parteienfinanzierung hinzu: Wenn alle politischen Akteure in etwa die gleichen Mittel für Targeting zur Verfügung haben, ist das okay. In den USA aber gibt es die einflussreichen Milliardäre, die ihr Geld in den Wahlkampf werfen und das Gewicht des Microtargeting potenzieren können.


Keine Angst vor Regulierung

Zurück zu den Black Boxes: Sie diskutieren die Intermediäre in einer Reihe mit klassischen journalistischen Medien. Facebook hat für sich lange Zeit in Anspruch genommen, eine neutrale Plattform zu sein. Welche Regulierung braucht die digitale Öffentlichkeit Ihrer Meinung nach?

Facebook versucht jetzt, sich als globale Community und globale Öffentlichkeit zu verkaufen [19]. Somit ist inzwischen unbestreitbar, dass damit Verantwortung einhergeht. Meine größte Sorge ist, dass die Verteidiger der Meinungsfreiheit pauschal davor warnen, das Internet durch Regulierung kaputt zu machen. Ich glaube nicht, dass es nur eine einzige Form des Internets mit einem einzigen globalen Regel-Set geben muss und dass wir uns deshalb immer lediglich auf den kleinsten gemeinsamen Nenner einigen müssen. Technisch ist es sehr wohl möglich, die Funktionsweise der Plattformen an nationale oder gerade supra-nationale Regulierungen wie der EU anzupassen.

Wo würden Sie konkret ansetzen?

Ein grundlegender Punkt ist, dass Menschen verstehen können, wie die automatisierte Öffentlichkeit funktioniert. Also welche Daten gehen als Input in die Maschine und was führt zu dem, was ich am Ende in meinem Newsfeed oder in der Suchmaschine sehe. Ein anderer Aspekt muss auf jeden Fall eine größere Aufmerksamkeit der Plattformen für "Hate Speech" sein. Mindestens braucht es hier ein vernünftiges Monitoring und extrem hasserfüllte Inhalte sollten konsequenter gebannt werden. Aggressives Verhalten von Social Bots, etwa Hashtag-Flooding, sollte zudem unterbunden oder mindestens kenntlich gemacht werden. Ein weiter Punkt ist Verbraucherschutz: Es braucht ein ganz klares Labelling von Werbung und die Möglichkeit, zu verstehen, wer welche Werbung zu welchem Zweck gekauft hat.

Wir erleben in Hinblick auf die Regulierung der digitalen Öffentlichkeit eine große Ambivalenz. Auf der einen Seite die von Ihnen angesprochene Scheu vor Eingriffen, weil dies "Innovation bremsen" könnte. Auf der anderen Seite gibt es aber auch fundierte Ängste vor Overblocking [20]. Auch NGOs kritisieren [21] in Deutschland beispielsweise das neue Netzwerkdurchsetzungsgesetz [22], weil es die inhaltliche Dominanz der digitalen Öffentlichkeit durch die Betreiber der Social-Media-Plattform zementiert, indem diese gesetzlich verpflichtet werden, allein und schnell zu entscheiden, welche Inhalte gewünscht beziehungsweise legal sind und welche nicht.

Es gibt die berechtigte Sorge vor Collateral Censorship, also eine wahllose Zensur durch die Intermediäre, die Strafen entgehen wollen und deshalb zu viel löschen. Die Antwort kann nur sein: Regierungen, Zivilgesellschaft und Plattformen müssen zusammenarbeiten und Governance-Strukturen schaffen, die die Qualität der Öffentlichkeitsregulierung sicherstellen.

Ich halte zum Beispiel extreme Strafen für Fake News nicht für die Lösung. Aber vielleicht brauchen wir auch hier eine neue externe Institution, die auf bestimmte gefährliche und falsche Inhalte hinweist. Selbst wer sich um Zensur sorgen macht, sollte keine Angst vor einem Hinweis neben einer Nachricht haben, der zu einer Rekonstruktion führt, woher eine Story ursprünglich stammt. Der Pizzagate-Fall ist dafür ein gutes Beispiel, weil die Geschichte wirklich absolut keine Faktenbasis hatte, aber sich unglaublich verbreitete. Hier hätte ein Verweis auf die Wurzeln der Geschichte auf einer Webseite weißer Rassisten geholfen.

Wir können also gerne einen Dialog über die Vorbehalte gegen Regulierung führen, aber Meinungsfreiheitsfundamentalismus hilft auch nicht weiter. Weder brauchen wir eine schwerfällige staatliche Überregulierung der Öffentlichkeit, noch sollten wir weiterhin sagen, dass Google und Facebook schon von alleine alles richtigmachen werden. Wir müssen einen Mittelweg finden. Ein Weg wären korporatistische Einigungen, wie sie in der Vergangenheit in Verhandlungen zwischen Arbeitskräften und Arbeitgebern gelungen ist. Wir riskieren sonst die totale Fragmentierung der Öffentlichkeit.


Über den Autor

Ingo Dachwitz [23] ist Medien- und Kommunikationswissenschaftler, Redakteur bei netzpolitik.org, Mitglied beim Verein Digitale Gesellschaft und Moderator des monatlichen Netzpolitischen Abends [24] in Berlin. Themen: Big Data, Algorithmische Systeme, kommerzielle Überwachung, politische Ökonomie des Informationskapitalismus, Datenschutz, Verbraucherschutz, Plattformen, Strukturwandel der Öffentlichkeiten, politische Kommunikation, Jugend, Bildung, Digital Literacy. Ingo versucht in Vorträgen und Workshops auch die Evangelische Kirche mit dem digitalen Zeitalter vertraut zu machen. Außerdem setzt er sich als Mitglied der sozialethischen Kammer der EKD für eine netzpolitische Positionierung der Kirche ein.


Anmerkungen:
[1] https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/
[2] https://www.law.umaryland.edu/faculty/profiles/faculty.html?facultynum=984
[3] https://re-publica.com/en/17/session/automated-public-sphere
[4] http://www.carta.info/85027/digitale-oeffentlichkeit-schauen-wir-den-algorithmen-auf-die-finger/
[5] https://netzpolitik.org/2016/neues-tool-zeigt-konservative-und-liberale-filterbubbles-bei-facebook/
[6] http://www.nytimes.com/2011/02/13/business/13search.html?_r=2&pagewanted=all
[7] http://www.hup.harvard.edu/catalog.php?isbn=9780674368279
[8] https://netzpolitik.org/2014/kontroverse-studie-facebook-spielt-mit-unseren-gefuehlen/
[9] https://www.youtube.com/watch?v=CPCzNUtBRgQ
[10] https://netzpolitik.org/2017/facebook-stellt-diskriminierende-zielgruppenauswahl-in-den-usa-teilweise-ein/
[11] https://nyupress.org/books/9781479837243/
[12] https://safiyaunoble.com/
[13] https://www.theguardian.com/commentisfree/2016/dec/11/google-frames-shapes-and-distorts-how-we-see-world
[14] http://eu.wiley.com/WileyCDA/WileyTitle/productCd-0745649696.html
[15] https://netzpolitik.org/2016/den-trackern-auf-der-spur-forscher-geben-einblick-in-die-kommerzielle-ueberwachungsindustrie/
[16] https://netzpolitik.org/2017/verhaltensbasierte-werbung-facebook-australien-analysiert-emotionen-und-aengste-von-jugendlichen/
[17] https://www.bloomberg.com/news/articles/2016-10-27/inside-the-trump-bunker-with-12-days-to-go
[18] https://netzpolitik.org/2017/gruene-beschliessen-selbstverpflichtung-gegen-social-bots-und-fake-news/
[19] https://netzpolitik.org/2017/mark-zuckerberg-stellt-die-machtfrage-und-antwortet-mit-mehr-facebook/
[20] https://netzpolitik.org/2017/netzdg-fake-law-gegen-hate-speech/
[21] https://netzpolitik.org/2017/breites-buendnis-stellt-sich-mit-deklaration-fuer-die-meinungsfreiheit-gegen-hate-speech-gesetz/
[22] https://netzpolitik.org/2017/bundestag-beschliesst-netzwerkdurchsetzungsgesetz/
[23] https://netzpolitik.org/author/ingo/
[24] https://digitalegesellschaft.de/portfolio-items/netzpolitischer-abend/


Der Text steht unter der Lizenz Creative Commons 4.0
http://creativecommons.org/licenses/by/4.0/

*

Quelle:
Internationale Presseagentur Pressenza - Büro Berlin
Johanna Heuveling
E-Mail: johanna.heuveling@pressenza.com
Internet: www.pressenza.com/de


veröffentlicht im Schattenblick zum 26. Juli 2017

Zur Tagesausgabe / Zum Seitenanfang