Specials Zurück

Wer blickt hier noch durch? 

Schwerpunkt Media Convention / re:publica

Wer blickt hier noch durch? 
Foto: © Jens Thomas

Vom 3. bis zum 5. Mai fand die MEDIA CONVENTION zum fünften Mal in Berlin statt – erneut in Kooperation mit der re:publica. In diesem Jahr stand die gegenseitige Durchdringung von Mensch und Technik im Mittelpunkt der Debatte: Wie bestimmen Algorithmen unseren Alltag? Haben wir die Zukunft noch in der Hand? Wir waren als Medienpartner wieder vor Ort. 
 

VON  Boris Messing



Morgenstund‘ hat Gold im Mund, heißt es. Meine fängt mit Warten an, und Gold lässt sich nur an meinem Backenzahn erspüren. Oben rechts (um ganz genau zu sein). Nachdem die gefühlt drei Kilometer lange Menschenschlange ausgestanden ist, passiere ich das Gittertor und gehe über den Hof, der zu den Hallen von der STATION führt. Gleich am Eingang stimmt mich warmer Deep House aus den Boxen auf die Mysterien des Digitalen ein. Peter Maffay wäre hier fehl am Platz. Über meinem Kopf rattert dumpf die U-Bahn vorbei, und ich denke, mit der Taubenscheiße entlang der Trasse gäbe das ein hübsches Postkartenmotiv ab. Was wären Bahntrassen ohne Taubenscheiße? Das ist wie Aufstehen ohne Mundgeruch. Schon der Hof ist voller Menschen, die entspannt in Grüppchen beisammenstehen und sich unterhalten. Der Geruch von Kaffee und Zigarettenrauch liegt in der Luft. 

Die STATION, ein ehemaliger Bahnhof, ist europaweit einer der beliebtesten Orte für Tech-Kongresse und Events. Aus der Ferne wirkt seine Fassade aus Stahlträgern und Klinkerbauten wie ein Abbild aus der Bronx. In mehreren Hallen finden über drei Tage rund um die Uhr gleichzeitig verschiedene Veranstaltungen statt; ich muss also eine Auswahl treffen, um nicht den Kopf zu verlieren. Wie ich sehe, bin ich nicht der einzige, dem es so ergeht: die Überforderung steht den Menschen ins Gesicht geschrieben. In Scharen wuseln sie durch die grün beleuchteten Hallen, Flyer in der Hand und Fragezeichen in den Augen. Schwere umgehängte Fotoapparate schwingen im Takt ihres trägen Hüftschwungs mit. Hier und da sitzen Journalisten in den Ecken und führen eifrig Interviews. Allein die Media Convention bietet 69 Veranstaltungen an, zusammen mit der re:publica sind das über 500 Stunden Programm mit rund 1000 Speakern. Über 20.000 Menschen werden am Ende die beiden Tech-Kongresse besuchen. Ein Rekord.

Boris Messing vom CCB Magazin vor Ort auf der diesjährigen Media Convention und re:publica: Wo geht's lang? Auf der Suche nach dem Datenwurm. Foto: © Jens Thomas


Ich klappere ein paar Stände ab und entscheide mich dann zum Infostand zu gehen, um meine Wahl zu treffen. Ein kurzer Blick ins Programm wirft sofort Falten auf die Stirn: Keynotes, Panels, Workshops, Fireside-Chats und Best-Practice-Presentations – what the fuck is this!, frage ich mich, zu Deutsch: worum mag es sich da handeln? Na, immerhin weiß ich was ein Workshop ist. Ich entscheide mich für eine Talk Session zu Medien und Netzpolitik und suche die entsprechende Stage zum Talk auf, die sogenannte Talkstage. Verwirrt? Das ist noch gar nichts gegen das, was ich jetzt zu hören bekomme. Ich setze mich in die vorderste Reihe neben eine ältere Dame in rotem Kleid (weiß die was ein Algorithmus ist!?) und lausche gespannt den Speakern, die auf die Bühne treten. Bei all den Anglizismen bin ich froh, dass sie das Gespräch auf Englisch führen. Ich ziehe das Original immer der Kopie vor. 

Inside Media: Im Moloch der Daten?

Die Sprecher Dipayan Ghosh, Fellow an der Harvard Kennedy School und vormaliger Technologie-Berater von Barack Obama, Aniko Hannak, Forscherin der Central European University, und Alexander Sängerlaub, Forscher bei der Stiftung Neue Verantwortung, setzen sich in kurzen Vorträgen und einem anschließenden Gespräch mit dem brandaktuellen Thema der Verbreitung von Desinformationen und Manipulationsversuchen auf digitalen Plattformen wie Facebook, Google oder Twitter auseinander. Die Fragen, die in den Raum geworfen werden und einer Antwort harren, sind klar und verständlich formuliert: Wie lassen sich Fake News unterbinden? Wie finden sie ihre Zielgruppe? Wie werden die Daten, die wir von uns im Netz verbreiten, von den Tech-Unternehmen genutzt? Werden sie zum reinen Geldmachen missbraucht? Wie können wir uns dagegen schützen? Und nach welchen Prinzipien funktionieren eigentlich die Algorithmen, die uns personalisierte Infos und auf uns gemünzte Werbung präsentieren? Die Antworten darauf sind nicht leicht. Sie bleiben allgemein und abstrakt, nicht zuletzt, weil das Thema schwer zu durchdringen ist - formlos wie Googles geheimnisvoller Such-Algorithmus. 
 

Sehen und Gesehenwerden:  Podcaster Frank Joung mit Guests. Foto: © Jens Thomas
 

Dipayan Ghosh, der vom Forbes-Magazin 2016 zu einem der führenden Köpfe (“30 under 30“) in Recht und Politik gekürt wurde, gilt als intimer Kenner der Tech-Industrie. Er hat nicht nur für Obama als Berater gearbeitet, sondern auch für Facebook, das er in Punkto Datenschutz und Öffentlichkeitsarbeit beraten hat. (Nicht sehr erfolgreich, möchte man spötteln). Der noch immer schwelende Skandal um Cambridge Analytica’s millionenfachen Datenklau ist nur das prominenteste Beispiel einer Serie von Datenklaus und der möglichen gezielten Verbreitung von Desinformationen. Laut Ghosh passiert die Verbreitung von Lügen im Netz zu jeder Zeit und überall. Er sieht dies als eine große Gefahr für die Stabilität der Demokratie, vor allem wenn es sich um Lügen handelt, die darauf abzielen, die politische Einstellung der Angesprochenen zu beeinflussen. Ghosh räumt aber ein, dass es schwierig ist herauszufinden, was mit den Daten genau geschieht. Im Falle von Cambridge Analytica oder den vermeintlich russischen Hackern während des US-Wahlkampfes stellt sich die Frage, wer von den geklauten Daten und Fake News profitiert hat: Haben sie Trumps Wahlkampagne genutzt und ihm zum Sieg verholfen? Von wem wurden die Daten noch genutzt und zu welchem Zweck? Die Antworten dazu stehen noch aus. Und damit auch der Ansatz wie eine sinnvolle Medienregulierung aussehen könnte. In Ghosh’s Worten: “We don’t really understand the ecosystem. The ecosystem itself is changing every day.”

Deus ex re:publica

Handelt es sich bei den oben genannten Beispielen um eindeutig kriminelles Verhalten, bei dem das Grundproblem darin besteht, Tathergang und Täter zu begreifen, so ist das folgende Beispiel nicht leichter verständlich. Aniko Hannak, eine junge Tech-Forscherin mit blonden Locken, erwähnt ein weiteres Problem der Datenverarbeitung, das als solches schwierig zu erkennen ist: die sogenannte Informationsblase (Filter Bubble). Also Algorithmen auf Webseiten, die vorauszusagen versuchen, welcher Inhalt mich noch interessieren könnte und mir daraufhin entsprechende Vorschläge servieren. Die Voraussage wird aus meinem Netzverhalten errechnet, aus vielerlei Daten, die ein bestimmtes Bild von mir zeichnen: Suchhistorie, Standort des Benutzers, Klickverhalten usw. Damit, so die Kritik, bekommt der User aber nur einen sehr einseitigen Inhalt gezeigt, der seine bestehenden Meinungen und Ideen stützt, ohne ihm eine andere (neue) Perspektive aufzuzeigen. Alle Plattformen sammeln Daten (Big Data), um eine Art Psychogramm des Users zu erstellen. Dieses nutzen sie dann für ihre jeweilige Marketingstrategie. Im Fall der großen Player Google und Facebook sind das Strategien zum gezielten Schalten von Werbung, durch die sie sich hauptsächlich finanzieren. Das Problem ist aber komplexer als man denkt. Alexander Sängerlaub, der über Fake News forscht, stellt die These auf, dass Algorithmen der oben genannten Art, Meinungen über Dinge nur verstärken, nicht verursachen. Schließlich sei es die Entscheidung des Users, ob er Breitbart liest oder die New York Times. Die Leute fischten sich aus dem Netz heraus, was ihr Narrativ nähre; für die Voreingenommenheit für diese oder jene Sicht sei jeder selbst verantwortlich. Oder anders ausgedrückt in Ghosh’s Worten: “Facebook‘s understanding of who we are as people is based on who we are in real life.“ Hannak widerspricht und betont, dass Algorithmen dieser Art darüber hinausgingen, einfach nur Vorschläge anhand des Netzverhaltens zu erstellen, sondern Interessen und Sichtweisen vorwegnähmen, die womöglich (noch) gar nicht bestünden. Dann aber wieder: auf was basieren diese Annahmen? Auf den Daten des Nutzers. Es ist eine klassische philosophische Frage: was war zuerst da, Huhn oder Ei? 

Facebook‘s understanding of who we are as people is based on who we are in real life - Dipayan Ghosh, Datenschutzexperte

Am Ende sind sich alle einig, dass etwas getan werden muss: Mehr Transparenz, mehr Datenschutz, mehr Wettbewerb. Eine stärkere Medienregulierung. Sollte es gar eine Art von hypokritischen Eid für Programmierer geben? Einen auf die heutigen Verhältnisse angepassten Digital Social Contract? Im Dschungel der Daten und undurchdringlichen Algorithmen ist es schwer, auf eine Lichtung zu stoßen. Wenn sich antike Dramatiker in ihren Werken in unlösbare Konflikte verstrickten, ließen sie einfach eine Gottheit auf die Bühne schweben, die das Problem vom Tisch fegte. Deus ex machina nannte man diesen Trick. Eine solche klärende Gottheit hätte ich mir auch auf der diesjährigen re:publica und Media Convention gewünscht.

Die Veranstaltung ist vorbei. Ich klatsche höflich und nicke bedächtig mit dem Kopf. Und die Dame neben mir? Weiß sie nun, was ein Algorithmus ist? Es stellt sich heraus, dass sie für die Medienanstalt Berlin-Brandenburg arbeitet und zu den Veranstaltern gehört. Oha, denke ich rot angelaufen, und schleiche mich aus dem Saal – die Bahntrasse ablichten. 

Rubrik: Specials

rss

Schon gelesen?

schließen
schließen

Cookie-Richtlinie

Wir verwenden Cookies, um dir ein optimales Website-Erlebnis zu bieten. Durch Klicken auf „Alle akzeptieren“ stimmst du dem zu. Unter „Ablehnen oder Einstellungen“ kannst du die Einstellungen ändern oder die Verarbeitungen ablehnen. Du kannst die Cookie-Einstellungen jederzeit im Footer erneut aufrufen.
Datenschutzerklärung | Impressum

Cookie-Richtlinie

Wir verwenden Cookies, um dir ein optimales Website-Erlebnis zu bieten. Durch Klicken auf „Alle akzeptieren“ stimmst du dem zu. Unter „Ablehnen oder Einstellungen“ kannst du die Einstellungen ändern oder die Verarbeitungen ablehnen. Du kannst die Cookie-Einstellungen jederzeit im Footer erneut aufrufen.
Datenschutzerklärung | Impressum