Fr
23.02

Algorithmen transparent machen – ein Gespräch mit Dr. Anja Zimmer

von Bettina Pregel unter Netzwelt

Algorithmen transparent machen: Ob das notwendig ist und wie das gehen kann, wird am 28. Februar auf einer Veranstaltung zum Projekt #Datenspende – „Google und die Bundestagswahl 2017“ diskutiert. Finanziert haben die Studie sechs Medienanstalten, darunter die Medienanstalt Berlin-Brandenburg. Blmplus hat mit mabb-Direktorin Dr. Anja Zimmer, Speakerin auf der Veranstaltung in Berlin, über den Einfluss von Suchmaschinen auf die politische Meinungsbildung gesprochen.

„Es ist eine wichtige Aufgabe der Medienanstalten, die Auswirkungen der Algorithmen zu erforschen“

Warum sind Algorithmen überhaupt gesellschaftlich relevant?

Anja Zimmer

Anja Zimmer: „Durch Intermediäre verändern sich die Dynamiken der Öffentlichkeit und der  Meinungsbildung“ / Foto: Falk Weiß

Algorithmen, also automatisierte Entscheidungspozesse, werden zunehmend von Informationsintermediären zur Selektion von Inhalten eingesetzt. Das ist notwendig, denn die Komplexität der Informationswelt ist so gestiegen, dass wir Wege brauchen, um Informationen zu strukturieren und zu priorisieren. Algorithmen helfen dabei.

Wie diese Strukturierung erfolgt, ist gesellschaftlich relevant. Es macht einen Unterschied, nach welchen Kriterien Informationen präsentiert werden. Wie gefiele es Ihnen, wenn z. B. Nachrichten danach sortiert würden, ob sie ein interessantes Werbeumfeld sind? Oder wenn Informationen über eine bestimmte Person, eine Partei oder ein Projekt bevorzugt würden?

Ich halte es für eine wichtige Aufgabe der Medienanstalten, die Auswirkungen der algorithmischen Auswahl auf unseren Informationshorizont zu erforschen und beispielsweise zu schauen, ob es bei der Google-Suche Abweichungen gibt. Dazu konnte die #Datenspende-Studie von Prof. Dr. Katharina Zweig einen wichtigen Beitrag leisten.

Filterblase und Fake News sind Begriffe, die zu einer intensiven Diskussion über den Einfluss von Suchmaschinen wie Google auf die politische Meinungsbildung geführt haben. Wie schätzen Sie diesen Einfluss ein?

Durch Intermediäre wie Facebook und Google verändern sich die Dynamiken der Öffentlichkeit und Meinungsbildung. Wie genau diese Veränderungen zu beurteilen sind, müssen wir mit Hilfe der Wissenschaft herausfinden. Daher haben die Medienanstalten in den letzten Jahren verschiedene Studien zur Bedeutung von Intermediären in Auftrag gegeben. Sie zeigen, dass Deutschland insgesamt von einer vielfältigen Medienlandschaft profitiert.

Desinformationskampagnen und Filterblasen haben daher hier nicht denselben beunruhigenden Effekt wie beispielsweise in den USA. Das heißt aber nicht, dass es diese Effekte nicht gibt, sondern erst einmal nur, dass sie in Deutschland noch keine so großen Auswirkungen haben. Noch informieren sich die meisten Nutzerinnen und Nutzer aus unterschiedlichen Quellen.

Wir hoffen natürlich, dass das so bleibt. Das entbindet uns aber nicht von der Verantwortung, zu schauen, welche Rolle Intermediäre bei der Informationsvermittlung spielen. Nur wenn wir den Wandel zur algorithmischen Öffentlichkeit verstehen, können wir mögliche Gefahrenpotentiale für die Medienvielfalt rechtzeitig erkennen.

„Die Ergebnislisten zeigen einen eher geringen Grad an Personalisierung“

Ganz konkret gefragt: Hat die Filterblase laut den Studienergebnissen eine große Rolle im Bundestagswahlkampf gespielt?

Die #Datenspende-Studie zeigt, dass sowohl bei den Ergebnislisten der Google-Suchmaschine als auch bei den Google-Nachrichten ein eher geringer Grad an Personalisierung herrscht. Unterschiede scheinen eher regional begründet zu sein. Eli Parisers Theorie der Filterblasen wurde mit dieser Studie daher nicht bestätigt. An einigen Stellen hat Frau Prof. Dr. Zweig Auffälligkeiten aufgezeigt, die wir uns näher anschauen wollen.

Das Besondere an dieser Studie ist, dass wir uns zum ersten Mal empirisch mit den Ergebnissen von Suchprozessen auseinandersetzen und nun anhand von Daten und nicht Vermutungen diskutieren können. Dabei darf man aber nicht vergessen: Die Studie beschäftigt sich mit einer sehr konkreten Frage, nämlich mit der Suche nach einzelnen Politikern und Parteien im Wahlkampf, und dies mit Hilfe einer freiwilligen Datenspende der Nutzerinnen und Nutzer, sie ist also nicht repräsentativ.

Suchprozesse unterliegen konstanten Veränderungen. Medienanstalten und auch die Öffentlichkeit müssen weiter genau hinschauen.

Das Black Box Design der Studie veranschaulicht außerdem implizit ein ganz grundlegendes Problem für die Erforschung der Wirkungsweise von Informationsintermediären: das Problem, dass die Wissenschaft wie auch die Regulierung kaum Zugang zu Daten über die tatsächliche Nutzung und Wirkung dieser Dienste haben. Hier mehr Transparenz herzustellen, ist eine zentrale Aufgabe für die kommenden Jahre.

Lässt sich die Transparenz von Algorithmen überhaupt gesetzlich regulieren, und wenn ja, funktioniert das im nationalen Rahmen?

Anknüpfungspunkte für eine Regulierung algorithmischer Entscheidungssysteme von Informationsintermediären lassen sich in anderen Sektoren wie der Bankenregulierung finden. Die Plattformregulierung ebenso wie das Kartellrecht haben das Ziel, Diskriminierungsfreiheit durchzusetzen. Und aus dem Verbraucher- und Datenschutz wissen wir, wie wichtig Transparenz ist. Es gibt also durchaus Ansätze, wie Intermediäre und die von ihnen verwendeten Algorithmen reguliert werden könnten.

Gesetzliche Transparenzpflicht für Intermediäre?

Wichtig ist z. B., dass die Nutzerinnen und Nutzer wissen, worauf sie sich einlassen, wenn sie ein Angebot nutzen. Um dies zu gewährleisten, könnte Intermediären eine gesetzliche Transparenzpflicht auferlegt werden, die sie dazu verpflichtet, die entsprechenden Informationen zur Verfügung zu stellen. Das allein reicht aber nicht: Zum einen dürften viele weder Zeit noch Lust haben, lange und komplexe Transparenzerklärungen zu lesen. Zum anderen hilft Transparenz nur begrenzt, wenn wir über marktstarke Anbieter sprechen.

Hier kommt die Regulierung ins Spiel. Neben der Überprüfung der Einhaltung der Transparenzpflicht kann sie sicherstellen, dass Suchergebnisse nicht durch Zugangsbeschränkungen oder kommerzielle Interessen verfälscht werden. Und sie kann sich damit beschäftigen, Alternativen für die Nutzerinnen und Nutzer zu schaffen, z. B. indem ihnen ermöglicht wird, ihre Daten mitzunehmen, oder indem Wettbewerb erleichtert wird. Das ist auch in anderen Rechtsbereichen schon passiert, z. B. durch offene Standards und Schnittstellen.

Es macht sicher Sinn, dabei perspektivisch über Landesgrenzen hinweg an Lösungen zu arbeiten. Meiner Meinung nach spricht aber nichts dagegen, erst einmal national anzufangen, sonst schieben wir die Themen unnötig auf die lange Bank. Eine Zusammenarbeit auf internationaler Ebene setzt voraus, dass wir ein gemeinsames Verständnis von den Problemen haben. Das muss möglicherweise noch wachsen.

Ein erster Zwischenbericht hat gezeigt, dass in den Suchergebnissen wenig Raum für Personalisierung bleibt. Ist eine Regulierung dann überhaupt noch notwendig?

Das lässt sich so pauschal und aufgrund der Ergebnisse dieser einen sehr spezifischen Studie nicht beantworten. Das #Datenspende-Projekt hat sich stichprobenartig mit der Personalisierung von Suchanfragen zur Bundestagswahl beschäftigt und hier eine Momentaufnahme geliefert.

„Wir müssen uns Gedanken machen, wie Transparenz über die Prozesse der Meinungsfindung hergestellt werden kann“

Viele andere Fragen sind aber noch offen. So sagen die Ergebnisse z. B. nichts über das Ranking aus oder darüber, ob Inhalte diskriminierungsfrei behandelt werden. Auch andere Bereiche, die für die politische Meinungsbildung heute relevant sind, wie beispielsweise der Facebook-Newsfeed oder die Informationsverbreitung über Twitter, werden nicht untersucht.

Wir müssen uns grundsätzlich Gedanken darüber machen, wie Transparenz über die Prozesse der Meinungsfindung hergestellt werden kann. Es herrscht eine Asymmetrie des Wissens darüber, wie Menschen sich tatsächlich digital informieren und Intermediäre nutzen. Dieses Wissen liegt im Moment zu großen Teilen bei den Intermediären. Das ist ein gravierendes Hindernis für die Forschung, aber auch für die Regulierung.

Media Policy Lab

Das Media Policy Lab erarbeitet, wie eine Regulierung zur Sicherung der digitalen Medienvielfalt aussehen kann / Foto: mabb

Regulierungslösungen zu finden, gehört auch zu den Aufgaben des neu gegründeten Media Policy Labs. Welche Ziele hat sich das Lab gesetzt?

Das Media Policy Lab wurde von der Medienanstalt Berlin-Brandenburg ins Leben gerufen, um sich der Sicherung von Medienvielfalt in der digitalen Welt zu widmen. Das ist ja eine unserer Kernaufgaben. Dabei bilden wir eine Art Think-Tank, der sich zusammen mit Wissenschaftlerinnen und Wissenschaftlern und Vertreterinnen und Vertretern von NGOs interdisziplinär mit der Frage beschäftigt, wie Informationsintermediäre die Medienlandschaft beeinflussen.

„Wir erarbeiten, wie eine Regulierung aussehen kann, die Transparenz und Datenschutz gewährleistet“

Ein Projekt des Labs ist die sogenannte „Data Access Initiative“. Wir wollen erarbeiten, welche Informationen oder Daten notwendig sind, um Forschung, ggf. aber auch um eine sinnvolle Regulierung zur Sicherung der digitalen Medienvielfalt zu ermöglichen. Dabei fragen wir uns z. B., wie eine Regulierung aussehen kann, die gleichzeitig Transparenz und notwendigen Datenschutz gewährleistet.

Das Ziel des Labs ist es, gemeinsam mit unseren Expertinnen und Experten innovative Ansätze zu finden, um z. B. Informationsintermediäre besser zu verstehen und im besten Fall konkrete Vorschläge zu entwickeln.

Nach Meinung einiger Experten wird in Deutschland kaum noch Medienpolitik betrieben. Gegen US-Konzerne wie Google oder Facebook könne die föderale, kleinteilige Medienpolitik in Deutschland nichts ausrichten. Was halten Sie von dieser These?

Es stimmt natürlich, dass ein föderales System der Medienaufsicht in Deutschland vor dem Hintergrund globaler Veränderungen der Medienlandschaft sich der Herausforderung stellen muss, eine gemeinsame Stimme zu finden. Dieser Prozess ist auf einem guten Weg. Die mabb möchte dazu mit dem Media Policy Lab beitragen.

„Ein Austausch zwischen Wissenschaft und Regulierung hilft“

Wenn wir uns mit so komplexen Systemen, wie den algorithmischen Entscheidungen von Google oder Facebook beschäftigen, hilft ein enger Austausch zwischen Wissenschaft und Regulierung ungemein.

Der Föderalismus gilt aber nicht nur für die Medienregulierung. In Deutschland liegt die Aufsicht in vielen Bereichen in der Zuständigkeit der Länder. Auch die Staatsanwaltschaften, mit denen wir z. B. in Fragen des Jugendschutzes häufig zusammenarbeiten, sind föderal organisiert, ebenso z. B. die Finanzämter. Ich höre aber selten die Frage, ob sie ihre Aufgaben auch gegenüber internationalen Konzernen erfüllen können. Das wäre auch absurd, denn natürlich können sie das. Auch internationale Unternehmen sind es gewohnt, sich an nationale Vorschriften zu halten, und das auch, wenn sie durch Landesbehörden umgesetzt werden.

Der Behauptung, dass die deutsche Politik gegen US-Konzerne nichts ausrichten kann, würde ich folglich widersprechen. Im Gegenteil denke ich sogar, dass wir wichtige Impulse geben können, die als Signalwirkung auch in europäischen Entscheidungsprozessen eine Rolle spielen werden.

Infos zur Veranstaltung gibt es hier. Noch sind Anmeldungen möglich.

Zur Person

Dr. Anja Zimmer ist seit März 2016 Direktorin der Medienanstalt Berlin-Brandenburg. Zuvor war sie als Geschäftsführerin des Deutschen Journalisten-Verbands Nordrhein-Westfalen tätig. Davor war sie Partnerin mit Schwerpunkt Medien- und Telekommunikationsrecht der Anwaltsgesellschaft Beiten Burkhardt in Frankfurt am Main und als Senior Manager Government Relations bei der Deutschen Telekom für Medienpolitik und Regulierung zuständig.

 

Kommentar abgeben

Folgende Beiträge könnten Sie ebenfalls interessieren:

Kommentar abgeben

Bitte achten Sie auf höfliche und faire Kommunikation. Mehr dazu unter Blogregeln.

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit einem * markiert.

Hiermit akzeptiere ich die Datenschutzbedingungen und mir ist bewusst, dass meine Daten zur Verarbeitung meines Kommentares gespeichert werden.