Do
18.01

Dem Geheimnis des Google-Algorithmus auf die Spur kommen

von Elena Lorscheid unter Netzwelt

Am 28. Februar werden die Ergebnisse der Studie „#Datenspende: Google und die Bundestagswahl 2017“ in Berlin vorgestellt. Sieben Wochen wurden freiwillig Daten von Internetznutzern gespendet, um die Mechanismen des Google-Algorithmus zu ergründen. Blmplus berichtet, warum das Wissenschaftsprojekt so wichtig ist und welche Ziele die Studie verfolgt.

Die Ziele der Algorithmus-Studie „#Datenspende: Google und die Bundestagswahl 2017“

Im Zeitalter von #FakeNews und #HateSpeech ist es besonders vonnöten, Internetnutzern hilfreiche Informationen zum Umgang mit Medien an die Hand zu geben und digitale Prozesse transparenter zu machen. Das zur Bundestagswahl 2017 intensiv diskutierte Thema der FakeNews und Social Bots, gerade auch nach der Wahl von Trump, legte die gegenwärtige #Vertrauenskrise der Menschen in die Medien offen.

Algorithmus Studie

Wie beeinflussen Suchmaschinen unsere Wahrnehmung?, ist eine Frage, der die Studie „#Datenspende: Google und die Bundestagswahl 2017“ auf den Grund gehen will

Selbst für Experten ist es kaum mehr zu durchschauen, was mit ihren Daten im Netz passiert. Deswegen ist es unerlässlich, die Meinungsmacht von Medienriesen wie beispielsweise Google auf wissenschaftlicher Basis zu erforschen und die Strukturen hinter ihren Auswahl-Mechanismen zu ergründen.

Werden von Google Suchergebnisse personalisiert? Wenn ja, aufgrund von welchen Daten? Sieht meine Ergebnisseite anders aus als die meiner Freunde? Welche Themen werden bei Google aktuell gepusht und welche fallen raus? Es ist längst bekannt, dass Suchmaschinen einen Einfluss darauf haben, welche Informationen wir wahrnehmen.

Einflussfaktoren bei der Google-Suche

2017 rief die BLM gemeinsam mit fünf weiteren Landesmedienanstalten und AlgorithmWatch deswegen das Crowdsourcing-Projekt „#Datenspende: Google und die Bundestagswahl 2017“ ins Leben und forderte Internetnutzer dazu auf, die eigenen Daten im Rahmen der Bundestagswahl für die Studie zu spenden, d.h. weiterzugeben und auswerten zu lassen, um dem Geheimnis des Google-Algorithmus auf die Spur zu kommen. Die Datenspende lief vom 6. Juli bis 30. September.

Ziel war es, zu eruieren, wie groß der Einfluss der Suchmaschine auf die politische Meinungsbildung ist und welche Ergebnisse den verschiedenen Nutzern angezeigt werden. Wie sehr beeinflusst der persönliche Standort, die Sprache und die individuelle Suchhistorie die Google-Ergebnisseite? Welchen Nachrichtenquellen wird welche Relevanz beigemessen?

Wie können wir als Gesellschaft Algorithmen kontrollieren?

Mehr als 4.000 Personen luden sich ein eigens für die Studie programmiertes Plugin für den Chrome- oder Firefox-Browser herunter und spendeten darüber ihre Daten. Die Anonymität der Nutzer wurde gewährleistet.

AlgorithmWatch

AlgorithmWatch appeliert an die Anbieter, ihre Funktionsweisen stärker offenzulegen.

Das Plugin öffnete bis zu sechsmal am Tag ein neues Browserfenster und schickte von dort Suchanfragen an Google und Google News, die sich im Wesentlichen mit der Wahl beschäftigten. Beispielsweise Politikernamen und Parteikürzeln wie Angela Merkel, Martin Schulz, Christian Lindner etc. sowie die Parteien CDU, CSU, SPD, FDP, Bündnis 90/Die Grünen, Die Linke und AfD.

Prof. Katharina Anna Zweig, Informatik-Professorin an der TU Kaiserslautern und Mitgründerin von AlgorithmWatch, sagte, dass es dabei nicht um Misstrauen gegenüber Google ginge, sondern viel mehr darum, wie wir als Gesellschaft Algorithmen kontrollieren könnten.

Es sollte die Möglichkeit geben, Suchmaschinen unabhängig zu prüfen

AlgorithmWatch hält gerade auch Firmen wie Google für rechenschaftspflichtig, gerade gegenüber ihren Nutzern. Suchmaschinen sind inzwischen so zentral im Leben der Menschen verankert, dass es eine Möglichkeit geben sollte, sie unabhängig zu überprüfen, sagen die Forscher. Am besten wäre es aus ihrer Sicht, nicht selbst zu Aktionen greifen zu müssen, und sagt, dass es besser wäre, wenn Google und vergleichbare Anbieter den Nutzern ihre Funktionsweise in viel stärkerem Maße offen legten.

Generell sieht Zweig das Risiko einer konkreten Meinungsbildungsmanipulation hinsichtlich einzelner Politiker oder Parteien als unwahrscheinlich. Auf Zeit Online sagt sie, eine Gefahr bestehe vielmehr für die Sozialen Netzwerke, die mit den Suchmaschinen dafür sorgen, dass gezielt gestreute Falschinformationen in die Welt kommen und massenhaft verbreitet werden können. Wenn dann bei einer gezielten Suche Falschinformationen statt verlässlicher Fakten aufgelistet werden, wird es gefährlich.

Am 28. Februar werden die Ergebnisse des Forschungsprojekts „#Datenspende: Google und die Bundestagswahl 2017“im Rahmen einer Veranstaltung in Berlin präsentiert. Alle Informationen und die Möglichkeit zur Anmeldung finden Sie hier.

Kommentar abgeben

Kommentar abgeben

Bitte achten Sie auf höfliche und faire Kommunikation. Mehr dazu unter Blogregeln.

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit einem * markiert.

Hiermit akzeptiere ich die Datenschutzbedingungen und mir ist bewusst, dass meine Daten zur Verarbeitung meines Kommentares gespeichert werden.