Weiterführende Literaturhinweise

Im folgenden wird näher auf die Hintergrundrecherche zu der Animation des Empfehlungsalgorithmus‘ eingegangen. Sie beinhaltet Grundlegende Informationen zu Künstlicher Intelligenz und Machine Learning, wie auch weiterführende Studien und Artikel über Empfehlungsalgorithmen oder die Kuratierung der News Feeds.


Künstliche Intelligenz (KI)/Machine Learning (ML)/Künstliche Neuronale Netze (KNN)

Die begriffliche Vielfalt rund um das Thema KI ist groß und zeigt nicht nur den geringen, theoretischen Standardisierungsgrad des entsprechenden Wissenschaftsdiskurses auf, sondern auch, wie verschiedenartig die Verfahren und Möglichkeiten sind, die durch sie beschrieben werden sollen. Verfahren des Machine Learning und der Neuronalen Netze, aber auch andere KI Technologien, spielen in verschiedenen Hinsichten eine wichtige Rolle in der Funktionsweise von Recommendations – den Empfehlungsalgorithmen. Die folgenden Quellen können dabei helfen das Grundverständnis der komplexen informatischen und mathematischen Verfahren zu vertiefen.

Einführung
  • Alpaydin, Ethem: Maschinelles Lernen. Berlin 32022.
    Eine technische Einführung in die informatischen und mathematischen Grundlagen des ML.
  • Lenzen, Manuela: Künstliche Intelligenz – Fakten, Chancen, Risiken. München 2020.
    Eine allgemeine, sachliche Einführung in das weite Feld der KI.
  • Boucher, Philip: Artificial intelligence: How does it work, why does it matter, and what can we do about it? Brüssel 2020.
    Eine Studie des Europäischen Parlamentes zu den grundlegenden Funktionsweisen sowie den Chancen und Risiken im Zusammenhang mit KI.
  • Quiñonero-Candela, Joaquin/LeCun, Yann: Artificial intelligence, revealed [2016]. In: Engineering at Meta.
    Ein Artikel allgemein über die Grundlagen der KI.
    [link]
Metadiskurs
  • Krüger, Sven: Die KI-Entscheidung – Künstliche Intelligenz und was wir daraus machen. Wiesbaden 2021.
    Eine allgemeine Einführung mit Begriffsabgrenzung und Aufzeigen sowie Eingrenzen des Möglichkeitshorizontes von KI unter ethischer Perspektive. 
  • Otte, Ralf: Maschinenbewusstsein – Die neue Stufe der KI – wie weit wollen wir gehen? Frankfurt am Main/New York 2021.
    Eine weitere Einführung aus eher moralischer/politisch-philosophischer/gesellschaftlicher Perspektive.

Empfehlungsalgorithmen und Kuratierung

Das Natural Language Processing (NLP), also das Verarbeiten von natürlicher Sprache, bildet eine wichtige Grundlage für die automatisierte Sortierung und Bewertung von Plattform-Content. Neben den textuellen Informationen werden auch audiovisuelle Dateien verbreitet und zusätzlich personenbezogene Informationen einbezogen. Aus den akkumilierten Daten werden in der Regel ML-Modelle zur Prädiktion von Nutzerverhalten erzeugt. Diese werden im Anschluss eingesetzt, um die Datenflut der textbasierten Posts und audiovisuellen Medien nach plattformspezifischen Kriterien zu sortieren und z.B. Empfehlungen für individuelle Nutzer*innen der Plattform zu erzeugen.

Empfehlungsalgorithmus

Facebook
  • Menge-Sonnentag, Rainald: Machine Learning: Facebook veröffentlicht ein Modell für Empfehlungsdienste [2019]. In: heise online.
    Ein Artikel zu der Veröffentlichung eines Empfehlungsalgorithmus‘ von Facebook
    [link]
  • Naumov, Maxim/Mudigere, Dheevatsa: DLRM: An advanced, open source deep learning recommendation model [2019]. In: Meta.
    Die Veröffentlichung des Empfehlungsalgorithmus DLRM von Facebook.
    [link]
  • Hao, Karen: How Facebook got addicted to spreading misinformation [2021]. In: MIT Technology Review.
    Ein Artikel über den Empfehlungsalgorithmus bei Facebook.
    [link]
  • Hazard Owen, Laura: One year in, Facebook’s big algorithm change has spurred an angry, Fox News-dominated — and very engaged! — News Feed [2019]. In: NiemanLab.
    Ein Artikel über die Änderung des Empfehlungsalgorithmus‘ bei Facebook im Jahr 2018.
    [link]
YouTube
  • Brown, Megan A./Bisbee, James/Lai,Angela/Bonneau,Richard/Nagler,Jonathan/Tucker, Joshua A: Echo Chambers, Rabbit Holes, and Algorithmic Bias: How YouTube Recommends Content to Real Users [2022]. In: SSRN.
    Eine Studie über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Weill, Kelly: How YouTube Built a Radicalization Machine for the Far-Right [2018]. In: Daily Beast.
    Ein Artikel u.a. über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Newton, Casey: YouTube may push users to more radical views over time, a new paper argues [2019]. In: The Verge.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Chen, Annie Y./Nyhan, Brendan/Reifler, Jason/Robertson, Ronald E./Wilson, Christo: Exposure to Alternative & Extremist Content on YouTube [2021]. In: ADL.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Ingram, Mathew: The YouTube ‘radicalization engine’ debate continues [2020]. In: Columbia Journalism Review.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Ledwich, Mark/Zaitsev, Anna: Algorithmic Extremism: Examining YouTube’s Rabbit Hole of Radicalization [2019]. In: arxiv.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Chen, Annie Y./Nyhan, Brendan/Reifler, Jason/Robertson, Ronald E./Wilson, Christo: Subscriptions and external links help drive resentful users to alternative and extremist YouTube videos [2020]. In: arxiv.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Buntain, Cody/Bonneau, Richard/Nagler, Jonathan/Tucker, Joshua A.: YouTube Recommendations and Effects on Sharing Across Online Social Platforms. In: Nichols, Jeff (Hg.): Proceedings of the ACM on Human-Computer Interaction. New York, (5) 2021.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
Twitter
  • Twitter: the-algorithm. In: GitHub.
    Der Empfehlungsalgorithmus von Twitter.
    [link]

Kuratierung

Allgemein
  • Singh, Spandana: Everything in Moderation [2019]. In: New America.
    Eine Studie zu den Moderationsalgorithmen allgemein, wie auch Fallstudien zu Facebook, Reddit und Tumblr.
    [link]
  • Cox, Joseph: Machine Learning Identifies Weapons in the Christchurch Attack Video. We Know, We Tried It [2019]. In: Vice.
    Ein Artikel zu Problemen bei der Kuratierung bei einer Gewalttat.
    [link]
Sprachbarrieren
  • o.A.: Facebook approves adverts containing hate speech inciting violence and genocide against the Rohingya [2022]. In: global witness.
    Ein Artikel über Probleme bei der Hate speech Erkennung in Birmanisch.
    [link]
  • Debre, Isabel/Akram, Fares: Facebook’s language gaps weaken screening of hate, terrorism [2021]. In: AP.
    Ein Artikel über die Sprachbarriere des NLP-Modells bei Facebook, vor allem in Arabisch.
    [link]

Hintergründe zu Plattformen

Die Algorithmen und Verfahren stehen immer auch im Bezug zu ihrem Kontext. Sie sind Mittler von gefilterten Wechselbeziehungen zwischen Personen, die auf den Plattformen aktiv sind. Im globalen Wettstreit der Unternehmen bewirken verschiedene Ursache-Wirkung-Beziehungen zum Teil unbeabsichtigte Auswirkungen auf die direkte Nutzung, aber auch indirekt auf Offline-Verhalten. Weder Ursache, noch Auswirkung sind technischer Natur und betreffen viele Bereiche des gesellschaftlichen Lebens, sind jedoch noch nicht abschließend erforscht.

Allgemein
  • Beher, Stefan/Hilgert, Christian/Mämecke, Thorben: Netz-Werke. Funktionale Differenzierung, Selbstdarstellung und Beziehungspflege auf Social Networking Platforms. In: Bommes, Michael/Tacke, Veronika (Hg.): Netzwerke in der funktional differenzierten Gesellschaft. Wiesbaden 2010.
    Soziologische Hintergrundanalyse zu Sozialen Netzwerken.
    [link]
  • Leisegang, Daniel: Studien zu Facebook und Instagram: Algorithmen rütteln kaum an politischen Einstellungen [2023]. In: Netzpolitik.org.
    Ein Artikel über mehrere verschiedene wissenschaftliche Studien in Zusammenhang mit Meta.
    [link]
  • Maréchal, Nathalie/Roberts Biddle, Ellery: It’s Not Just the Content, It’s the Business Model: Democracy’s Online Speech Challenge [2020]. In: New America.
    Eine Studie zu den gesellschaftlichen, systemischen und finanziellen Hintergründen der Plattformen.
    [link]
  • Narayanan, Arvind: Twitter showed us its algorithm. What does it tell us [2023]? In: Knight First Amendment Institute.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus von Twitter.
    [link]
  • Tufekci, Zeynep: How Facebook’s Algorithm Suppresses Content Diversity (Modestly) and How the Newsfeed Rules Your Clicks [2015]. In: Medium.
    Ein Artikel über eine Facebook-Studie.
    [link]
Hate speech
  • Rosen, Guy: Hate Speech Prevalence Has Dropped by Almost 50% on Facebook [2021]. In: Meta.
    Ein Artikel über die Bekämpfung von Hate speech.
    [link]
  • ElliottVittoria/ChristopherNilesh/Deck, Andrew/Schwartz, Leo: The Facebook Papers reveal staggering failures in the Global South [2021]. In: Rest of World.
    Ein Artikel über weltweite Aktivitäten von Facebook/Meta.
    [link]
Ad-Monetarisierung
  • Hao, Karen: How Facebook and Google fund global misinformation [2021]. In: MIT Technology Review.
    Ein Artikel über Clickbait und Ad-Monetarisierung.
    [link]
  • Maréchal, Nathalie/MacKinnon, Rebecca/Dheere, Jessica: Getting to the Source of Infodemics: It’s the Business Model [2020]. In: New America.
    Ein Artikel über zielgerichtete Werbung und die gesetzlichen Vorgaben.
    [link]
Genozid in Myanmar
  • o.A.: The Social Atrocity – Meta and the right to remedy for the Rohingya. In: Amnesty International. London 2022.
    Ein Bericht über den Beitrag von Meta bei dem Genozid in Myanmar 2017.
    [link]
  • Stecklow, Steve: Inside Facebook’s Myanmar operation – Hatebook [2018]. In: Reuters Investigates.
    Ein Artikel über den Beitrag von Meta bei dem Genozid in Myanmar 2017.
    [link]

Datenleaks/Enthüllungen

Da Plattformen nicht alle Daten für die vollumfängliche Erforschung ihrer komplexen Algorithmen und Verfahren herausgeben, muss für die Rekonstruktion dieser, neben den Veröffentlichungen von den Plattformbetreibern selbst, auch auf Funktionsweisen der Plattformen oder auf Datenleaks und Enthüllungen zurückgegriffen werden. Diese können beispielsweise auf Veröffentlichungen von (ehemaligen) Mitarbeitern zurückgehen, oder auf technische Defekte und Irrtümer. Allerdings stellt jede Veröffentlichung, jedes Datenleak und jede Enthüllung immer nur eine Momentaufnahme dar. Gerade durch die hohe Geschwindigkeit bei der Entwicklung kommt es immer wieder zu Anpassungen der Modelle, die mitunter bisherige Aspekte passé werden lassen.

„Facebookfiles“ von Whistleblowerin Frances Haugen
  • Hao, Karen: The Facebook whistleblower says its algorithms are dangerous. Here’s why [2021]. In: MIT Technology Review.
    Ein Artikel über Haugens Aussage vor dem amerikanischen Senat mit einer technischen wie auch unternehmerischen Einordnung in die genutzten Algorithmen.
    [link]
  • Haugen, Francis: the Facebook Papers.
    Die Veröffentlichung der Dokumente der „Facebook Papers“.
    [link]
  • Rochefort, Alex/Rogoff, Zak: Cross-checking Facebook: Five Lies Revealed by Frances Haugen. In: Ranking Digital Rights.
    Ein Artikel zu den „Facebookfiles“.
    [link]
Veröffentlichung des Empfehlungsalgorithmus von Twitter
  • o.A.: Twitter veröffentlicht Teil der Algorithmen [2023]. In: Süddeutsche Zeitung.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus‘ von Twitter.
    [link]
  • Krempl, Stefan: Twitter publiziert Empfehlungsalgorithmus – mit Sonderregeln für Elon Musk [2023]. In: heise online.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus‘ von Twitter.
    [link]
Datenleak in Zusammenhang mit der Bilderkennung bei Facebook
  • Nickel, Oliver: Facebook-Störung gibt Einblick in dessen Bilderkennung [2019]. In: golem.de.
    Ein Artikel zu einem Datenleak bei der Facebook Bilderkennung.
    [link]
  • Vincent, James: Facebook’s image outage reveals how the company’s AI tags your photos [2019]. In: The Verge.
    Ein Artikel zu einem Datenleak bei der Facebook Bilderkennung.
    [link]

Trotz aller Bemühungen besteht die Möglichkeit, dass nicht in jedem Einzelfall bestehende Bildrechte einwandfrei geklärt werden konnten.
Bei berechtigten Anliegen wenden sich sich bitte an FSP digitale_kultur unter d-k@fernuni-hagen.de
.

Die Film-Produzent*innen übernehmen keine Verantwortung für die von anderen Anbietern bereit gestellten Inhalte, auf die mittels Hyperlinks verwiesen wird. 

Sollten mit unserem Angebot verlinkte Seiten aus fachlichen oder rechtlichen Gründen Anlass zur Beanstandung geben, bitten wir um eine entsprechende Mitteilung an FSP digitale_kultur unter d-k@fernuni-hagen.de.