Wissenschaftlicher Handapparat

Im folgenden sind alle im Film gezeigten wissenschaftlichen Quellen mit Zeitangabe aufgeführt. Darüber hinaus bietet die Seite zu Vertiefungszwecken weiterführende Literatur, ausgewählte Websites, die im Film gezeigt oder genannt werden sowie ausgewählte Quellen, die in die Recherche des Films eingegangen sind. Ein ausführliches Verzeichnis aller im Film gezeigten Webquellen ist hier aufgeführt.

Anschließend werden weitere Literaturhinweise gegeben, in denen näher auf die Hintergrundrecherche zu der Animation des Empfehlungsalgorithmus‘ eingegangen wird.


Hate Speech

Sogenannte ‚Hassrede‘ ist in Teilen symptomatisch für die Internetpraxis selbst geworden. Sie betrifft uns alle, aber nicht alle gleichermaßen. Es sind insbesondere gesellschaftlich marginalisierte Gruppen, die mit besonders hoher Wahrscheinlichkeit zur Zielscheibe im Internet werden. 

Obgleich dieses Thema seit einigen Jahren erhöhte Aufmerksamkeit erfährt, bestehen die Probleme fort; Gesellschaftliche Debatten scheinen sich im Kreis zu drehen und Ursachen sind ebenso schwer zu benennen wie Lösungsansätze. Dies beruht wohl darauf, dass bei diesem Phänomen technologische und ökonomische Bedingungen mit medienästhetischen Entwicklungen und rechtlichen Strukturprinzipien auf reibungsvolle Art und Weise zusammenwirken. Es ist kompliziert.

Sequenz ab 02:22 : 

  • Ahmed, Sara: The cultural politics of emotion. Edinburg: Edinburgh 2014. 
  • Braun, Christina von: Gender@Wissen: ein Handbuch der Gender-Theorien. Köln 2005. 
  • o.A.: Brave New Words: The good, the bad and the ugly: what technology did for free speech. In: Index on censorship, 39 (1) 2010, S. 28–32.
    [link]
  • Castel, Robert/Dörre, Klaus: Prekarität, Abstieg, Ausgrenzung – Die soziale Frage am Beginn des 21. Jahrhunderts. Frankfurt/Main 2009. 
  • Dijck, Jose van: The culture of connectivity: a critical history of social media. New York 2013. 
  • Eickelmann, Jennifer: „Hate Speech“ und Verletzbarkeit im digitalen Zeitalter: Phänomene mediatisierter Missachtung aus Perspektive der Gender Media Studies. Bielefeld 2017. 
  • Feldmann, M./Rieger-Ladich, M.: Political Correctness und pädagogische Kritik (Jahrbuch für Pädagogik 2018)/Political Correctness – Warum nicht alle alles sagen dürfen (mit einem Vorwort von Renate Künast). In: Zeitschrift für Pädagogik, 67(5) 2021, S. 809–12. 
  • Franz, Katja: Paul Bey, Benno Nothardt (Hg.): Kämpfe um Meinungsfreiheit und Medien: Im Spannungsfeld von Hate Speech, Fake News und Algorithmen. In: MEDIENwissenschaft: Rezensionen | Reviews, 39 (4) 2022, S. 437-438.
    [link]
  • Frühwirth, Ronald/Pentz, Eva/Rössl, Ines/Voithofer, Caroline (Hg.): Internet und Freiheit. In: juridikum. Wien (4) 2014.
  •  Gudehus, Christian/Christ, Michaela: Gewalt: Ein interdisziplinäres Handbuch. Stuttgart 2013.
    [link]
  • Haraway, Donna J.: Staying with the Trouble: Making Kin in the Chthulucene. Durham 2016.
    [link]
  • Herrmann, Steffen Kitty/Krämer, Sybille/Kuch, Hannes (Hg.): Verletzende Worte: die Grammatik sprachlicher Missachtung. Bielefeld 2007.
    [link]
  • Jenkins, Henry: Convergence culture: where old and new media collide. Updated and with a new afterword. New York [u.a.] 2010. 
  • Katzer, Catarina: Cybermobbing – wenn das Internet zur W@ffe wird. Berlin u.a. 2014. 
  • Kuch, Hannes/Herrmann, Steffen K.: Philosophien sprachlicher Gewalt: 21 Grundpositionen von Platon bis Butler. Weilerswist 2010. 
  • Lovink, Geert: Das halbwegs Soziale: Eine Kritik der Vernetzungskultur. Bielefeld 2014.
    [link]
  • Marek, Roman: Understanding YouTube: Über die Faszination eines Mediums. Bielefeld 2014.
    [link]
  • Papacharissi, Zizi: Affective Publics: Sentiment, Technology, and Politics. Oxford Studies in Digital Politics. New York 2014. 
  • Pörksen, Bernhard/Detel, Hanne: Der entfesselte Skandal: das Ende der Kontrolle im digitalen Zeitalter : Ende der Kontrolle im digitalen Zeitalter. Köln 2012. 
  • Schütze, Christian Vasili: Die Subversion verletzender Worte: Grundlagen einer Politik des Performativen. Frankfurt/Main 2022.
    [link]
  • Thomas, Tanja/Brink, Lina/Grittmann, Elke/de Wolff, Kaya: Anerkennung und Sichtbarkeit: Perspektiven für eine kritische Medienkulturforschung. Bielefeld 2017.
    [link]

Sequenz ab 02:28 : 

  • Buckels, Erin E./Trapnell, Paul D./Paulhus, Delroy L.: Trolls just want to have fun. In: Personality and Individual Differences ,(67) 2014, S. 97–102.
    [link]
  • Festl, Ruth: Täter im Internet : Eine Analyse individueller und struktureller Erklärungsfaktoren von Cybermobbing im Schulkontext. Wiesbaden 2015. 
  • Gagliardone, Iginio/Gal, Danit/Alves, Thiago/Martinez, Gabriela: Countering online hate speech. Paris 2015
  • Pfeffer, Jürgen/Zorbach, Thomas: Shitstorms. Bielefeld 2015.
    [link]
  • Wiedel, Fabian/Dietrich, Philip/Knieper, Thomas: Das konstruktive Moment des Shitstorms – Wie Prosument:innen eine Publikumsethik befördern. Baden-Baden 2022.
  • Gürtler, Christian/Prinzing, Marlis/Zeilinger, Thomas (Hg.): Streitkulturen – Medienethische Perspektiven auf gesellschaftliche Diskurse. In: Kommunikations- und Medienethik. Baden-Baden (18) 2022.
    [link]

Plattform und Affekte

Digitale Plattformen stellen eine technische Umgebung dar, in der sich Kommunikation entfalten kann; Sie nehmen dabei allerdings Einfluss darauf, wie dies geschieht. Dieser Einfluss ist opak und komplex, da es sich nicht um die Beeinflussung von einzelnen Äußerungen handelt, sondern darum, wie sie zu einem sozialen Netzwerk verknüpft werden.  

Es werden weniger die Emotionen von Personen aktiv beeinflusst, sondern das, was zwischen ihnen passiert. Beim Versuch dies zu verstehen, hilft daher der Begriff des Affekts.

Social Media-Plattformen und Affekte bilden ein soziotechnisches Verschränkungsverhältnis, ein System aus zwei Primärkomponenten, das durch ihr Zusammenwirken am Leben erhalten wird. Daher sind Social Media-Plattformen, so wie wir sie heute kennen, Affektplattformen. 

Sequenz ab 08:44 : 

  • Degener, Ursula/Zimmermann, Andrea: Politik der Affekte. In: Freiburger Zeitschrift für Geschlechterstudien, 20 (2) 2022, S. 5-23.
  • Gillespie, Tarleton: The Politics of ‚Platforms‘. In: New media and society, 12 (3) 2010, S. 347–364.
    [link]
  • Strick, Simon: Rechte Gefühle : Affekte und Strategien des digitalen Faschismus. Bielefeld 2021.
    [link]

Sequenz bei 11:47 : 

  • Mühlhoff, Rainer/Breljak, Aanja/Slaby, Jan: Affekt Macht Netz : Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft. Bielefeld 2019.
    [link]

Algorithmen

Wie genau die Algorithmen funktionieren, ist ohne Einblicke ins Backend der Plattformen schwer zu sagen. Doch es gibt inzwischen eine Menge an Forschungsliteratur und wissenschaftsjournalistischer Berichterstattung, die auf theoretischer oder empirischer Basis vorsichtige Abschätzungen erlauben. Zusammen mit den Außendarstellungen der Plattformen und immer wieder auftretenden Leaks lassen sich z.B. Rückschlüsse auf eine elementare Funktion der Plattformen ziehen: Das Zusammenwirken von Recommandations und Uploadfiltern.

Auch wenn sich die Details dieser Funktionen fortwährend verändern, ist davon auszugehen, dass sich die Grundprinzipien plattformübergreifend verallgemeinern lassen. Doch genau lässt sich dies nicht herausarbeiten, da die Plattformen aus ökonomischen, sicher aber auch aus gesellschaftspolitischen Gründen daran interessiert sind, die Funktionsweise ihrer Algorithmen geheim zu halten.

Sequenz bei 15:38 : 

  • o.A.: Facebook Files [2021]. In: Wall Street Journal.
    [link]

Sequenz bei 18:20 : 

  • o.A.: Curation on Twitter. In: X.
    [link]

Gesetzliche Grundlagen und Gesellschaftliche Debatte

Insbesondere auf der Ebene des europäischen Rechts sind  Regulierungsmöglichkeiten für Plattformen in den letzten Jahren stetig weiterentwickelt worden. 

Vor dem Hintergrund der komplexer werdenden Vorgaben und Gesetze steigt der Druck auf die Plattformen, den Content zu regulieren. Insbesondere Facebook/Meta behauptet, dies durch eine Automatisierung von Filtern und Empfehlungssystemen zu lösen. 
Dabei bleibt nebulös, wie dies geschehen soll. 

Diese Prozesse vollziehen sich für die meisten Nutzer*innen unsichtbar und unbemerkt. Die gesellschaftliche Debatte entzündet sich auch viel mehr an der Frage: Welche Kommentare und Posts gelöscht werden sollten und welche nicht?

Sequenz bei 27:29 : 

  • o.A.: Gesetz über digitale Dienste. In: Europäische Kommission.
    [link]

Sequenz bei 29:34 : 

  • o.A.: Transparenzberichte: Wie Social-Media-Plattformen unsere Rechte umgehen [2022]. In: Hateaid.
    [link]

Sequenz bei 42:47 : 

  • Mämecke, Thorben/Matzner, Tobias/Weber, Jutta (Hg.): On Data driven Armament. Paderborn 2020.
    [link]

Sequenz ab 47:20 : 

  • Laufer, Daniel: Neue Studie zeigt Wirksamkeit von Gegenrede im Netz [2020]. In: Netzpolitik.org.
    [link]
  • o.A.: Hate Speech und Debattenkultur. In: Amadeu Antonio Stiftung.
    [link]
  • Campagna, Tommaso: OUT NOW: Emotive Images Educational Toolkit [2020]. In: Institute of Network Cultures.
    [link]

Weiterführende Literaturhinweise

Im folgenden wird näher auf die Hintergrundrecherche zu der Animation des Empfehlungsalgorithmus‘ eingegangen. Sie beinhaltet Grundlegende Informationen zu Künstlicher Intelligenz und Machine Learning, wie auch weiterführende Studien und Artikel über Empfehlungsalgorithmen oder die Kuratierung der News Feeds.


Künstliche Intelligenz (KI)/Machine Learning (ML)/Künstliche Neuronale Netze (KNN)

Die begriffliche Vielfalt rund um das Thema KI ist groß und zeigt nicht nur den geringen, theoretischen Standardisierungsgrad des entsprechenden Wissenschaftsdiskurses auf, sondern auch, wie verschiedenartig die Verfahren und Möglichkeiten sind, die durch sie beschrieben werden sollen. Verfahren des Machine Learning und der Neuronalen Netze, aber auch andere KI Technologien, spielen in verschiedenen Hinsichten eine wichtige Rolle in der Funktionsweise von Recommendations – den Empfehlungsalgorithmen. Die folgenden Quellen können dabei helfen das Grundverständnis der komplexen informatischen und mathematischen Verfahren zu vertiefen.

Einführung
  • Alpaydin, Ethem: Maschinelles Lernen. Berlin 32022.
    Eine technische Einführung in die informatischen und mathematischen Grundlagen des ML.
  • Lenzen, Manuela: Künstliche Intelligenz – Fakten, Chancen, Risiken. München 2020.
    Eine allgemeine, sachliche Einführung in das weite Feld der KI.
  • Boucher, Philip: Artificial intelligence: How does it work, why does it matter, and what can we do about it? Brüssel 2020.
    Eine Studie des Europäischen Parlamentes zu den grundlegenden Funktionsweisen sowie den Chancen und Risiken im Zusammenhang mit KI.
  • Quiñonero-Candela, Joaquin/LeCun, Yann: Artificial intelligence, revealed [2016]. In: Engineering at Meta.
    Ein Artikel allgemein über die Grundlagen der KI.
    [link]
Metadiskurs
  • Krüger, Sven: Die KI-Entscheidung – Künstliche Intelligenz und was wir daraus machen. Wiesbaden 2021.
    Eine allgemeine Einführung mit Begriffsabgrenzung und Aufzeigen sowie Eingrenzen des Möglichkeitshorizontes von KI unter ethischer Perspektive. 
  • Otte, Ralf: Maschinenbewusstsein – Die neue Stufe der KI – wie weit wollen wir gehen? Frankfurt am Main/New York 2021.
    Eine weitere Einführung aus eher moralischer/politisch-philosophischer/gesellschaftlicher Perspektive.

Empfehlungsalgorithmen und Kuratierung

Das Natural Language Processing (NLP), also das Verarbeiten von natürlicher Sprache, bildet eine wichtige Grundlage für die automatisierte Sortierung und Bewertung von Plattform-Content. Neben den textuellen Informationen werden auch audiovisuelle Dateien verbreitet und zusätzlich personenbezogene Informationen einbezogen. Aus den akkumilierten Daten werden in der Regel ML-Modelle zur Prädiktion von Nutzerverhalten erzeugt. Diese werden im Anschluss eingesetzt, um die Datenflut der textbasierten Posts und audiovisuellen Medien nach plattformspezifischen Kriterien zu sortieren und z.B. Empfehlungen für individuelle Nutzer*innen der Plattform zu erzeugen.

Empfehlungsalgorithmus

Facebook
  • Menge-Sonnentag, Rainald: Machine Learning: Facebook veröffentlicht ein Modell für Empfehlungsdienste [2019]. In: heise online.
    Ein Artikel zu der Veröffentlichung eines Empfehlungsalgorithmus‘ von Facebook
    [link]
  • Naumov, Maxim/Mudigere, Dheevatsa: DLRM: An advanced, open source deep learning recommendation model [2019]. In: Meta.
    Die Veröffentlichung des Empfehlungsalgorithmus DLRM von Facebook.
    [link]
  • Hao, Karen: How Facebook got addicted to spreading misinformation [2021]. In: MIT Technology Review.
    Ein Artikel über den Empfehlungsalgorithmus bei Facebook.
    [link]
  • Hazard Owen, Laura: One year in, Facebook’s big algorithm change has spurred an angry, Fox News-dominated — and very engaged! — News Feed [2019]. In: NiemanLab.
    Ein Artikel über die Änderung des Empfehlungsalgorithmus‘ bei Facebook im Jahr 2018.
    [link]
YouTube
  • Brown, Megan A./Bisbee, James/Lai,Angela/Bonneau,Richard/Nagler,Jonathan/Tucker, Joshua A: Echo Chambers, Rabbit Holes, and Algorithmic Bias: How YouTube Recommends Content to Real Users [2022]. In: SSRN.
    Eine Studie über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Weill, Kelly: How YouTube Built a Radicalization Machine for the Far-Right [2018]. In: Daily Beast.
    Ein Artikel u.a. über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Newton, Casey: YouTube may push users to more radical views over time, a new paper argues [2019]. In: The Verge.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Chen, Annie Y./Nyhan, Brendan/Reifler, Jason/Robertson, Ronald E./Wilson, Christo: Exposure to Alternative & Extremist Content on YouTube [2021]. In: ADL.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Ingram, Mathew: The YouTube ‘radicalization engine’ debate continues [2020]. In: Columbia Journalism Review.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Ledwich, Mark/Zaitsev, Anna: Algorithmic Extremism: Examining YouTube’s Rabbit Hole of Radicalization [2019]. In: arxiv.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Chen, Annie Y./Nyhan, Brendan/Reifler, Jason/Robertson, Ronald E./Wilson, Christo: Subscriptions and external links help drive resentful users to alternative and extremist YouTube videos [2020]. In: arxiv.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
  • Buntain, Cody/Bonneau, Richard/Nagler, Jonathan/Tucker, Joshua A.: YouTube Recommendations and Effects on Sharing Across Online Social Platforms. In: Nichols, Jeff (Hg.): Proceedings of the ACM on Human-Computer Interaction. New York, (5) 2021.
    Ein Artikel über den Empfehlungsalgorithmus von Youtube.
    [link]
Twitter
  • Twitter: the-algorithm. In: GitHub.
    Der Empfehlungsalgorithmus von Twitter.
    [link]

Kuratierung

Allgemein
  • Singh, Spandana: Everything in Moderation [2019]. In: New America.
    Eine Studie zu den Moderationsalgorithmen allgemein, wie auch Fallstudien zu Facebook, Reddit und Tumblr.
    [link]
  • Cox, Joseph: Machine Learning Identifies Weapons in the Christchurch Attack Video. We Know, We Tried It [2019]. In: Vice.
    Ein Artikel zu Problemen bei der Kuratierung bei einer Gewalttat.
    [link]
Sprachbarrieren
  • o.A.: Facebook approves adverts containing hate speech inciting violence and genocide against the Rohingya [2022]. In: global witness.
    Ein Artikel über Probleme bei der Hate speech Erkennung in Birmanisch.
    [link]
  • Debre, Isabel/Akram, Fares: Facebook’s language gaps weaken screening of hate, terrorism [2021]. In: AP.
    Ein Artikel über die Sprachbarriere des NLP-Modells bei Facebook, vor allem in Arabisch.
    [link]

Hintergründe zu Plattformen

Die Algorithmen und Verfahren stehen immer auch im Bezug zu ihrem Kontext. Sie sind Mittler von gefilterten Wechselbeziehungen zwischen Personen, die auf den Plattformen aktiv sind. Im globalen Wettstreit der Unternehmen bewirken verschiedene Ursache-Wirkung-Beziehungen zum Teil unbeabsichtigte Auswirkungen auf die direkte Nutzung, aber auch indirekt auf Offline-Verhalten. Weder Ursache, noch Auswirkung sind technischer Natur und betreffen viele Bereiche des gesellschaftlichen Lebens, sind jedoch noch nicht abschließend erforscht.

Allgemein
  • Beher, Stefan/Hilgert, Christian/Mämecke, Thorben: Netz-Werke. Funktionale Differenzierung, Selbstdarstellung und Beziehungspflege auf Social Networking Platforms. In: Bommes, Michael/Tacke, Veronika (Hg.): Netzwerke in der funktional differenzierten Gesellschaft. Wiesbaden 2010.
    Soziologische Hintergrundanalyse zu Sozialen Netzwerken.
    [link]
  • Leisegang, Daniel: Studien zu Facebook und Instagram: Algorithmen rütteln kaum an politischen Einstellungen [2023]. In: Netzpolitik.org.
    Ein Artikel über mehrere verschiedene wissenschaftliche Studien in Zusammenhang mit Meta.
    [link]
  • Maréchal, Nathalie/Roberts Biddle, Ellery: It’s Not Just the Content, It’s the Business Model: Democracy’s Online Speech Challenge [2020]. In: New America.
    Eine Studie zu den gesellschaftlichen, systemischen und finanziellen Hintergründen der Plattformen.
    [link]
  • Narayanan, Arvind: Twitter showed us its algorithm. What does it tell us [2023]? In: Knight First Amendment Institute.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus von Twitter.
    [link]
  • Tufekci, Zeynep: How Facebook’s Algorithm Suppresses Content Diversity (Modestly) and How the Newsfeed Rules Your Clicks [2015]. In: Medium.
    Ein Artikel über eine Facebook-Studie.
    [link]
Hate speech
  • Rosen, Guy: Hate Speech Prevalence Has Dropped by Almost 50% on Facebook [2021]. In: Meta.
    Ein Artikel über die Bekämpfung von Hate speech.
    [link]
  • ElliottVittoria/ChristopherNilesh/Deck, Andrew/Schwartz, Leo: The Facebook Papers reveal staggering failures in the Global South [2021]. In: Rest of World.
    Ein Artikel über weltweite Aktivitäten von Facebook/Meta.
    [link]
Ad-Monetarisierung
  • Hao, Karen: How Facebook and Google fund global misinformation [2021]. In: MIT Technology Review.
    Ein Artikel über Clickbait und Ad-Monetarisierung.
    [link]
  • Maréchal, Nathalie/MacKinnon, Rebecca/Dheere, Jessica: Getting to the Source of Infodemics: It’s the Business Model [2020]. In: New America.
    Ein Artikel über zielgerichtete Werbung und die gesetzlichen Vorgaben.
    [link]
Genozid in Myanmar
  • o.A.: The Social Atrocity – Meta and the right to remedy for the Rohingya. In: Amnesty International. London 2022.
    Ein Bericht über den Beitrag von Meta bei dem Genozid in Myanmar 2017.
    [link]
  • Stecklow, Steve: Inside Facebook’s Myanmar operation – Hatebook [2018]. In: Reuters Investigates.
    Ein Artikel über den Beitrag von Meta bei dem Genozid in Myanmar 2017.
    [link]

Datenleaks/Enthüllungen

Da Plattformen nicht alle Daten für die vollumfängliche Erforschung ihrer komplexen Algorithmen und Verfahren herausgeben, muss für die Rekonstruktion dieser, neben den Veröffentlichungen von den Plattformbetreibern selbst, auch auf Funktionsweisen der Plattformen oder auf Datenleaks und Enthüllungen zurückgegriffen werden. Diese können beispielsweise auf Veröffentlichungen von (ehemaligen) Mitarbeitern zurückgehen, oder auf technische Defekte und Irrtümer. Allerdings stellt jede Veröffentlichung, jedes Datenleak und jede Enthüllung immer nur eine Momentaufnahme dar. Gerade durch die hohe Geschwindigkeit bei der Entwicklung kommt es immer wieder zu Anpassungen der Modelle, die mitunter bisherige Aspekte passé werden lassen.

„Facebookfiles“ von Whistleblowerin Frances Haugen
  • Hao, Karen: The Facebook whistleblower says its algorithms are dangerous. Here’s why [2021]. In: MIT Technology Review.
    Ein Artikel über Haugens Aussage vor dem amerikanischen Senat mit einer technischen wie auch unternehmerischen Einordnung in die genutzten Algorithmen.
    [link]
  • Haugen, Francis: the Facebook Papers.
    Die Veröffentlichung der Dokumente der „Facebook Papers“.
    [link]
  • Rochefort, Alex/Rogoff, Zak: Cross-checking Facebook: Five Lies Revealed by Frances Haugen. In: Ranking Digital Rights.
    Ein Artikel zu den „Facebookfiles“.
    [link]
Veröffentlichung des Empfehlungsalgorithmus von Twitter
  • o.A.: Twitter veröffentlicht Teil der Algorithmen [2023]. In: Süddeutsche Zeitung.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus‘ von Twitter.
    [link]
  • Krempl, Stefan: Twitter publiziert Empfehlungsalgorithmus – mit Sonderregeln für Elon Musk [2023]. In: heise online.
    Ein Artikel über die Veröffentlichung des Empfehlungsalgorithmus‘ von Twitter.
    [link]
Datenleak in Zusammenhang mit der Bilderkennung bei Facebook
  • Nickel, Oliver: Facebook-Störung gibt Einblick in dessen Bilderkennung [2019]. In: golem.de.
    Ein Artikel zu einem Datenleak bei der Facebook Bilderkennung.
    [link]
  • Vincent, James: Facebook’s image outage reveals how the company’s AI tags your photos [2019]. In: The Verge.
    Ein Artikel zu einem Datenleak bei der Facebook Bilderkennung.
    [link]

Trotz aller Bemühungen besteht die Möglichkeit, dass nicht in jedem Einzelfall bestehende Bildrechte einwandfrei geklärt werden konnten.
Bei berechtigten Anliegen wenden sich sich bitte an FSP digitale_kultur unter d-k@fernuni-hagen.de
.

Die Film-Produzent*innen übernehmen keine Verantwortung für die von anderen Anbietern bereit gestellten Inhalte, auf die mittels Hyperlinks verwiesen wird. 

Sollten mit unserem Angebot verlinkte Seiten aus fachlichen oder rechtlichen Gründen Anlass zur Beanstandung geben, bitten wir um eine entsprechende Mitteilung an FSP digitale_kultur unter d-k@fernuni-hagen.de.