Algorithmen & Social Media – Jenseits von gut und böse

Algorithmen sind in der öffentlichen Wahrnehmung gefährlich: sie sollen entscheiden, zensieren und manipulieren. Doch in Wirklichkeit steckt im Algorithmus mehr Mensch als viele denken – und er ist auch nur so ethisch korrekt, wie die Menschen, die ihn benutzen.

Algorithmen: Social Media – Jenseits von gut und böse

Sind Algorithmen heimtückisch?

Oder nicht vielmehr ein Instrument, das nur so ethisch sein kann, wie die Menschen, die es nutzen?

Sind Algorithmen schlecht?

Besonders in Bezug auf Social Media wird Algorithmen eine Bösartigkeit zugesprochen: sie sollen autonom entscheiden, Informationen vorenthalten und arglose User in die Irre führen.

Ähnliche Gerüchte finden sich auch bzgl. dem Online-Shopping auf Amazon oder beim Surfen mit Google. Teilweise werden sogar Befürchtungen laut, dass Algorithmen die Macht über unser Leben an sich reißen.

Die Aussage ist zwar nicht ganz richtig, aber auch nicht ganz falsch: die meisten Nutzer wissen mittlerweile, dass Facebook ihren Newsfeed über Algorithmen organisiert oder Google individuelle Werbungen und Empfehlungen entsprechend erzeugt.

Wenige wissen jedoch, dass auch Bewerbungen in der Personalabteilung durch einen Algorithmus gefiltert werden oder Krankenkassen ihre Prämien mit Hilfe von Algorithmen kalkulieren.

 

Einfach erklärt: Was sind Algorithmen?

Algorithmus klingt erst einmal nach abstrakten Zeichenfolgen aus der Mathematik. Aber im Grunde nutzt jeder von uns Algorithmen täglich im eigenen Denken und den eigenen Handlungen.

Denn Algorithmen sind nichts anderes als Mechanismen, also Prozess- und Handlungsabfolgen. Zähneputzen wäre so ein analoges Beispiel: vom Öffnen der Zahnpaste bis zum Ausspülen des Mundes – jeder Schritt läuft automatisch ab, ohne dass wir groß nachdenken, abwägen oder entscheiden müssten.

Generell sind Algorithmen lösungsorientiert. Sie existieren, um eine bestimmte Aufgabe auszuführen bzw. ein Problem zu lösen. Dazu gibt es eine Reihe von Anweisungen, die zur Lösung gehören. Das kann zum Beispiel ein Rezept sein, dass die einzelnen Koch-Schritte detailliert auflistest. Oder eben auch eine Suchmaschine wie Google.

 

Algorithmen sind nicht neutral & objektiv

Ein Algorithmus kann nur so sachlich und neutral sein, wie ihm Programmierung und Daten vorgeben, mit denen er Muster konstruiert. Fachleute sprechen hier von social bias (kognitive Verzerrung: soziale Erwünschtheit bzw. Effekt der Konformität).

Je nachdem, welche Daten genutzt werden, so ist auch die Einstellung des Programms. Damit spiegelt ein Algorithmus die Interessen, Vorstellungen und Wünsche von bestimmten Gruppen wieder. Mindestens ebenso ausschlaggebend sind die gesellschaftlichen und kulturellen Prägungen der Entwickler dieser Technologien.

Die häufige Rede von „Rohdaten“ erzeugt daher ein falsches Bild. Es gibt keine reinen Daten, die frei von jeder menschlichen Verzerrung wären. Digitale Daten und Kategorisierungen sind bereits analysiert und interpretiert, sie können gar nicht neutral sein, da sie unter einer bestimmten Perspektive gewonnen und für ein bestimmtes Ziel verarbeitet werden.

Informationen und Daten sind eine reduzierte Darstellung, sie bilden nicht die Welt also solche ab.

Was Algorithmen aber können, ist Ordnungen & Muster festigen durch Reproduktion. Der Zufall wird dabei systematisch ausgeschlossen, schließlich liegen einem Algorithmus hochkomplexe Rechenprozesse zu Grunde, die auf feste Vorgaben, Regeln etc. angewiesen sind.

Anders als ein Mensch, erzeugt die Künstliche Intelligenz Zusammenhänge nicht nach bekannten Mustern, sondern nach Statistik.

 

Vermenschlichung von Technologien und KI

Grundlage für die Vermenschlichung von Algorithmen ist die Sprache, mit der wir sie umschreiben oder erklären. Oft suchen wir begriffliche Analogien zu bekannten Dingen, um neue Entwicklungen oder Objekte zu erläutern. Das ist einerseits völlig legitim: schließlich lassen sich komplexe Sachverhalten so einfacher verstehen.

In digitalen Bereichen sprechen wir daher vom Netz, Smart Phone und Künstlicher Intelligenz – oder hören die Phrase, dass „Algorithmen entscheiden“, dies oder jenes zu tun. So bestimmen spezialisierte Algorithmen darüber,

  • welche Werbung online auf unserem Bildschirm eingeblendet wird,

  • wer Kredite erhält und wer nicht,

  • welche Dating-Vorschläge in Singlebörse gemacht werden,

  • ob Häftlinge eine Bewährung erhalten

  • wer im Krankenhaus zuerst behandelt wird (Stichwort: Triage)

  • welche Infos Journalisten recherchieren und in den Medien thematisieren

Aber entscheiden Algorithmen überhaupt irgendetwas?

Was hier völlig außen vor bleibt: die Mensch-Technik-Interaktion. Ist es am Ende nicht der Mensch selbst, der sich die Ergebnisse algorithmischer Prozesse ansieht, sie bewertet, trainiert und darauf reagiert bzw. handelt? Es sind nämlich nicht die Algorithmen, die Handlungsmacht besitzen, sondern die Menschen, die sich auf die algorithmischen Prozesse blind verlassen. Bei jeder Umsetzung von Algorithmen sind Menschen am Werk, welche die Daten aufbereiten und interpretieren.

Wir können daher menschliche Verantwortung nicht einfach an Maschinen, Computer und Programme abgeben.

 

Menschen entscheiden, Algorithmen berechnen

Menschliche Entscheidungen sind aus philosophischer Perspektive gute Gründe für oder gegen eine Sache. Und sie besitzen einen fundamentalen Unterschied zu dem, was algorithmische Optimierung ausmacht.

Denn was in einer Entscheidung immer antizipiert wird, ist die Zukunft. Wir versuchen bei Handlungsalternativen die Folgen zu prognostizieren und stellen uns ein Als-ob vor.

Damit sind wir mit einer Unwägbarkeit konfrontiert, die sich nicht logisch auflösen lässt: Wir können nicht wissen, wie sich die Zukunft genau ereignet, weil zu viele Faktoren in und außerhalb unser Selbst eine Rolle spielen. Wir stellen uns also bei jeder einzelnen Entscheidung unterbewusst eine Zukunft vor, von der wir nicht wissen können, ob sie eintrifft.

Entscheidungen sind daher von menschlicher Vorstellung und Fantasie beeinflusst. Ein absoluter Gegensatz zur mathematischen Berechnung, denen Fiktion fremd ist.

Zudem sind Entscheidungen mit Verantwortung, Ethik und Begründung verbunden. Sowohl im Selbstverhältnis als auch im Verhältnis zu den anderen Mitgliedern unserer Gesellschaft. Die Gründe für eine Entscheidung werden zur Begründung derselben. Damit sind Entscheidungen nicht frei von gesellschaftlichen Normen und normativen Selbstansprüchen.

Damit ist in jeder Entscheidung eine moralische Vorstellung enthalten: eine mögliche Rechtfertigung nach der Richtigkeit der Beurteilung wird quasi geistig vorweggenommen.

Moral und Ethik sind rein menschliche Aspekte. Ein Algorithmus kennt diese Fragen nicht.

 

Wie FB & Insta Algorithmen funktionieren

Die Betreiber sozialer Netzwerke geben nur teilweise Auskunft darüber, wie ihre Algorithmen arbeiten. Die folgenden Faktoren sind relativ bekannt:

  • Interaktion mit anderen Nutzern

  • persönliche Vorlieben

  • priorisierte Inhalte

  • Häufigkeit der Nutzung

  • aktive Zeit auf der Plattform

  • Aktualität der Inhalte

  • allgemeine Popularität der Themen

Das ist natürlich nur die halbe Wahrheit. Denn abgesehen vom persönlichen Geschmack gibt es noch viele weitere Algorithmen, die verschiedenste Aufgaben haben. Das einheitliche Ziel: Den User auf der Plattform zu halten.

In mehreren Tests wurde herausgefunden, welche Faktoren noch eine Rolle für Social Media Algorithmen spielen:

  • Instagram bevorzugt nackte Haut und schenkt entsprechenden Bildern eine höhere Reichweite

  • Facebook blendet Stellenausschreibungen nach Geschlecht ein: Frauen bekommen typische “Frauenberufe” ausgespielt, Männer dagegen vermeintliche Männerberufe etc.

  • Twitter präferiert beim Zuschnitt von Fotos weiße Menschen, weibliche Personen, jüngere Gesichter und schlanke Frauen (3)

 

Wie beeinflussen Algorithmen die Meinungsbildung?

Filterblasen, Echokammern und Fake News

Algorithmen arbeiten nicht moralisch, sondern effizient. Wie krass das daneben gehen kann, zeigt das viel diskutierte Beispiel Fake News: die verbreiten sich ja nur deshalb so gut, weil sie provokant oder emotional formuliert und dargestellt sind.

“Viele Studien haben gezeigt, dass die Reihenfolge in der Informationen angezeigt werden und auch deren wiederholte Anzeige, vor allem Unentschlossene und deren Meinungsbildung beeinflusst.” (Elisa Celis, 1)

So entstehen Filterblasen, Echokammern, Shitstorms und Hate Speech.

Gefahr Social Bots – Manipulation der Meinungsbildung

Ein wirklich ernstzunehmendes Problem in den Sozialen Netzwerken stellen die Social Bots dar: das sind kleine Software-Roboter, die als Fake-Profile eingesetzt werden, um zu liken, teilen, kommentieren und sogar Beiträge zu kreieren.

Diese Manipulationsmethode ist für Demokratien tatsächlich eine Gefahr, auch wenn sie in Deutschland noch nicht so verbreitet ist. Sie wurde nachweislich bei politisch-gesellschaftlichen Themen im Ausland eingesetzt:

  • Brexit (EU-Austritt Großbritanniens)

  • Ukrainekonflikt

  • US-Präsidentschafts-Wahlkampf 2016

  • spanisches Referendum über katalanische Unabhängigkeit 2017

 

Informationsflut & kognitive Verzerrungen

Was Unternehmen und andere Akteure letztendlich ausnutzen, sind 2 psychologische Aspekte.

Im Online-Marketing ist Content-Schock längst ein Schlagwort:

im Internet prasseln derart viele unterschiedliche Infos und Reize auf uns ein, dass unsere Konzentration sinkt und wir meist nur noch die aller ersten Informationen aufmerksam wahrnehmen können (vgl. Ankereffekt in der Liste).

In der Folge verlieren sich hochwertige Infos weitaus häufiger im Word Wide Web.

Neben der eingeschränkten Aufmerksamkeit verstärken kognitive Verzerrungen das Problem erheblich (4).

  • Wir legen mehr Aufmerksamkeit auf Negatives als auf Neutrales oder Positives.

    Bsp. Ereignisse: negative Geschehnisse bleiben uns generell viel besser in Erinnerung als positive Erlebnisse.

    Bsp. Nachrichten: negative Schlagzeilen erregen mehr Aufmerksamkeit als positive.

  • Wir vertrauen der ersten Information mehr als den nachfolgenden. Sie ist dann unser Anker, an dem wir alle nachfolgenden Informationen messen.

    Bsp. Einkaufen: Wir kaufen ein Produkt eher, wenn es reduziert wurde. Das Angebot wird mit dem angegebenen Ursprungspreis verglichen. So kommt uns der Artikel gleich viel günstiger vor.

  • Wir picken uns jene Fakten heraus, die gut zu dem passen, was wir bereits zu wissen meinen

    Bsp. Information: Wenn wir recherchieren, scheinen wir oft auf Infos zu stoßen, die unsere Meinung untermauern. Gegenargumente nehmen wir weniger deutlich wahr.

  • Wir halten das für gut, was viele Leute bzw. die meisten für gut befinden (Anpassungsdruck).

    Hier wird Popularität als Qualitätsmerkmal genutzt (wie bei Algorithmen auch).

    Bsp. Einkaufen: Wir kaufen ein Produkt, das andere am besten bewertet haben, weil es so beliebt ist.

  • Wenn wir in einem Bereich ein gewisses Grundwissen erworben haben, neigen wir dazu, die eigene Kompetenz zu überschätzen. Gleichzeitig schätzt man die Kompetenz von Experten geringer ein.

    Bsp. Autofahren: die meisten Autofahrer halten sich für bessere Fahrer als der Durchschnitt.

  • Wir übernehmen Verhaltensweisen von anderen, weil uns diese erfolgreicher erscheinen. (z. B. Trends)

    Wir neigen also dazu, dem Beispiel anderer zu folgen.

    Bsp. Buchläden: Charts und Verkaufszahlen verdeutlichen die Popularität von Büchern verdeutlichen und regen so zum Kauf an.

  • Je öfter wir eine Information hören, desto glaubhafter erscheint sie uns.

    Bsp. Fake-News verbreiten sich so gut, weil sie in vielfacher Weise wiederholt werden.

  • Wir tendieren dazu Mitglieder einer Interessen-Gruppe gegenüber Außenseitern zu bevorzugen.

    Bsp. Rassismus, Sexismus, Diskriminierung, Klassismus u.v.m.

  • Wir halten uns selbst für unbeeinflusst bzw. gering beeinflusst

    Bsp. Medizin: Ärzte halten sich großteils für unbeeinflusst von Pharmavertretern, sind es laut Untersuchungen aber stark, wenn sie regelmäßig in Kontakt stehen.

    Bsp. Verschwörungstheoretiker malen eine 2-Welten-Theorie, in der sie selbst zu den “Erwachten” gehören, die allein die Wahrheit kennen.

  • Wenn wir uns bei einem Argument gut fühlen, betrachten wir das eher als Beweis für die Richtigkeit. Gefühl = Wahrheit. Diese kognitive Verzerrung ist in Stresssituationen besonders stark.

    Bsp. Interaktion: Wenn wir auf eine Person wütend sind, gehen wir davon aus, dass sie etwas falsch gemacht hat.

 

Social Media Algorithmen spiegeln die Werte der User wider

Algorithmen haben kein Eigenleben. Alles, was sie tun und darstellen, spiegelt lediglich die Werte- und Vorstellungswelt der Gesellschaft wieder.

Darf man einem Unternehmen wie Instagram vorwerfen, sein Algorithmus bevorzuge Selbstdarstellung, Oberflächlichkeiten und Optik, wenn die App doch genau dafür entwickelt wurde und sich über Werbepartnerschaften etc. finanziert?

Natürlich ist es ein großes Problem, dass KI-basierte Technologien diskriminieren, Fake News pushen und Frauen bei Bewerbungen systematisch benachteiligen. Allerdings ist das ein menschen-gemachtes Problem, kein rein technisches.

Schließlich entscheiden sich Menschen in der Personalabteilung dafür, einen Algorithmus schalten und walten zu lassen, ohne sich ein eigenes Urteil zu bilden.

Und auch auf Social Media entscheiden sich Menschen dafür, auf vorgeschlagenen Content zu klicken, auf eine bestimmte Art von Bildern & Texten zu reagieren, zu liken, zu kommentieren usw.

Die Arbeit von Algorithmen ist nichts anderes als ein Abbild unserer bisherigen Einstellungen und Taten. Anstatt also auf die bösen Algorithmen zu schimpfen, sollten wir uns lieber fragen, inwiefern wir selbst zur Aufrechterhaltung falscher Normen und Ideale, die auf Social Media so gerne verbreitet werden, beitragen.

Und warum unser Werte-Anspruch und unsere Werte-Realität so weit auseinander klaffen.

Hier sind wieder wir als Gesellschaft und die Politik gefragt, welche die Firmen und ihre kommerziellen Interessen hinter den Algorithmen unbedingt reglementieren muss.

 

Fazit: Algorithmen & Social Media

Und die Moral von der Geschicht?‘ Vertraue blind der Technik nicht.

In letzter Instanz sind es immer Menschen, die Algorithmen mit bestimmten Daten füttern, durch ihr Verhalten auf bestimmte Muster trainieren und sich von Algorithmen leiten lassen.

Die vielen Missverhältnisse im Internet und auf Social Media sollten uns daran erinnern, vorsichtig zu sein.

Im besten Fall regen sie uns an, wieder mehr über das Mensch-sein nachzudenken und darüber, was Gemeinschaft oder Gesellschaft bedeuten.

Vgl. auch: Was ist Philosophie?

Doch dafür braucht es unbedingt eine Sprache, die Algorithmen und alles Technische nicht vermenschlicht bzw. den Menschen nicht mit Computern vergleicht. Algorithmen sind nicht böse, sie werden mit kommerziellen Zielen eingesetzt. Hier liegt das Problem.


Quellen:
1) Demokratiezentrum Wien
2) Filippo Menczer und Thomas Hills: Algorithmen – die digitale Manipulation
3) Inga Pöting: “Diskriminierende Algorithmen sind nicht einfach technische Fehler”
4) Stangl, W. (2022, 4. Juli): Online Lexikon für Psychologie und Pädagogik

Tamara Niebler (Inkognito-Philosophin)

Hi, ich bin Tamara, freie Journalistin & studierte Philosophin (Mag. phil.). Hier blogge ich über persönliche Erfahrungen mit Depressionen & Angst – und untersuche psychische Phänomene aus einer dezidiert philosophischen Perspektive. Zudem informiere ich fachkritisch über soziale Ungerechtigkeiten und gesellschaftliche Missstände, die uns alle betreffen.

Zurück
Zurück

Von der Vergänglichkeit – wie die Angst vor dem Tod uns erlösen kann

Weiter
Weiter

Interview: Psychosoziale Umschau 2/2022