Atlas der Automatisierung

Automatisierte Entscheidungen
und Teilhabe in Deutschland

Der Atlas der Automatisierung wird aktuell nicht mehr aktualisiert.
Die Daten sind daher nicht mehr auf dem neuesten Stand.

       

Das Internet

Im Netz haben sich neue Formen der Öffentlichkeit gebildet: Was Nutzer*innen zu sehen bekommen oder nicht, regeln nicht zuletzt Algorithmen.

Die Infrastruktur des Internets basiert auf zahllosen Maschinen und Kabeln, Softwaresystemen und automatisierten Prozessen. Versteht man Bereiche des Internets oder des darauf aufsetzenden World Wide Webs als Sphären von Öffentlichkeit, berühren sowohl der Zugang zum Netz als auch die Möglichkeit, sich dort frei informieren und ausdrücken zu können, die gesellschaftliche Teilhabe.

UPLOAD-FILTER UND AUTOMATISIERTE MODERATION

Für große Debatten in Deutschland sorgt gegenwärtig im Frühjahr 2019 die geplante EU-Urheberrechtsreform. Kritiker*innen befürchten, dass durch den Artikel 13 (später 17) der EU-Richtlinie zum Urheberrecht de facto die Einführung von sogenannten Upload-Filtern verbindlich wird: Betreiber von Internetangeboten, die es Nutzer*innen erlauben, Inhalte hochzuladen und zu veröffentlichen, wären gezwungen, diese automatisiert auf mögliche Urheberrechtsverletzungen zu untersuchen. Dabei, so die Kritik, würde es zwangsläufig zu Fehlentscheidungen kommen, die Zitationsrechte, Meinungs- und Kunstfreiheit einschränken könnten. So sorgten bereits in der Vergangenheit die Fehlentscheidungen des Filters, den YouTube für die Erkennung urheberrechtlich geschützter Musik und Filme beim Upload von Videodateien seit geraumer Zeit einsetzt, immer wieder für Ärger. Trotz beachtlicher Fortschritte im Bereich des Maschinellen Lernens sind Upload-Filter weit davon entfernt, den Kontext von Videos „verstehen“ zu können: Läuft Musik nur im Hintergrund auf einer öffentlichen Veranstaltung? Wird in einem Video ein kurzer Filmausschnitt aus einem Kinostreifen nur zu dokumentarischen Zwecken gezeigt? Wer sich bereits einmal mit Audioassistenten wie Alexa oder Siri „unterhalten“ hat, weiß, dass es noch lange dauern kann, bis solche Systeme Ironie und andere menschliche Zwischentöne wahrnehmen, geschweige denn richtig interpretieren können.

Ähnlich problematisch wie Upload-Filter sind alle Vorhaben und Regulierungen (siehe Kasten zum Netzwerkdurchsetzungsgesetz, kurz: NetzDG), die die automatisierte Moderation von sogenanntem Content zum Gegenstand haben. Eine voll automatisierte Filterung von Inhalten, zum Beispiel in sozialen Netzwerken, birgt die Gefahr, dass die Betreiber eher mehr als weniger automatisiert blockieren und entfernen („overblocking“), um möglichen Strafgebühren zu entgehen. Der Einsatz von ADM-Systemen ist in diesem Zusammenhang also kritisch zu sehen, weil die Meinungs- und Informationsfreiheit eingeschränkt werden könnte [Link]. Besonders betroffen sind hier junge Menschen, die sich als Urheber*innen von Inhalten in der traditionellen Medienöffentlichkeit noch nicht so gut Gehör verschaffen können wie etablierte Akteure, die es auf Grund ihrer beruflichen Stellung oder persönlicher Netzwerke hier leichter haben.

PLATTFORMEN UND INTERMEDIÄRE

Der Fokus der Debatte über große Plattformen liegt derzeit auf Angeboten wie Facebook oder YouTube. Durch die von außen nur ansatzweise nachvollziehbare Steuerung der Inhalte, inzwischen oft „Kuratieren“ genannt, üben Plattformbetreiber einen großen Einfluss darauf aus, welche Inhalte Nutzer*innen zu sehen bekommen. Ziel der Plattformbetreiber ist es, Nutzer*innen dazu zu bewegen, sich möglichst lange auf der Plattform aufzuhalten, Inhalte zu kommentieren und weiterzuempfehlen. Auf diese Weise kann Nutzer*innen mehr Werbung angezeigt werden, mit der die Plattformbetreiber ihr Geld verdienen.

Kritiker*innen monieren schon länger, dass Dienste wie Facebook oder YouTube – anders als Verlage – für die auf ihren Seiten veröffentlichten und für Nutzer*innen individuell zugeschnittenen Inhalte rechtlich nur sehr begrenzt verantwortlich sind. Zunehmend setzt sich die Auffassung durch, dass es sich bei Plattformen um eine neue Kategorie von Dienstleistungen handelt, die weder mit dem traditionellen Verlagsmodell gleichzusetzen sind, noch auf die bloße Bereitstellung technischer Infrastruktur reduziert werden können. Demzufolge sind digitale Plattformen „Intermediäre“, das heißt Mittler, die zwischen den Erzeuger*innen der Inhalte auf der einen und den Leser*innen und Zuschauer*innen auf der anderen Seite stehen. Letztere – und das ist ein wesentliches Merkmal – können auch immer Erzeuger*innen sein. Dabei ist unstrittig, dass automatisierte (Vor-)Entscheidungssysteme eine herausragende Rolle dabei spielen, wie diese Erzeuger*innen am Diskurs teilhaben können. Bei der großen Zahl von Nutzer*innen, die Marktführer wie Facebook oder YouTube haben, muss man davon ausgehen, dass diese Dienste einen bedeutenden Teil der Medienöffentlichkeit darstellen. Somit wird ein signifikanter Teil der Öffentlichkeit durch ADM (mit-)gesteuert.

Regulierungen wie das NetzDG (siehe Kasten) oder die Entwürfe für die EU-Richtlinien zum Urheberrecht (siehe oben) und zur Verhinderung von terroristischen Online-Inhalten sorgen implizit dafür, dass automatisierte Systeme einen größeren Einfluss auf die Teilhabe von Menschen bekommen. Denn die Haftungsregeln, die sie vorschlagen, würden vielen Intermediären nur eine Wahl lassen: Entweder, sie verkleinern ihre Angebote radikal oder stellen sie ein oder sie setzen Filterprogramme ein, die eine automatisierte Vorentscheidung darüber treffen, welche Inhalte veröffentlicht werden und welche nicht.

KLASSISCHE MEDIEN

Die Debatte über Auswirkungen von Filtern im Netz wird oft auf die Aspekte Desinformation durch Fake News, Filterblasen („Echokammern“) und sogenannte Hassreden verengt. Doch bereits die sehr detaillierte Messung von Zugriffszahlen bei journalistischen Online-Angeboten hat Auswirkungen auf die Inhalte und dürften großen Anteil an dem haben, was die Kommunikationswissenschaften als Boulevardisierung und „softening of news“ bezeichnen: Medien produzieren immer mehr Unterhaltungsinhalte zu Lasten von Information. Strategien wie “clickbaiting”, also Überschrift und Vorspann auf eine möglichst hohe Zahl von Aufrufen zu optimieren und dabei auch auf überzogenen Zuspitzungen und falsche Versprechungen zu setzen, sind durch automatisierte Analysesysteme überhaupt erst möglich geworden.

Wer das nur bei Angeboten wie Buzzfeed, Bento, Vice oder Huffington Post kritisch sieht, verkennt, dass auch alle traditionellen Medienunternehmen wie Spiegel, Zeit, SZ und FAZ für die Vermarktung ihrer Inhalte online viel Geld und Ressourcen in hochentwickelte Datenauswertung investieren, um ihre Werbeeinnahmen zu erhöhen. Noch sind hier Menschen in den Redaktionsprozess eingebunden. Doch prägt die datengetriebene und automatisierte Optimierung auf Klicks und Zugriffe (Suchmaschinenoptimierung, SEO) diese Angebote im Digitalen ebenfalls mit.

 


Netzwerkdurchsetzungsgesetz

Im Herbst 2017 trat in Deutschland das „Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken“ (NetzDG) in Kraft. Es zielt darauf ab, der „Hasskriminalität“ („hate speech“) und „strafbaren Falschnachrichten“ („Fake News“) in sozialen Netzwerken begegnen zu können. Es sieht unter anderem vor, dass Betreiber von sozialen Netzwerken wie Facebook, Twitter und YouTube den Nutzer*innen ein einfaches Meldesystem bieten müssen. Offensichtlich strafbare Inhalte sind innerhalb von 24 Stunden nach Meldung zu löschen oder zu sperren. Bei Verstößen können Bußgelder in Millionenhöhe verhängt werden. Die Betreiber haben halbjährlich einen Bericht über Beschwerden und Lösch- oder Sperrmaßnahmen vorzulegen, wenn die Zahl der Beschwerden im Jahr 100 übersteigt [Link].

Die Einführung des NetzDG war umstritten. So wurde die Eile, mit der es vor der Bundestagswahl 2017 verabschiedet wurde und in Kraft trat, kritisiert. Auch wurde bemängelt, dass privaten Firmen der Umgang mit rechtswidrigen Inhalten überantwortet würde. Zudem wurden Befürchtungen geäußert, dass vorschnelles Löschen („overblocking“), um Bußgelder zu vermeiden, die Meinungsfreiheit beschränken könnte. Befürworter des NetzDG brachten an, dass diejenigen, die sich zuvor wegen gewalthaltiger und herabwürdigender Sprache („digitale Gewalt“) von sozialen Netzwerken ferngehalten hatten, nun teilhaben könnten.


Nächstes Kapitel: Thema: Sicherheit & Überwachung 

Vorheriges Kapitel: Gesundheit & Medizin

Inhaltsverzeichnis