Neues

Das Gesetz über digitale Dienste könnte große Änderungen an digitalen Plattformen erfordern. Hier sind 4 Dinge, die die Gesetzgeber*innen wissen müssen, um von Menschen betriebene Plattformen wie Wikipedia zu schützen.

European Union Flags

Die Wikimedia Foundation, die gemeinnützige Organisation, die Wikipedia betreibt, begrüßt die Bemühungen der europäischen Politiker, die Moderation von Inhalten verantwortlicher und transparenter zu gestalten. Einige der aktuellen Bestimmungen und vorgeschlagenen Änderungen des DSA enthalten jedoch auch Anforderungen, die das gemeinschaftliche und gemeinnützige Modell von Wikipedia gefährden könnten

Das System der offenen Zusammenarbeit bei Wikipedia ermöglicht seit mehr als 20 Jahren den Wissensaustausch auf globaler Ebene. Sie ist eine der beliebtesten Websites der Welt und eine der zuverlässigsten Quellen für aktuelles Wissen über COVID-19. All dies ist nur durch Gesetze möglich, die das von Freiwilligen betriebene Modell schützen. Doch nun gerät dieses von Menschen getragene Modell ins Kreuzfeuer der DSA-Vorschläge.

Der derzeitige DSA-Rahmen ist auf die Betriebsmodelle der großen Technologieplattformen ausgerichtet. Aber eine Vielzahl von Websites, darunter auch Wikipedia, funktionieren nicht auf dieselbe Weise wie gewinnorientierte Tech-Plattformen. Die Anwendung einer Einheitslösung für das komplexe Problem illegaler Online-Inhalte könnte ein vielfältiges, florierendes und nichtkommerzielles Ökosystem von Online-Communities und Plattformen unterdrücken. 

Wir fordern die europäischen Gesetzgeber auf, bei der Regulierung des Internets einen differenzierteren Ansatz zu wählen. Das Internet besteht nicht nur aus Big-Tech-Plattformen, die von multinationalen Konzernen betrieben werden. Wir bitten die Gesetzgeber*innen, gemeinnützige, gemeinschaftlich verwaltete Projekte wie Wikipedia zu schützen und zu unterstützen, während der DSA das Europäische Parlament und den Rat durchläuft.

Wir sind bereit, mit den Politiker*innen zusammenzuarbeiten, um das DSA-Paket so zu ändern, dass es die Fähigkeit aller Europäer, im öffentlichen Interesse zusammenzuarbeiten, stärkt und schützt. 

Schützen Sie Wikipedia, schützen Sie das Internet der Menschen. 

Hier sind vier Dinge, die politische Entscheidungsträger*innen  wissen sollten, bevor sie das DSA-Gesetz verabschieden: 

  1. Der DSA muss sich mit den algorithmischen Systemen und Geschäftsmodellen befassen, die den durch illegale Inhalte verursachten Schaden verursachen. 

Die DSA-Bestimmungen konzentrieren sich nach wie vor zu sehr auf die Entfernung von Inhalten durch vorgeschrieben Verfahren. Die Realität ist, dass die Entfernung aller illegalen Inhalte aus dem Internet, sobald sie auftauchen, eine genauso überwältigende Aufgabe ist wie die Bemühungen, alle Verbrechen in der realen Welt zu verhindern und zu beseitigen. Da sich die Europäische Union dem Schutz der Menschenrechte online und offline verschrieben hat, sollten sich die Gesetzgeber*innen auf die Hauptursache des weit verbreiteten Problems im Internet konzentrieren: Systeme, die illegale Inhalte verstärken und verbreiten. 

Ein sichereres Internet ist nur möglich, wenn die DSA-Bestimmungen sich mit dem Geschäftsmodell der gezielten Werbung (“targeted advertising”) befassen, das die Verbreitung illegaler Inhalte fördert. Wie die Facebook-Whistleblowerin Frances Haugen in ihrer jüngsten Zeugenaussage in Brüssel betonte, sind die Algorithmen  zur Steuerung der Gewinne durch Werbeplazierungen, auch die Wurzel des Problems, das mit dem DSA angegangen werden soll. Eine neue Regulierung sollte sich auf diese Mechanismen konzentrieren, die die Reichweite und Wirkung illegaler Inhalte maximieren. 

Aber der Gesetzgeber sollte sich nicht zu sehr auf Facebook und ähnliche Plattformen konzentrieren. Als gemeinnützige Website ist Wikipedia für jeden kostenlos zugänglich, ohne Werbung und ohne das Verhalten der Leser zu verfolgen oder zu überwachen. Unser von Freiwilligen geleitetes, gemeinschaftliches Modell der Inhaltserstellung und -verwaltung trägt dazu bei, dass die Inhalte von Wikipedia neutral und zuverlässig sind. Tausende von Nutzern überlegen, debattieren und arbeiten zusammen, um zu entscheiden, welche Informationen aufgenommen werden und wie sie präsentiert werden. Dies funktioniert ganz anders als die zentralisierten Systeme, die sich auf Algorithmen stützen, um Informationen so zu verbreiten, dass das Engagement maximiert wird, und um potenziell illegale oder schädliche Inhalte zu moderieren.  

In den 20 Jahren, in denen Wikipedia besteht, hat unsere globale Gemeinschaft von Freiwilligen bewiesen, dass das “Empowerment” der Nutzer, Fakten auszutauschen und zu diskutieren, ein wirksames Mittel ist, um die Nutzung des Internets durch böswillige Akteure , ausländische Einflussnehmer und Extremisten zu bekämpfen. Es ist zwingend erforderlich, dass neue Gesetze wie der DSA den Raum für eine Vielzahl von Webplattformen, kommerziell und nicht-kommerziell, fördern, um zu gedeihen. 

“Wikipedia hat gezeigt, dass es möglich ist, eine gesunde Online-Umgebung zu entwickeln, die resistent ist gegen Desinformation und Manipulation. Durch Nuance und Kontext bietet Wikipedia ein Modell, mit dem Komplexitäten der Moderation von Inhalten angegangen werden können. Ja, es wird Uneinigkeiten unter den Ehrenamtlichen darüber geben, wie ein Thema dargestellt wird. Allerdings führen solche Diskussionen zu besseren, neutraleren und wahrheitsgetreueren Artikeln. Dieser Prozess hat die Wikipedia zu einem der erfolgreichsten existierenden Modellen für die Moderation von Inhalten gemacht.

Brit Stakston, media strategist and Board member of Wikimedia Sverige
  1. Die Nutzungsbedingungen sollten transparent und gerecht sein, aber die Regulierungsbehörden sollten nicht zu sehr vorschreiben, wie sie erstellt und durchgesetzt werden. 

In Artikel 12 des DSA-Entwurfs heißt es derzeit, dass ein Online-Anbieter seine Nutzungsbedingungen – seine Regeln und Instrumente zur Moderation von Inhalten – offenlegen muss und dass sie “sorgfältig, objektiv und angemessen” durchgesetzt werden müssen. Wir stimmen zu, dass die Nutzungsbedingungen so transparent und gerecht wie möglich sein sollten. Die Worte “objektiv” und “verhältnismäßig” lassen jedoch Raum für eine offene, vage Auslegung. Wir haben Verständnis für die Absicht, die Moderation von Inhalten durch die Unternehmen weniger willkürlich und undurchsichtig zu gestalten. Aber Plattformen zu zwingen, bei Verstößen gegen die Nutzungsbedingungen “objektiv” vorzugehen, hätte unbeabsichtigte Folgen. Eine solche Formulierung könnte zu einer Durchsetzung führen, die es gemeinschaftlich verwalteten Plattformen wie Wikipedia unmöglich machen würde, mit Hilfe freiwilliger, gemeinschaftlicher Prozesse neue Regeln zu erstellen und bestehende Regeln durchzusetzen, die den Kontext und die Herkunft aller Inhalte angemessen berücksichtigen. 

Die Richtlinien für den Inhalt und das Verhalten in der Wikipedia werden von den Personen, die einen Beitrag zur Wikipedia leisten, selbst entwickelt und durchgesetzt. Dieses Modell ermöglicht es Menschen, die sich mit einem Thema auskennen, zu bestimmen, welche Inhalte auf der Seite vorhanden sein sollen und wie diese Inhalte gepflegt werden sollen, basierend auf etablierten Neutralitäts-– und zuverlässigen Quellenregeln. Auch wenn dieses Modell nicht perfekt ist, bleibt Wikipedia neutral und zuverlässig. Je mehr Menschen sich am redaktionellen Prozess des Diskutierens, Überprüfens von Fakten und Hinzufügens von Informationen beteiligen, desto 

neutraler werden die Wikipedia-Artikel. Darüber hinaus werden die Überlegungen, Entscheidungen und Durchsetzungsmaßnahmen der Freiwilligen auf der Website öffentlich dokumentiert.  

Dieser Ansatz für die Erstellung und Verwaltung von Inhalten ist weit entfernt von der Top-Down-Machtstruktur der kommerziellen Plattformen, auf die die DSA-Bestimmungen abzielen. Der DSA sollte Räume im Web schützen und fördern, die eine offene Zusammenarbeit ermöglichen, anstatt Wikipedia zu zwingen, sich einem Top-Down-Modell anzupassen.  

  1. Das Verfahren zur Identifizierung und Entfernung “illegaler Inhalte” muss die Nutzergemeinschaften einbeziehen.

Artikel 14 besagt, dass Online-Plattformen dafür verantwortlich sind, illegale Inhalte, die von Nutzern hochgeladen werden, zu entfernen, sobald die Plattformen über diese illegalen Inhalte informiert wurden. Er besagt auch, dass die Plattformen dafür verantwortlich sind, Mechanismen zu schaffen, die es den Nutzern ermöglichen, die Plattformanbieter auf illegale Inhalte aufmerksam zu machen. Diese Bestimmungen beziehen sich in der Regel nur auf eine bestimmte Art von Plattformen: solche mit zentralisierten Systemen zur Moderation von Inhalten, bei denen die Nutzer nur begrenzte Möglichkeiten haben, sich an Entscheidungen über Inhalte zu beteiligen, und die Moderation stattdessen in der Regel von einer einzigen, von der Plattform betriebenen Stelle übernommen wird. Es ist unklar, wie Plattformen, die nicht zu diesem Archetyp gehören, von den endgültigen Versionen dieser Bestimmungen betroffen sein werden. 

Das Wikipedia-Modell ermächtigt die Freiwilligen, die die Wikipedia bearbeiten, Inhalte gemäß einer Reihe von gemeinsam vereinbarten Standards zu entfernen. Während die Wikimedia Foundation also einige Anfragen zur Bewertung illegaler Inhalte bearbeitet, wird die große Mehrheit der Inhalte, die nicht den Wikipedia-Standards entsprechen, von Freiwilligen bearbeitet, bevor überhaupt eine Beschwerde bei der Foundation eingereicht wird. Man kann in diesem Fall einfach nicht alles in dieselbe Schublade stecken. .

Wir befürchten, dass das Gesetz, indem es die rechtliche Verantwortung für die Durchsetzung allein den Dienstanbietern auferlegt und von ihnen verlangt, strenge Standards für die Entfernung von Inhalten einzuhalten, Systeme beeinträchtigt, die sich auf Community-Moderator*innen und deliberative Prozesse stützen. Es hat sich gezeigt, dass diese Verfahren gut funktionieren, um schlechte Inhalte zu erkennen und schnell zu entfernen. Das Ergebnis wäre eine Online-Welt, in der nicht die Menschen, sondern die Diensteanbieter kontrollieren, welche Informationen online verfügbar sind. Wir sind besorgt, dass diese Bestimmung genau das Gegenteil von dem bewirkt, was der DSA beabsichtigt, indem sie den Plattformen mehr Macht gibt und den Menschen, die sie nutzen, weniger. 

  1. Menschen können nicht durch Algorithmen ersetzt werden, wenn es um die Moderation von Inhalten geht. 

Die besten Teile des Internets werden durch Menschen angetrieben, nicht trotz ihnen. Artikel 12 und 14 würden von den Plattformbetreibern verlangen, die Kontrolle über alle Entscheidungen zur Moderation von Inhalten zu übernehmen, was wiederum Anreize für den Einsatz automatischer Inhaltserkennungssysteme schaffen oder diese sogar vorschreiben würde. Solche Systeme können zwar die von der Gemeinschaft betriebene Moderation von Inhalten unterstützen, indem sie Inhalte zur Überprüfung markieren, sie können jedoch den Menschen nicht ersetzen. Die Forschung hat vielmehr systematische Verzerrungen und hohe Fehlerquoten aufgedeckt, die nur allzu oft mit dem Einsatz automatischer Tools verbunden sind. Solche Algorithmen können daher den Schaden, der durch Amplifikation entsteht, noch vergrößern. Automatisierte Tools sind nur begrenzt in der Lage, grenzwertige Inhalte zu erkennen, die zwar extrem sind, aber dennoch von öffentlichem Interesse sind. Ein Beispiel für solche Inhalte sind Videos, die Menschenrechtsverletzungen dokumentieren und die nachweislich schnell entfernt werden.  Diese Beispiele unterstreichen nur die Notwendigkeit, den menschlichen Kontext höher zu gewichten als Geschwindigkeit.

Daher sollte der europäische Gesetzgeber vermeiden, sich zu sehr auf die Art von Algorithmen zu verlassen, die von kommerziellen Plattformen zur Moderation von Inhalten verwendet werden. Wenn der DSA Plattformen dazu zwingt oder Anreize setzt, Algorithmen einzusetzen, um über den Wert oder den verletzenden Charakter von Inhalten zu urteilen, verpassen wir alle – als digitale Bürger*innen – die Chance, unsere digitale Zukunft gemeinsam zu gestalten. 

In der Wikipedia wird Machine Learning als Hilfsmittel und nicht als Ersatz für die von Menschen geführte Moderation von Inhalten eingesetzt. Diese Werkzeuge arbeiten auf Wikipedia transparent, und Freiwillige haben das letzte Wort, wenn es darum geht, welche Aktionen maschinelle Lernwerkzeuge vorschlagen könnten. Wie wir gesehen haben, macht es die Seite stabiler und zuverlässiger, wenn die Wikipedia-Leser*innen und -Redakteur*innen mehr Entscheidungsbefugnis erhalten. 

“Es ist unmöglich, einem ‘perfekten Algorithmus’ bei der Moderation von Online-Inhalten zu vertrauen. Es wird immer Fehler geben, sei es durch böswillige Absicht oder aus anderen Gründen. Wikipedia ist erfolgreich, weil sie keinem vordefinierten Modell folgt, sondern sich auf die Diskussionen und den Konsens von Menschen anstelle von Algorithmen stützt.” 

Maurizio Codogno, langjähriger italienischer Wikipedia-Freiwilliger

Wir fordern die politischen Entscheidungsträger*innen auf, darüber nachzudenken, wie neue Regeln dazu beitragen können, unsere digitalen Räume so umzugestalten, dass kollaborative Plattformen wie die unsere nicht länger die Ausnahme sind. Die Regulierung sollte die Menschen in die Lage versetzen, die Kontrolle über ihre digitalen öffentlichen Räume zu übernehmen, anstatt sie zu passiven Empfängern von Moderationspraktiken für Inhalte zu machen. Wir brauchen politische und rechtliche Rahmenbedingungen, die die Bürger*innen in die Lage versetzen und befähigen, die Zukunft des Internets zu gestalten, anstatt Plattformen zu zwingen, sie weiter auszuschließen. 

Unsere Gemeinschaft für öffentliches Interesse ist hier, um mit den Gesetzgebern zusammenzuarbeiten, um Vorschriften zu entwerfen, die die Bürger*innen in die Lage versetzen, unsere Online-Räume gemeinsam zu verbessern. 

“Das Wissen der Menschheit ist für viele immer noch unzugänglich: Es ist in privaten Archiven gespeichert, in wenig bekannten Datenbanken versteckt oder in den Erinnerungen unserer Vorfahren verloren. Wikipedia hat sich zum Ziel gesetzt, die Verbreitung von Wissen zu verbessern, indem sie unser Erbe digitalisiert und für jedermann frei online zugänglich macht. Die COVID-19-Pandemie und die darauf folgende “Infodemie” erinnern uns nur noch mehr daran, wie wichtig die Verbreitung von freiem Wissen ist”. 

Pierre-Yves Beaudouin, Präsident, Wikimedia Frankreich

Kontaktaufnahme mit den politischen Experten von Wikimedia 

  • Für Medienanfragen zur Diskussion der Position von Wikimedia zur DSA wenden Sie sich bitte an press@wikimedia.org 
  • Abgeordnete des Europäischen Parlaments und ihre Mitarbeiter wenden sich bitte an Jan Gerlach, Public Policy Director, jgerlach@wikimedia.org
Read more Advocacy, Foundation, Legal

Helfen Sie uns dabei, das Wissen der Welt zu befreien.

Wegen ihrer Gemeinnützigkeit werden die Wikipedia und unsere verwandten Projekte für Freies Wissen vor allem über Spenden unterstützt.

Spenden Sie jetzt

Verbindung

Bleiben Sie über die Wikimedia Foundation auf dem laufenden

Kontaktieren Sie eine Person

Fragen über die Wikimedia Foundation oder unsere Projekte? Kontaktieren Sie unser Team.
Contact

Bildnachweis