Der Drang nach erhöhter Online-Sicherheit, insbesondere im Hinblick auf Minderjährige, schafft unbeabsichtigt neue Barrieren für den Informationszugang für Erwachsene. Da Regierungen weltweit strengere Altersverifizierungsmaßnahmen einführen, führt die praktische Anwendung dieser Gesetze zu unbeabsichtigten Folgen, bei denen legitime Inhalte für Erwachsene unangemessen eingeschränkt werden. Diese sich entwickelnde Landschaft verdeutlicht eine kritische technologische und politische Herausforderung: Wie können Kinder online effektiv geschützt werden, ohne die Zugänglichkeit von Informationen für die breite Öffentlichkeit zu beeinträchtigen?
Die Komplexität ergibt sich aus der inhärenten Schwierigkeit, Algorithmen zu entwickeln, die anspruchsvolle Urteile über Inhalte fällen können. Vorschriften wie der britische Online Safety Act schreiben Plattformen vor, Inhalte zu identifizieren, die ein „erhebliches Risiko erheblicher Schäden für eine nennenswerte Anzahl von Kindern“ darstellen. Dieses Kriterium ist jedoch von Natur aus subjektiv, ein Standard, dessen Anwendung selbst für menschliche Moderatoren oft schwierig ist.
Folglich stehen Social-Media-Plattformen vor einem Dilemma. Um die neuen Vorgaben zu erfüllen, greifen sie auf eine breite Inhaltsblockierung zurück. Dies hat zur unbeabsichtigten Zensur sensibler, aber berichtenswerter Materialien geführt. Beispielsweise wurden Aufnahmen, die die Folgen von Konflikten zeigen und keine expliziten Bilder enthalten, auf Plattformen wie X eingeschränkt. Ebenso werden parlamentarische Diskussionen zu sensiblen Themen, die auf offiziellen Regierungskanälen öffentlich zugänglich sind, aufgrund algorithmischer Übergriffe in sozialen Medien blockiert. Selbst historische Kunstwerke sind nicht immun, wobei bestimmte Stücke als für die Online-Betrachtung ungeeignet eingestuft werden, was die undifferenzierte Natur der aktuellen automatisierten Inhaltsmoderation unterstreicht. Dieser reaktive Ansatz der Plattformen, gepaart mit den ausgeklügelten Umgehungslösungen, die von Nutzern entwickelt werden, deutet auf eine wachsende Kluft zwischen der regulatorischen Absicht und der öffentlichen Akzeptanz hin.
Die Auslagerung von Altersverifizierungsentscheidungen an Drittanbieter erschwert die Situation weiter. Unternehmen verlassen sich zunehmend auf Dienste, die Technologien wie die Gesichtsalterschätzung einsetzen. Diese Systeme sind jedoch, obwohl sie sich weiterentwickeln, nicht unfehlbar. Ihre Genauigkeit kann durch Faktoren wie Lichtverhältnisse beeinträchtigt werden und sie sind anfällig für Irreführung. Diese technologische Ungenauigkeit bedeutet, dass selbst Erwachsene vom Zugriff auf Inhalte ausgeschlossen werden, was die aktuellen Grenzen bei der zuverlässigen Unterscheidung zwischen Nutzern und der genauen Bewertung der Angemessenheit von Inhalten in großem Maßstab verdeutlicht.