Künstliche Intelligenz (KI), insbesondere generative KI, hat in den letzten Jahren an Bedeutung gewonnen, da Social-Media-Plattformen versuchen, diese Technologie zu integrieren. Diese Entwicklung birgt, trotz ihres Innovationspotenzials, erhebliche Herausforderungen für die Nutzer. Viele von uns haben bereits die Schattenseiten wie die Zunahme von qualitativ minderwertigen Inhalten und den Verlust an Authentizität erlebt. In diesem Artikel werden wir uns mit einigen der größten Nachteile generativer KI in sozialen Medien auseinandersetzen und diskutieren, wie diese Veränderungen unsere Online-Erfahrung beeinflussen. Lesen Sie weiter, um mehr über die Flut von KI-generierten Inhalten, die Abnahme der Authentizität und weitere relevante Themen zu erfahren.
Die Flut von KI-generierten Inhalten
Wenn Sie häufig Plattformen wie Facebook nutzen, sind Sie wahrscheinlich schon mit KI-generierten Inhalten in Kontakt gekommen. Dieser Begriff beschreibt minderwertige Ergebnisse von generativer KI, die von surrealen Kunstwerken bis hin zu sinnlosen Rezepten reichen. Es gibt sogar ein X-Konto, das sich speziell dem KI-Müll auf Facebook widmet.
Oftmals stammen solche Beiträge von Spam-Seiten, die auf virale Verbreitung aus sind. Da Facebook virale Inhalte bevorzugt, werden Ihre Feeds mit mehr Unsinn überflutet als gewöhnlich. Die generative KI hat es zudem einfacher denn je gemacht, solche Spam-Posts zu erzeugen, wodurch echte Inhalte in sozialen Medien in den Hintergrund treten.
Verlust an Authentizität
Dontree_M/Shutterstock
Soziale Medien sind nicht gerade für ihre Authentizität bekannt. Oftmals zeigen Influencer Einblicke in ihr Leben, die darauf abzielen, ein Idealbild zu vermitteln oder Produkte zu bewerben, für die sie bezahlt werden.
Die KI verschärft diese Authentizitätskrise noch weiter. TikTok testet virtuelle Influencer, die es Unternehmen ermöglichen, durch digitale Avatare Werbung zu schalten, wie SocialMediaToday berichtet. Instagram wiederum erprobt eine Funktion, mit der Influencer KI-Bots von sich selbst erstellen können, die auf Nachrichten von Fans antworten. Dies wurde vom Meta-CEO Mark Zuckerberg in seinem Instagram-Kanal angekündigt.
Diese Verwässerung der Authentizität in sozialen Medien beschränkt sich jedoch nicht nur auf Influencer. KI wird auch genutzt, um Nutzerbeiträge in Netzwerken wie Reddit und X (Twitter) zu erstellen. Während Chatbots, die dies können, schon länger existieren, erschweren die großen Sprachmodelle die Unterscheidung zwischen echten und künstlich erstellten Beiträgen erheblich. Bei jedem Besuch auf Reddit liest man Nutzer, die andere beschuldigen, KI zur Erstellung von Beiträgen oder Geschichten zu verwenden.
KI-Plattformen für soziale Medien sind noch in der Entwicklung, was bedeutet, dass Fehler vorkommen. Einige dieser Fehler tragen zur Verbreitung von Fehlinformationen bei oder mindern das Vertrauen der Nutzer in die Plattform.
Ein Beispiel dafür ist, dass Meta AI auf einen Beitrag in einer Facebook-Gruppe antwortete, der vorgab, von einem Elternteil eines „2e“-Kindes (doppelt außergewöhnlich) zu stammen, das an einem Programm für begabte Schüler teilnahm, wie Sky News berichtete. Glücklicherweise sind die Antworten von Meta AI auf Facebook eindeutig gekennzeichnet, sodass die Nutzer die Falschheit der Antwort erkennen konnten. Dies wirft jedoch Fragen nach der Zuverlässigkeit von KI-Tools wie Meta AI auf, wenn sie sich in Gespräche einmischen, in denen sie nichts zu suchen haben.
Gleichzeitig wurde Grok AI (X’s KI-Chatbot) für die Verbreitung von Fehlinformationen kritisiert. Ein Beispiel hierfür war die falsche Beschuldigung des NBA-Spielers Klay Thompson, Häuser verwüstet zu haben, nachdem die KI Basketballjargon, der Fehlschüsse als „Ziegel“ bezeichnet, falsch interpretiert hatte.
Während einige KI-Halluzinationen lustig sind, sind andere Fehlinformationen beunruhigend und haben reale Konsequenzen.
Die Theorie vom „toten Internet“
Die Theorie vom „toten Internet“ besagt, dass der Großteil der Inhalte im Internet von Bots generiert wird. Was früher belächelt wurde, erscheint angesichts der Flut an KI-Spam und -Antworten in sozialen Medien immer plausibler.
Die Tatsache, dass Social-Media-Unternehmen nun dazu übergehen, Bots als Nutzer zu integrieren, macht diese Idee realistischer denn je. So wurde Butterflies AI ins Leben gerufen, eine Social-Media-Plattform, auf der einige Nutzer tatsächlich KI-Bots sind. Während Bots auf sozialen Medien nützlich sein können, ist es jedoch beunruhigend, wenn sie sich als andere Nutzer ausgeben.
In Bezug auf die tägliche Nutzererfahrung hat generative KI es Spam-Bots erleichtert, echte Nutzer zu imitieren. Kürzlich habe ich auf X eine Anfrage für ein Kunstwerk gepostet und mein Postfach wurde mit Antworten von Bots überflutet. Es wird immer schwieriger, echte Nutzer von Bots zu unterscheiden.
Schutz der Inhalte vor KI-Scraping
Nutzer versuchen auf unterschiedliche Weise, ihre Inhalte vor der Verwendung in KI-Datensätzen zu schützen. Es ist jedoch nicht immer einfach, sich abzumelden. Wenn Ihre Beiträge öffentlich sind, ist es wahrscheinlich, dass sie bereits zum Trainieren von KI genutzt wurden.
Deshalb testen Nutzer unterschiedliche Methoden, um ihre Daten zu schützen. Dazu gehören der Wechsel zu privaten Profilen sowie die Datenvergiftung. Während die Nutzung von Nightshade zur Vergiftung von Kunstwerken keine Auswirkungen auf die Sichtbarkeit der Bilder für die Nutzer hat, können andere Formen der Datenvergiftung die Inhalte, die wir in sozialen Medien sehen, möglicherweise beeinflussen.
Wenn immer mehr Nutzer ihre Profile in öffentlichen sozialen Netzwerken auf privat umstellen, wird es schwieriger, Nutzer und Inhalte zu finden, die einem gefallen. Und da Künstler von Plattformen abwandern, die Trainingsdaten für generative KI liefern, werden diejenigen, die ihre Arbeiten einfach nur bewundern wollen, diese verpassen, es sei denn, sie wechseln zu Nischenplattformen.
Es gibt einige positive Anwendungsfälle für generative KI auf diesen Plattformen, aber manche Leute würden argumentieren, dass wir generative KI in sozialen Medien eigentlich gar nicht brauchen. Unabhängig von unseren Ansichten hat die generative KI die sozialen Medien bereits in vielerlei Hinsicht grundlegend verändert.
Zusammenfassend: Die Integration von generativer KI in sozialen Medien bringt eine Reihe von Herausforderungen mit sich, darunter die Flut von minderwertigen Inhalten und der Verlust an Authentizität. Während Nutzer versuchen, ihre Inhalte zu schützen und die Integrität ihres Online-Erlebnisses zu wahren, bleibt die Frage, welche Rolle die generative KI in der Zukunft der sozialen Medien spielen wird. Eines ist jedoch sicher: Die Technologie hat die soziale Plattformen bereits nachhaltig verändert und wird weiterhin für Gesprächsstoff sorgen.