Wesentliche Erkenntnisse
- Datenschutzbedenken bei generativer KI entstehen durch Datenerfassungsmethoden und die Weitergabe von Daten, was Risiken für die Nutzer mit sich bringt.
- Die Integration von generativer KI in Apps kann zu negativen Nutzererfahrungen und überladenen Benutzeroberflächen führen.
- Generative KI ist nicht immer von Nutzen, kann die Originalität einschränken und erfordert einen hohen Energieaufwand.
Generative KI ist zweifellos ein bemerkenswerter technologischer Fortschritt. Doch ist es wirklich notwendig, sie in jede einzelne App und jeden Dienst zu integrieren?
Im Folgenden werden die Gründe erläutert, warum dies meiner Meinung nach nicht erforderlich ist.
1. Der Datenschutz ist ein Problem bei generativer KI
Ein zentrales Problem bei generativer KI ist der Datenschutz und die Sicherheit der Nutzerdaten.
Spezifische KI-Anwendungen wie ChatGPT oder Gemini können dieses Risiko in gewissem Maße kontrollieren. Wenn diese Funktionen jedoch in alltägliche Anwendungen wie Google Docs, Nachrichten und andere Apps integriert werden, wird es schwierig, sicherzustellen, dass keine sensiblen persönlichen Daten der KI offengelegt werden.
Obwohl die Datenschutzrichtlinien von KI-Unternehmen unterschiedlich sind, kann man OpenAI als Beispiel nehmen. OpenAI gibt an, dass „persönliche Informationen, die in Eingaben, hochgeladenen Dateien oder Feedback enthalten sind, gesammelt“ und diese an Dritte weitergegeben werden können.
Wenn Sie nicht ausdrücklich widersprochen haben, dass Ihre Daten von OpenAI zur Schulung seiner Modelle verwendet werden, ist es wahrscheinlich, dass Ihre Informationen bereits für Trainingszwecke eingesetzt wurden. Darüber hinaus haben Forscher laut 404Media die Trainingsdaten von ChatGPT extrahiert.
Selbst wenn große Technologieunternehmen in ihren Datenschutzrichtlinien versichern, dass Ihre Daten nicht weitergegeben oder genutzt werden, fällt es aufgrund ihrer bisherigen Handlungen schwer, ihrem Wort zu vertrauen.
2. Die Integration von KI in Apps führt zu unangenehmen Nutzererlebnissen
Wenn Sie versehentlich auf das Meta-KI-Symbol getippt haben, während Sie in WhatsApp nach einem Chat suchten, wissen Sie, wie störend solche Funktionen sein können. Warum sollte man in WhatsApp nach einem Chat suchen und dort „ein leckeres Dessert beschreiben“ oder „eine neue Sprache erfinden“?
Es sind nicht nur WhatsApp oder Meta; Googles Gemini KI findet sich auch in Nachrichten, Gmail, Drive und anderen Anwendungen. Die KI-Zusammenfassungen in der Google-Suche sind hier ebenfalls erwähnenswert.
Diese generativen KI-Funktionen sind besonders störend, weil sie die Benutzeroberfläche dieser Apps unübersichtlich gestalten, insbesondere wenn sie aufdringlich hervorgehoben werden.
3. Generative KI ist nicht immer nützlich
Es gibt Situationen, in denen KI sehr hilfreich ist, und andere, in denen sie es nicht ist. Zumindest ist das momentan der Fall.
Leider sind Technologieunternehmen mehr daran interessiert, auf den KI-Zug aufzuspringen, ohne zu berücksichtigen, ob die Funktion für die Nutzer tatsächlich einen Mehrwert darstellt.
Ebenso verbessert der Trend, unausgereifte KI-Funktionen zu implementieren, die weit davon entfernt sind, hilfreich zu sein, die Situation nicht. Ein weiteres Beispiel sind die KI-Zusammenfassungen in der Google-Suche, die einem Nutzer einmal rieten, Klebstoff auf Pizza zu geben.
4. Die Verwendung generativer KI beeinträchtigt Originalität und Authentizität
Ich kann KI nutzen, um eine sachliche, professionelle E-Mail zu verfassen. Wenn ich jedoch meiner Familie eine Nachricht schreibe oder einen Kommentar zu einem Beitrag eines Freundes abgebe, kann ich mir nicht vorstellen, KI zu nutzen. Es gibt auch andere Gründe, warum soziale Medien keine generativen KI-Funktionen haben sollten.
Generative KI kann zwar bei kreativen Aufgaben hilfreich sein, aber nicht jede Kreativsoftware benötigt KI. Zudem diskutieren kreative Fachkräfte darüber, ob solche Werkzeuge die Originalität und den Gedanken eines fühlenden menschlichen Künstlers erreichen können.
Daher ist es nicht sinnvoll, generative KI in Bereichen einzusetzen, in denen Authentizität und Individualität von Bedeutung sind.
5. Energieverschwendung
Das Training und die Nutzung generativer KI erfordern eine erhebliche Menge an Energie. Um eine Vorstellung davon zu bekommen: Das Training von OpenAIs GPT-3 verbrauchte schätzungsweise 1287 MWh [PDF] Energie. Laut IEA verbraucht eine ChatGPT-Anfrage fast zehnmal so viel Energie wie eine Google-Suche, während diese Energie einen durchschnittlichen US-Haushalt 120 Jahre lang versorgen könnte.
Es ist einfacher, große Energiemengen zu rechtfertigen, wenn generative KI für tatsächliche, produktive Aufgaben verwendet wird. Die Integration von generativer KI in jede App führt jedoch zu Energieverschwendung (und natürlich zu höheren Kohlenstoffemissionen) ohne einen echten Nutzen.
Zusammenfassend lässt sich sagen, dass generative KI zwar nützlich sein kann, aber nicht in jeder App benötigt wird. Sie wirft Datenschutzbedenken auf, macht die Benutzeroberfläche unhandlich und führt zu mehr Energieverschwendung. Am wichtigsten ist, dass generative KI negative Auswirkungen auf Ihre Gesundheit haben kann.