Die Entwicklung der Künstlichen Allgemeinen Intelligenz (AGI)
Die Forschung im Bereich der künstlichen Intelligenz (KI) macht enorme Fortschritte, und das Konzept der Künstlichen Allgemeinen Intelligenz (AGI) – oft als die nächste Stufe der KI-Entwicklung betrachtet – rückt immer näher. Wir befinden uns in einer spannenden Phase, in der generative KI-Anwendungen immer häufiger werden. Aber was kommt als Nächstes? Ist AGI tatsächlich die Zukunft? Dieser Artikel beleuchtet, was AGI genau ist und welche potenziellen Auswirkungen sie auf die Menschheit haben könnte.
Was bedeutet Künstliche Allgemeine Intelligenz (AGI)?
Obwohl der Begriff AGI in der KI-Forschung und -Entwicklung immer präsenter wird, gibt es keine einheitliche Definition. Im Wesentlichen beschreibt AGI ein KI-System, das in der Lage ist, menschliche kognitive Fähigkeiten zu erreichen oder sogar zu übertreffen. Es geht also darum, dass Maschinen nicht nur spezifische Aufgaben erledigen, sondern auch flexibel und lernfähig agieren, ähnlich wie der Mensch.
Verschiedene KI-Labore haben ihre eigenen Interpretationen von AGI. So definiert OpenAI AGI als „KI-Systeme, die im Allgemeinen intelligenter sind als Menschen“. Ihr Ziel ist es, eine AGI zu entwickeln, die der gesamten Menschheit nützt. Gleichzeitig erkennen sie die „ernsthaften“ Risiken, die mit dieser Technologie einhergehen, wie etwa „Missbrauch, schwerwiegende Unfälle und soziale Störungen“.
Shane Legg, Mitbegründer von DeepMind (jetzt Google DeepMind), beschreibt AGI als ein sehr breites Konzept. Er und sein Kollege Ben Goertzel prägten den Begriff mit. DeepMind sieht AGI als ein System, das nicht nur eine Vielzahl von Aufgaben bewältigen muss, sondern auch lernen muss, wie man diese Aufgaben angeht, seine eigene Leistung bewertet und bei Bedarf Hilfe anfordert.
Google DeepMind hat verschiedene Entwicklungsstufen von AGI identifiziert: aufkommend, kompetent, expertenhaft, virtuos und übermenschlich. Aktuelle KI-Modelle zeigen nach Ansicht der Forscher bereits einige aufkommende Verhaltensweisen.
Eigenschaften von AGI-Systemen
Wie auch bei der Definition, besteht keine absolute Einigkeit über die genauen Merkmale von AGI. Wissenschaftler sind sich jedoch einig, dass AGI auf menschlichem Niveau in der Lage sein sollte, zu schlussfolgern, Entscheidungen zu treffen (auch unter Unsicherheit) und über ein breites Spektrum an Wissen, einschließlich gesunden Menschenverstand, zu verfügen.
AGI-Systeme sollten planungsfähig sein, neue Fähigkeiten erlernen und offene Fragen beantworten können. Auch die Kommunikation in natürlicher Sprache wird als entscheidend angesehen. Zudem sollten sie in der Lage sein, kreativ zu sein und neue Ideen zu entwickeln. Körperliche Fähigkeiten, wie Sehen, Hören, Bewegen und Handeln, könnten ebenfalls eine Rolle spielen.
Es gibt verschiedene Methoden, um festzustellen, ob ein KI-Modell AGI erreicht hat. Der bekannteste ist der Turing-Test. Dieser Test, benannt nach dem Informatiker Alan Turing, prüft, ob ein KI-System menschliche Konversation so gut nachbilden kann, dass ein Mensch nicht erkennen kann, ob er mit einer Maschine spricht. Viele glauben, dass moderne Chatbots den Turing-Test bereits bestanden haben, obwohl der Test an sich intelligentes Verhalten im Sinne eines Menschen als Maßstab hat. Andere Tests, wie der Employment Test von John Nilsson, verlangen, dass Maschinen entscheidende Aufgaben wie Menschen erledigen. Steve Wozniak, Mitbegründer von Apple, schlug den Coffee Test vor, bei dem eine Maschine selbstständig Kaffee zubereiten muss.
Entwicklungsstufen von AGI
OpenAI geht davon aus, dass AGI nicht in einem einzigen Schritt erreicht wird, sondern dass es mehrere Stufen des Fortschritts geben wird. Bloomberg berichtete kürzlich, dass OpenAI fünf Fortschrittsstufen auf dem Weg zur Verwirklichung des AGI-Ziels definiert hat.
Die erste Stufe ist die Konversations-KI, wie wir sie bereits in Chatbots wie ChatGPT, Claude und Gemini sehen. Die zweite Stufe ist die Argumentations-KI, bei der KI-Modelle wie Menschen argumentieren können. Diese Stufe ist noch nicht erreicht. Die dritte Stufe ist die Autonome KI, bei der KI-Agenten selbstständig im Namen des Benutzers handeln können. Die vierte Stufe ist die Innovative KI, bei der intelligente KI-Systeme sich selbst weiterentwickeln und verbessern können. Die fünfte Stufe ist die Organisatorische KI, bei der ein KI-System die Aufgaben einer ganzen Organisation übernehmen kann, ohne menschliches Eingreifen. Diese Systeme können auch aus Fehlern lernen und sich verbessern.
AGI-Fortschritt und Zeitplan: Wie nahe sind wir dran?
Bild: Shutterstock
Sam Altman, CEO von OpenAI, glaubt, dass wir die fünfte Stufe – die Organisatorische KI – in den nächsten zehn Jahren erreichen könnten. Andere Experten haben unterschiedliche Prognosen. Ben Goertzel schätzt, dass AGI in den nächsten Jahrzehnten, möglicherweise in den 2030er Jahren, Realität werden könnte.
Geoffrey Hinton, der als „Pate der KI“ gilt, war anfangs skeptisch bezüglich des Zeitrahmens, hält aber mittlerweile eine Allgemeine KI in nur 20 Jahren für möglich.
François Chollet, ein führender Forscher bei Google DeepMind, glaubt, dass AGI nicht durch bloße Skalierung bestehender Technologien, wie LLMs (Large Language Models), erreicht werden kann. Er hat einen neuen Benchmark namens ARC-AGI entwickelt und einen Wettbewerb gestartet, um zu prüfen, ob aktuelle KI-Modelle diesen lösen können. Chollet argumentiert, dass die Entwicklung von AGI stagniert und neue Ideen notwendig sind.
Yann LeCun, Chief AI Scientist bei Meta, sieht ebenfalls Einschränkungen bei LLMs und meint, dass diese nicht ausreichen, um AGI zu erreichen, da es ihnen an echter Intelligenz und Argumentationsvermögen mangelt.
Existentielle Risiken durch AGI
Viele Experten warnen vor den Risiken, die mit der Entwicklung von AGI einhergehen. OpenAI selbst räumt ein, dass die Technologie erhebliche Gefahren birgt. Geoffrey Hinton betonte nach seinem Austritt bei Google, dass es Wege geben muss, um wesentlich intelligentere KI-Systeme zu kontrollieren.
Ein AGI-System könnte zu erheblicher Arbeitslosigkeit führen, was die wirtschaftlichen Schwierigkeiten weltweit verschärfen würde. OpenAI hat bereits eine Studie veröffentlicht, die aufzeigt, welche Berufe durch ChatGPT ersetzt werden könnten. Zudem besteht die Gefahr von Missbrauch und unbeabsichtigten Konsequenzen, wenn solche Systeme nicht mit menschlichen Werten übereinstimmen.
Elon Musk hat wiederholt auf die Gefahren von AGI hingewiesen und betont, dass ihre Entwicklung den Interessen der Menschheit dienen muss. Er forderte, zusammen mit anderen Branchenführern, eine Pause bei großen KI-Experimenten.
Ilya Sutskever, Mitbegründer von OpenAI, gründete das Startup Safe Superintelligence, da er der Ansicht ist, dass KI zwar viele Probleme lösen, aber auch neue schaffen kann. Er arbeitet daran, mächtige KI-Systeme mit menschlichen Werten in Einklang zu bringen, um katastrophale Folgen zu verhindern. Timnit Gebru, eine ehemalige KI-Forscherin bei Google, die aufgrund ihrer kritischen Haltung zu LLMs entlassen wurde, fragt: „Warum sollten wir es überhaupt bauen?“.
AGI könnte die soziale Struktur der Gesellschaft durch Jobverluste verändern und bestehende Ungleichheiten verschärfen. Es gibt viele offene Fragen und ethische Bedenken, die berücksichtigt werden müssen, bevor die Entwicklung von AGI weiter vorangetrieben wird. Was denken Sie über AGI? Teilen Sie Ihre Gedanken in den Kommentaren mit!