Was ist AGI? Das KI-Ziel, über das alle sprechen, aber niemand klar definieren kann

Decrypt
GROK9,5%

Kurzfassung

  • Künstliche allgemeine Intelligenz (AGI) bezieht sich auf KI, die in der Lage ist, across viele Aufgaben zu lernen und zu reasoning.
  • Forscher sagen, dass die heutigen Chatbots zwar leistungsfähig sind, aber noch weit von echter allgemeiner Intelligenz entfernt sind.
  • Experten sind sich uneinig darüber, wann AGI eintreten könnte oder wie man sie erkennen würde.

Künstliche allgemeine Intelligenz, oder AGI, ist eines der meistzitierten Meilensteine in der KI-Branche. Tech-Führungskräfte prognostizieren sie, Investoren investieren Milliarden in die Forschung dazu, und Kritiker warnen vor den Risiken, sobald sie erreicht ist. Doch was genau AGI ist, bleibt unklar, und Forscher sind sich noch uneinig darüber, was als „allgemeine Intelligenz“ gilt, wann sie eintreten könnte und wie man sie erkennt, wenn sie da ist. „Es gibt eine Menge verschiedener Definitionen“, sagte Malo Bourgon, CEO des Machine Intelligence Research Institute, gegenüber Decrypt. „Wenn wir darüber sprechen, ist dieses System AGI? Ist jenes System AGI? Was genau qualifiziert als AGI nach welcher Definition? Ich denke, das ist ziemlich schwierig zu bestimmen.“

 Prominente Persönlichkeiten, darunter OpenAI-CEO Sam Altman, Anthropic-CEO Dario Amodei und xAI-CEO Elon Musk, haben ihre Meinungen geäußert und Prognosen zur Entstehung von AGI gemacht. „Ich denke, wir werden 2026 AGI erreichen“, sagte Musk im Dezember in einem Interview mit dem Vorsitzenden der XPRIZE Foundation, Peter Diamandis. „Ich bin zuversichtlich, dass KI bis 2030 die Intelligenz aller Menschen zusammen übertreffen wird.“ Im Gegensatz zu den generativen KI-Systemen, die den meisten durch ChatGPT bekannt sind, bezieht sich künstliche allgemeine Intelligenz, oder AGI, im Allgemeinen auf ein KI-System, das in der Lage ist, Wissen zu verstehen, zu lernen und in vielen verschiedenen Aufgaben auf menschlichem Niveau anzuwenden, anstatt nur eine einzelne spezialisierte Funktion auszuführen. Das Konzept geht auf die frühen Tage der KI-Forschung in den 1950er Jahren zurück.

Anfang der 2000er Jahre popularisierten Forscher wie Ben Goertzel, Shane Legg und Peter Voss den Begriff „künstliche allgemeine Intelligenz“, um das ursprüngliche Ziel einer menschenähnlichen, breit einsetzbaren KI von den zunehmend erfolgreichen, aber engen KI-Systemen zu unterscheiden, die in Forschungsinstituten und Universitäten entwickelt werden. Allerdings sagte Bourgon, dass das Erreichen „menschlicher Intelligenz“ kein Einheitsziel ist. „Aus unserer evolutionären Geschichte, der Struktur unseres Gehirns, der Langsamkeit der Neuronen, den Grenzen unseres Arbeitsgedächtnisses und der Geschwindigkeit, mit der unser Gehirn arbeitet, ergeben sich viele Gründe, zu erwarten, dass, wenn wir KI-Systeme entwickeln, die diese Eigenschaften haben, es wahrscheinlich einen enormen Spielraum über uns gibt“, sagte er. AGI ist bereits hier, sagen einige Jüngste Fortschritte bei großen Sprachmodellen und leistungsstarken KI wie Gemini, ChatGPT, Grok und Claude, die Aufsätze schreiben, Bilder erstellen, Code generieren und komplexe Fragen beantworten können, haben viele dazu veranlasst zu argumentieren, dass AGI bereits erreicht wurde. Was ihnen jedoch fehlt, ist Autonomie. „In den meisten Definitionen von AGI steckt die Vorstellung von Autonomie“, sagte Bourgon. „Dass diese Systeme nicht nur als Werkzeuge und Chatbots agieren, sondern eine agentische Natur besitzen, mit der sie Aufgaben in einer Vielzahl von Umgebungen mit großem Autonomiegrad erledigen können.“ Ben Goertzel, CEO von SingularityNET und einer der Persönlichkeiten, die den Begriff AGI populär gemacht haben, sagte, diese Interpretation dehne das Konzept aus. „Der Begriff ist in den Medien jetzt ziemlich verworren“, sagte Goertzel gegenüber Decrypt. „Technologie-CEOs finden es bequem zu sagen: ‚Hey, wir haben bereits AGI gestartet‘, und die Leute sensationalisieren das.“ Theoretisch bezieht sich AGI laut Goertzel auf KI-Systeme, die in der Lage sind, zu lernen und eine Vielzahl von Aufgaben zu erfüllen, die über die explizit trainierten hinausgehen. Die heutigen Modelle seien zwar leistungsfähig, aber grundlegend anders als allgemeine Intelligenz. „Sie kommen nicht dahin, indem sie lernen, alles zu tun“, sagte er. „Sie kommen dahin, indem sie das ganze Internet in ihrer Wissensbasis haben.“ Während KI-Entwickler Milliarden in den Bau von KI-Datenzentren investieren, um immer leistungsfähigere Modelle mit mehr Rechenleistung zu versorgen, müsste eine echte allgemeine Intelligenz in der Lage sein, zu generalisieren und wirklich neuartige Erkenntnisse zu gewinnen, die über das bloße Remixing ihrer Trainingsdaten hinausgehen, erklärte er. „Wenn man aktuelle Deep Neural Net-Systeme auf Musik bis zum Jahr 1900 trainiert, werden sie niemals Hip-Hop oder Grindcore erfinden“, sagte Goertzel. Er argumentierte, dass der Übergang zu AGI wahrscheinlich nicht als ein einzelner, klarer Bruch sichtbar sein wird. „Es muss keine völlig scharfe Grenze zwischen AGI und prä-AGI geben“, sagte er, vergleichbar mit den Grauzonen in der Biologie bei Viren und Retroviren. Wir wissen immer noch, dass ein Hund lebt und ein Stein nicht, fügte er hinzu, auch wenn einige Randfälle „unscharf“ sind, wie bei Viren. Kyle Chan, Forscher bei Brookings, der globale KI-Politik untersucht, sagte, die Debatte habe sich auf mehrere Szenarien ausgeweitet. Entwicklung im Ausland „Es gibt eine ganze Bandbreite dessen, was wir unter AGI verstehen“, sagte Chan gegenüber Decrypt. „Am einen Ende steht die Idee der rekursiven Selbstverbesserung und einer Intelligenzexplosion, am anderen eine eher ‚banale‘ Version – KI, die viele menschliche Fähigkeiten nachahmen kann, oder KI als eine normale Technologie wie das Internet oder Computer.“ Während amerikanische KI-Labore über die existenziellen Implikationen von AGI diskutieren, sieht die Unterhaltung in China ganz anders aus.

„AGI ist in China kein so großes Thema, vor allem bei den politischen Entscheidungsträgern, der breiteren KI-Community und der Tech-Branche“, sagte er. „Die meisten konzentrieren sich darauf, damit Geld zu verdienen, besonders im physischen Bereich, was ein Bereich ist, in dem China und viele ihrer Tech-Unternehmen einen Vorteil gegenüber den USA sehen, weil sie die Hardware-Lieferketten haben, die die USA nicht haben, um Robotik oder autonome Systeme, Drohnen und alles KI-gestützte aufzubauen.“ Er gab zu, dass chinesische KI-Entwickler zwar nicht so stark auf AGI fokussiert sind wie ihre amerikanischen Kollegen, es aber dennoch auf ihrem Radar ist. „Einige chinesische KI-Gründer sprechen über AGI, und einige sogar über eine Art ASI“, sagte er. „Aber im Allgemeinen ist AGI in China wirklich kein so großes Thema.“ Prognosen, wann AGI eintreten könnte, variieren stark. Für Forscher, die die Technologie untersuchen, könnte das Label selbst weniger wichtig sein als das, was die Systeme leisten können. „Was sind die Effekte und die Fähigkeiten dieser Systeme?“ sagte Bourgon. „Das ist eher die Denkweise, in der wir uns jetzt befinden sollten.“

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare