Es denkt!
Es denkt! Das Gerücht kursierte seit Monaten, jetzt ist es Realität geworden. Der ChatGPT-Entwickler OpenAI hat seine neue Modellreihe 01vorgestellt, die in der Lage sein soll, komplexe Aufgaben selbständig zu lösen, vor allem in der Wissenschaft. Mit anderen Worten: Das Modell kann angeblich »denken»! Entsprechend groß ist die Aufregung in der KI-Gemeinde und darüber hinaus: Ist das nun der Durchbruch zur AGI, der »Allgemeinen künstlichen Intelligenz»? Oder wieder nur ein cleverer Marketing-Trick eines Unternehmens, das notorisch zu Übertreibungen neigt? Das o1-Modell scheint in gewissem Maße schlussfolgern und planen zu können. Solche »Reasoning«-Fähigkeiten sind notwendig, um Probleme selbständig zu lösen. Selbst die besten Sprachmodelle scheiterten bislang oft an relativ banalen Aufgaben. Aus Sicht der Kritiker sind sie deshalb nichts als »stochastische Papageien«, die eben nicht wirklich »denken«, sondern einfach nur das wahrscheinlichste nächste Wort vorhersagen. Bei o1 soll es nun anders sein. Das Erstaunliche daran ist, dass es sich nicht einfach um ein größeres Modell handelt. Offenbar hat OpenAI einen Weg gefunden, wie man mehr Rechenleistung auf Aufgaben wie das Schlussfolgern verlagert (»Inferenz-Skalierung»), vermuten einige Experten. Über die genaue Funktionsweise seines Modells hüllt sich OpenAI jedoch wie immer in Schweigen. Ob das neue o1-Modell wirklich ein »neues Level von KI-Fähigkeiten» erreicht, ja sogar PhD-Niveau, wie OpenAI behauptet, wird sich zeigen. In den nächsten Monaten werden Forschende in aller Welt seine Möglichkeiten und Grenzen austesten. Schon jetzt zeichnet sich ab, dass auch o1 Dinge einfach erfindet – eine grundsätzliche Schwäche aller bisherigen Sprachmodelle. Doch eines scheint klar: Wenn o1 tatsächlich schlussfolgern und planen kann, dann ist das ein großer Schritt in Richtung autonomer Agenten, die ohne menschliches Zutun Aufgaben lösen und Ziele verfolgen können. Das könnte zum Beispiel die Wissenschaft revolutionieren, man denke nur an die Medizin. Autonome KI-Systeme könnten aber auch gefährlich werden, wenn sie unserer menschlichen Kontrolle entgleiten, vor solchen Szenarien warnen KI-Kritiker wie der Bestsellerautor Yuval Harari (»Nexus»). Wir werden vielleicht erkennen müssen, dass wir eine Intelligenz geschaffen haben, die uns Menschen immer weniger braucht. Aber wir brauchen diese Intelligenz, um unsere sehr menschlichen Probleme zu lösen. Wir müssen daher Wege finden, wie wir Menschen mit dieser Intelligenz zurechtkommen. |