Tritt unserer Community bei – hier klicken
Screenshot von LingBot-World, einem interaktiven Weltmodell, das Echtzeit-Simulationen für KI-gestützte Anwendungen ermöglicht.
· AI Redaktion · 4 Min. Lesezeit
LingBot-World Künstliche Intelligenz Open Source Simulation Technologie

Die Zukunft interaktiver KI mit LingBot-World: Eine Reise in Echtzeit

Entdecken Sie LingBot-World, ein Open-Source Modells für interaktive Simulationen in der KI. Jetzt ohne Grenzen experimentieren.

Inhaltsverzeichnis
  1. 1. Einführung in LingBot-World
  2. 2. Was ist LingBot-World?
  3. 3. Von Text zu Video und dann zur Welt
  4. 4. Datenmotor: Von Webvideos zu interaktiven Trajektorien
  5. 5. Architektur von LingBot-World
  6. 6. LingBot-World-Fast: Echtzeitanwendungen
  7. 7. Emergent Memory und lange Horizont-Verhalten
  8. 8. Anwendungen von LingBot-World
  9. 9. Fazit

Einführung in LingBot-World

Im Januar 2026 hat Robbyant, die Abteilung für eingebettete KI von Ant Group, das LingBot-World Projekt open-sourcifiziert, das die Grenzen der interaktiven Simulationen neu definiert. Diese bahnbrechende Technologie stellt ein neues Paradigma dar, das klassische Text-zu-Video-Modelle erweitert und den Übergang zu einem Text-zu-Welt-Modell ermöglicht. In diesem Artikel wagen wir einen tiefen Einblick in die Funktionsweise von LingBot-World, seine Architektur, die zugrunde liegenden Technologien und seine potenziellen Anwendungen.

Was ist LingBot-World?

LingBot-World ist ein großangelegtes Weltmodell, das die Videoerstellung in eine interaktive Simulation für verkörperte Agenten umwandelt. Dies ist besonders relevant für Bereiche wie autonomes Fahren und Spielen. Das System wurde entwickelt, um kontrollierbare Umgebungen mit hoher visueller Qualität, starken Dynamiken und langen zeitlichen Strecken darzustellen, während es gleichzeitig für die Echtzeitsteuerung reaktionsfähig bleibt.

Von Text zu Video und dann zur Welt

Die meisten Text-zu-Video-Modelle generieren kurze Clips, die zwar realistisch aussehen, sich jedoch wie passive Filme verhalten. LingBot-World ist jedoch als ein handlungsbedingtes Weltmodell konzipiert. Es lernt die Übergangsdynamik einer virtuellen Welt, sodass die Eingaben von Tastatur und Maus in Verbindung mit der Kamerabewegung die Entwicklung zukünftiger Frames steuern.

Hierbei lernt das Modell die bedingte Verteilung zukünftiger Videotoken, basierend auf vergangenen Frames, textlichen Eingaben und diskreten Aktionen. In der Trainingsphase kann es Sequenzen von bis zu etwa 60 Sekunden vorhersagen, während es in der Inferenzphase kohärente Video-Streams von bis zu zehn Minuten autonom generieren kann.

Datenmotor: Von Webvideos zu interaktiven Trajektorien

Ein zentrales Merkmal von LingBot-World ist der integrierte Datenmotor. Dieser liefert umfassende, abgestimmte Informationen darüber, wie Handlungen die Welt verändern und umfasst verschiedene reale Szenen. Das Datenakquisitionssystem kombiniert drei Hauptquellen:

  1. Großangelegte Webvideos von Personen, Tieren und Fahrzeugen, sowohl aus der Ich-Perspektive als auch aus der Third-Person-Ansicht.
  2. Spieldaten, bei denen RGB-Bilder strikt mit Benutzersteuerungen wie W, A, S, D und Kameraparametern gekoppelt sind.
  3. Synthetische Trajektorien, gerendert in der Unreal Engine, wo saubere Frames sowie Kameraintrinsiken und -extrinsiken und Objektanordnungen bekannt sind.

Diese unterschiedlichen Datensätze werden in einem Profilierungsprozess standardisiert, was eine Filterung nach Auflösung und Dauer sowie eine Segmentierung der Videos beinhaltet. Danach werden diese qualitativ nach Bewegungsstärke und Ansichtsart bewertet und ein kuratierter Teil wurde ausgewählt.

Architektur von LingBot-World

Das Modell basiert auf einem 14-Billionen-Parameter starken Image-to-Video-Diffusions-Transformer, der bereits starke offene Video-Präferenzen fängt. Das Robbyant-Team hat diesen Rahmen auf eine Mischung von Experten für den diffuseren Video-Transformer erweitert, bei dem stets nur ein Experte aktiv ist. Somit bleibt die Berechnungskosten vergleichbar mit dem Gesamtaufwand eines dichten Modells.

Interaktive Elemente werden durch direkte Injektion der Aktionen in die Transformer-Blöcke realisiert, wobei Kameradrehungen durch spezielle Einbettungen kodiert werden.

LingBot-World-Fast: Echtzeitanwendungen

Der Mid-Trained Model, LingBot-World Base, ist aufgrund seiner zahlreichen Schritte und des vollständigen zeitlichen Aufmerksamkeitsmechanismus teuer für Echtzeitanwendungen. Darum hat das Team LingBot-World-Fast als beschleunigte Variante eingeführt, die intern optimiert werden kann und in der Lage ist, bis zu 16 Bilder pro Sekunde bei 480p auf einem einzelnen GPU-Knoten zu erreichen, mit einer Interaktionslatenz von unter einer Sekunde.

Emergent Memory und lange Horizont-Verhalten

Eine faszinierende Eigenschaft von LingBot-World ist das entstehende Gedächtnis. Das Modell hält die globale Konsistenz aufrecht, ohne explizite 3D-Darstellungen.

Im Experiment zeigt es kohärente Video-Generierungsergebnisse, die sich über einen langen Zeitraum erstrecken und dabei stabilen Layout- und narrative Strukturen bewahren - ideal für verkörperte Agenten und 3D-Rekonstruktion.

Anwendungen von LingBot-World

LingBot-World wird nicht nur für die Videosynthese eingesetzt, sondern auch als Testbed für verkörperte KI. Das Modell unterstützt anpassbare Weltereignisse, bei denen textliche Anweisungen Dinge wie Wetter oder Licht ändern und lokale Ereignisse wie Feuerwerkskörper in Echtzeit injizieren. Die generierten Videos können auch als Eingabe für 3D-Rekonstruktionspipelines verwendet werden.

Fazit

LingBot-World ist ein revolutionäres Open-Source-Weltmodell, das die Zukunft der interaktiven KI-Entwicklung prägen kann. Indem es die Beziehungen zwischen Text, Video und interaktiven Welten definiert, bietet es eine Plattform für innovative Ansätze in der künstlichen Intelligenz. Robbyants Engagement für Open Source fördert die Zusammenarbeit und Erprobung neuer Ideen, und wir sind gespannt, welche spannenden Entwicklungen diese technologiegetriebenen Konzepte in der Zukunft hervorbringen werden.