Technischer Überblick
Last updated
Last updated
Needle Engine besteht grob aus drei Teilen:
einer Reihe von Komponenten und Tools, die es ermöglichen, Szenen für Needle Engine einzurichten, z.B. aus dem Unity Editor.
einem Exporter, der Szenen- und Komponentendaten in glTF umwandelt.
einer Web-Laufzeitumgebung (runtime), die die erzeugten glTF-Dateien und ihre Erweiterungen lädt und ausführt.
Die Web-Laufzeitumgebung nutzt three.js für das Rendering, fügt ein Komponentensystem über den three.js Scene Graph hinzu und bindet Extension Loader für unsere benutzerdefinierten glTF-Erweiterungen ein. Effektiv verwandelt dies Tools wie Unity oder Blender in leistungsstarke Werkzeuge für die räumliche Webentwicklung – indem glTF Assets zum typischen HTML, CSS, JavaScript und Bundling Workflow hinzugefügt werden.
Modelle, Texturen, Animationen, Lichter, Kameras und mehr werden in Needle Engine als gespeichert. Benutzerdefinierte Daten werden in gespeichert. Diese umfassen alles von interaktiven Komponenten über Physik, Sequenzierung bis hin zu Lightmaps.
Ein typisches Produktions-glTF, das von Needle Engine erstellt wird, verwendet die folgenden Erweiterungen:
Weitere unterstützte Erweiterungen:
Unterstützte Material-Erweiterungen:
Hinweis: Materialien, die diese Erweiterungen verwenden, können aus Unity über das
PBRGraph
-Material von UnityGLTF exportiert werden.
Hinweis: Audio und Varianten werden in Needle Engine bereits durch
NEEDLE_components
undNEEDLE_persistent_assets
unterstützt, es gibt jedoch einige Optionen für eine bessere Anpassung an bestehende Vorschläge wieKHR_audio
undKHR_materials_variants
.
Needle Engine speichert benutzerdefinierte Daten in glTF-Dateien über unsere Vendor-Erweiterungen. Diese Erweiterungen sind so konzipiert, dass sie flexibel sind und das Einfügen relativ beliebiger Daten ermöglichen. Insbesondere wird kein Code in diesen Dateien gespeichert. Interaktive Komponenten werden zur Laufzeit aus den Daten wiederhergestellt. Dies weist einige Ähnlichkeiten mit der Funktionsweise von AssetBundles in Unity auf – die empfangende Seite eines Assets muss über den passenden Code für die in der Datei gespeicherten Komponenten verfügen.
Derzeit stellen wir keine Schemas für diese Erweiterungen zur Verfügung, da sie sich noch in der Entwicklung befinden. Die folgenden JSON-Schnipsel demonstrieren die Verwendung von Erweiterungen anhand von Beispielen und enthalten Hinweise zu Architektur Entscheidungen und dem, was wir in zukünftigen Releases ändern könnten.
Verweise zwischen Datenteilen werden derzeit durch eine Mischung aus Indizes auf andere Teile der glTF-Datei und JSON Pointern konstruiert. Wir könnten diese Ansätze in einem zukünftigen Release konsolidieren. Wir speichern auch String-basierte GUIDs für Fälle, in denen die Reihenfolge sonst schwer aufzulösen ist (z. B. zwei Komponenten, die sich gegenseitig referenzieren), die wir in Zukunft möglicherweise entfernen werden.
Hinweis: Das Speichern nur des Komponententypnamens bedeutet, dass die Typnamen derzeit pro Projekt eindeutig sein müssen. Wir planen, in einem zukünftigen Release Paketnamen einzuschließen, um diese Einschränkung auf eindeutige Komponententypnamen pro Paket anstatt global zu lockern.
Hinweis: Derzeit gibt es keine Versionsinformationen in der Erweiterung (zu welchem npm Paket gehört eine Komponente, gegen welche Version dieses Pakets wurde sie exportiert). Wir planen, Versionsinformationen in einem zukünftigen Release aufzunehmen.
Hinweis: Derzeit befinden sich alle Komponenten im
builtin_components
Array. Wir könnten dies in einem zukünftigen Release incomponents
umbenennen.
Dies ist eine Root-Erweiterung, die Ambient-Lighting-Eigenschaften pro glTF-Datei definiert.
Hinweis: Diese Erweiterung muss möglicherweise pro Szene anstatt pro Datei definiert werden.
Dies ist eine Root-Erweiterung, die eine Reihe von Lightmaps für die glTF-Datei definiert.
Hinweis: Derzeit enthält diese Erweiterung auch Referenzen auf Umgebungstexturen. Wir planen, dies in einem zukünftigen Release zu ändern.
Lightmap
0
Environment Map
1
Reflection Map
2
Hinweis: Wir könnten dies in einem zukünftigen Release ändern und Lightmap-bezogene Daten in einen
NEEDLE_lightmap
-Erweiterungseintrag pro Knoten verschieben.
Komponenten in NEEDLE_components
können Daten über JSON Pointer referenzieren. Die Daten in NEEDLE_persistent_assets
werden oft mehrfach von verschiedenen Komponenten referenziert und sind daher separat in einer Root-Erweiterung gespeichert. Sie sind per Design immer von etwas anderem referenziert (oder haben Referenzen innerhalb sich selbst) und speichern daher keinerlei Typinformationen: Es handelt sich einfach um JSON Daten und die Komponenten, die sie referenzieren, müssen derzeit wissen, was sie erwarten.
Beispiele für hier gespeicherte Assets/Daten sind:
AnimatorControllers, ihre Layers und States
PlayableAssets (Timelines), ihre Tracks und eingebetteten Clips
SignalAssets
...
Daten in persistent_assets
können andere persistent_assets
über JSON Pointer referenzieren, können aber per Design keine NEEDLE_components
referenzieren. Dies ähnelt der Trennung zwischen "Scene data" und "AssetDatabase content" in Unity.
Hinweis: Wir könnten in Zukunft weitere Typ- und Versionsinformationen aufnehmen.
Hinweis: Derzeit sind Vertex- und Fragment-Shader immer als URI eingebettet; wir planen, diese Daten in Zukunft in vernünftigere bufferViews zu verschieben.
Hinweis: Es gibt hier einige redundante Eigenschaften, die wir bereinigen wollen.
🏗️ In Arbeit
🏗️ In Arbeit
Während Unitys Kompilierungsprozess von C# zu IL zu C++ (über IL2CPP) zu WASM (über emscripten) ausgeklügelt ist, ist er auch relativ langsam. Selbst ein einfaches Projekt nach WASM zu bauen, dauert viele Minuten, und dieser Prozess wiederholt sich im Grunde bei jeder Codeänderung. Ein Teil davon kann durch cleveres Caching vermieden werden und indem sichergestellt wird, dass Dev-Builds nicht so viel Code entfernen, aber es bleibt trotzdem langsam.
Wir haben einen Prototyp für eine WASM-Übersetzung, aber dieser ist bei weitem nicht vollständig und die Iterationsgeschwindigkeit bleibt langsam, daher verfolgen wir diesen Weg derzeit nicht aktiv.
Beim Betrachten moderner Web-Workflows stellten wir fest, dass die Code-Reload-Zeiten während der Entwicklung vernachlässigbar sind, meist im Sub-Sekunden-Bereich. Dies tauscht natürlich etwas Performance (Interpretation von JavaScript on-the-fly anstatt Compiler-Optimierung zur Build-Zeit) gegen Flexibilität ein, aber Browser sind sehr gut darin geworden, das Maximum aus JavaScript herauszuholen.
Wir glauben, dass es für Iterations- und straffe Test-Workflows vorteilhaft ist, so schnell und so oft wie möglich auf dem Gerät und auf der Zielplattform (in diesem Fall dem Browser) testen zu können – weshalb wir den gesamten Play Mode von Unity überspringen und effektiv immer im Browser laufen.
Hinweis: Ein wirklich schöner Nebeneffekt ist die Vermeidung des gesamten langsamen "Domain Reload"-Schritts, der normalerweise 15-60 Sekunden kostet, jedes Mal, wenn Sie den Play Mode betreten. Sie sind einfach "live" im Browser, sobald Sie auf Play drücken. Seite automatisch mit KI übersetzt
Weitere Erweiterungen und benutzerdefinierte Erweiterungen können über die Export-Callbacks von UnityGLTF (noch nicht dokumentiert) und die von three.js hinzugefügt werden.
Für die Produktion komprimieren wir glTF Assets mit . Texturen verwenden je nach Texturtyp entweder etc1s
, uastc
, webp
oder keine Komprimierung. Meshes verwenden standardmäßig draco
, können aber so konfiguriert werden, dass sie meshtopt
verwenden (pro glTF-Datei). Benutzerdefinierte Erweiterungen werden in einer undurchsichtigen Weise durchgereicht.
Weitere Informationen finden Sie auf der Seite
Diese Erweiterung enthält Komponenten Daten pro Knoten. Die Komponentennamen werden sowohl auf der JavaScript- als auch auf der C#-Seite Typnamen zugeordnet.
Mehrere Komponenten mit demselben Namen können demselben Knoten hinzugefügt werden.
Daten in NEEDLE_components
können über die derzeit noch nicht ratifizierte Erweiterung animiert werden.
Diese Erweiterung enthält zusätzliche Daten pro Knoten, die sich auf Zustand, Layers und Tags beziehen. Layers werden sowohl für das Rendering als auch für die Physik verwendet, ähnlich wie sie von und behandelt werden.
Hinweis: Möglicherweise müssen wir besser erklären, warum dies kein weiterer Eintrag in ist.
Wie Lightmaps angewendet werden, ist im MeshRenderer
Component innerhalb der Erweiterung pro Knoten definiert:
Diese Erweiterung baut auf der archivierten Erweiterung auf und erweitert sie an einigen entscheidenden Stellen. Während die ursprüngliche Erweiterung für WebGL 1.0 spezifiziert wurde, verwenden wir sie hier mit WebGL 2.0 und haben eine Reihe von Uniform-Typen hinzugefügt.