Links siehst du die "üblichen Einblendungen" des Steuerkreuz.
Und die UE5 setzt auf "
REYES: Render Everything Your Eye Sees".
Es wird "nur" gerendert, was man auch sieht. Kleinere Dinge werden wohl nicht gerendert, wenn man nicht 5cm davor ist (Ist besser im Artikel erklärt).
""Wenn die GPU-Last zu hoch wird, regeln wir die Auflösung ein wenig nach unten und können es so anpassen. In der Demo nutzen wir sogar die dynamische Auflösung, auch wenn sie die meiste Zeit in 1440p rendert."" und "Zum Beispiel ist Hardware-unterstütztes Ray-Tracing in der Unreal Engine 5, aber es war noch nicht Teil der PS5 Demo. ".
Die UE5 soll auch auf der PS4 laufen.
Ich weiß nicht wie der englische Artikel ist aber der deutsche Artikel hat seeeeehr viele Fehler und Ungenaugkeiten. 8k Texturen für Videospiele.... lol, auf welchem Planeten lebt der Redakteur?! 8k Texutren haben bei Quixel die High-Detail Film Assets. Und die Texturenauflösung hat absolut nichts mit Nanite zu tun. Das ist ein ganz anderes Feature der Unreal Engine, nämlich Virtual Texturing. Das ist eine modernere Version von Mega Textures. Rage Fans dürfte das was sagen
Das ist sozusagen Nanite für Texturen.
Und REYES ist es nicht. REYES ist die Technik die sich Pixar in den 80ern für ihren internen Renderer Renderman überlegt haben. Da wurde auch alles unterteilt, bis es nur noch pixelgroß war. Dadurch konnte Renderman z.B. Displacement super effizient und schnell rendern, sowie ein paar andere Effekte. Hatte dann aber mit anderen Problemen zu kämpfen.
Nanite verfolgt nur einen ähnlichen Gedanken, den es auch schon öfter gab, der aber bis jetzt kaum in einem richtigen Projekt umgesetzt wurde. Denn im Grunde werden in modernen Spielen in etwa so viele Polygone gerendert wie es Pixel im Bild gibt, nur sind diese nicht gleichmäßig verteilt, sodass es an manchen Stellen zu viele und an Anderen zu wenig gibt. Der Gedanke ist diese Polygone so zu verteilen, dass es sich mit der Auflösung deckt. Dadurch hast du auch "automatisch" ein LoD-System. Je größer das Objekt im Bild, desto mehr Polygone hat es, je kleiner, desto weniger, weil der Detailgrad direkt von der größe des Objektes in Bild abhängt.
Deswegen ist die Qualität des Ursprung-Modells mit ihren 33Mio auch egal, weil diese eh nie dargestellt werden, außer man fliegt ganz nah dran und sieht dann nur einen Teil des Modells. Das komplizierte ist halt die dynamische Verteilung der Polygone in echtzeit.
Bin gespannt wie das funktioniert. Epic meinte dass es in der kommenden Woche mehr zur Technik gibt