RSX (Reality Synthesizer)

PSN-Name: Focal-Boy
Spielt gerade: Lego Marvel, bald GTA5 auf PS4
#2
Schwer zu sagen was der RSX nun wirklich kann.

Ich denke er kann mehr als wir alle glauben...

Gut fand ich diese Statements.

April: G80 cards finished, ready for production
May (after E³ '06): dev studios receiving first final PS3 SDKs
und folgendes.

In this case this would really fit into the philosophy of the PS3 with its sophisticated cutting edge hardware:

- revolutionary CPU (Cell)
- next-gen optical drive (BlueRay)
- next-gen high-performance FlexIO processor bus (7x faster compared to PCI Express interface if i got it right)
- next-gen RAM (XDR)
- next-gen AV-output (HDMI 1.3 with 48bit support etc.)
 
#4
Beim Lesen viel es mir schwer nicht euphorisch zu werden! Seine Argumentation ist gut und es wäre wirklich ein logischer Schritt, dem Cell mit einer G80 GPU den passenden Partner an die Hand zu geben.

Auf der anderen Seite ist die Videospielindustrie längst kein Ort mehr für Träumereien und Phantasie......

Vielleicht sind wir nach der GC schon schlauer!
 
PSN-Name: Focal-Boy
Spielt gerade: Lego Marvel, bald GTA5 auf PS4
#5
Es wäre echt ein logischer Schritt nachdem man das Ganze gelesen hat.

Dagegen spricht die aktuelle Grafik der meisten Spiele...die sehen zwar nicht schlecht, aber trotzdem nicht besser als X360 Spiele aus.

Falls Sony und NVidia aber wirklich einen G80 einbauen und der dann auch mächtig Dampf hat, wäre spätestens das DER Grund um wirklich von Next Gen zu sprechen.

Naja, hoffen wird man ja noch dürfen. :D
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#6
Original von Pry
Ich denke trotzdem, RSX ist eine modifzierte G71 GPU... nicht mehr und nicht weniger...
Wahrscheinlich richtig, und das hier:


is auch lediglich ein modifizierter Honda Civic... nicht mehr und nicht weniger...


Die XBox-GPU war auch ein Zwischending zwischen der damals verfügbaren PC-GPU (GeForce 3) und der in Arbeit befindlichen Generation (GeForce 4 TI). Es kann gut sein, dass RSX einige Eigenschaften von G80 bereits besitzt. Aber ich habe desöfteren im Beyond3D-Forum (dort schreiben u.a. gelegentlich die Leute von Ninja Theory (Heavenly Sword)) gelesen, dass RSX unheimlich mächtige und flotte Shader besitzt. Eigentlich könnte man meinen, dass da der Vorteil bei der X360 liegt, wegen der Unified Shader.
 
PSN-Name: Elbareon
#8
Beispiel ist gut, ich glaub´s aber nicht mehr. RSX ist schon lange fertig und hätte man Geld für viel GPU-Power, hätte man schon nen 256-Bit Bus machen können oder eine andere Lösung à la eDRAM um es zu entlasten. Warum nutzt Heavenly Sword wohl ein Software HDR, wenn RSX doch 128-Bit HDR hardwareseitig beherrscht? Genau, weil die Bandbreite nicht reicht.

RSX ist GeForce 7900 GTX mit 128-Bit Bus zum VRAM anstelle 256-Bit Bus, auf 550 MHz getaktet, schnellere Anbindung zur CPU (also Cell) als die GeForce im PC und fertig. Natürlich besitzt RSX mächtige und flotte Shader... wie die ganze GeForce 7 Series ja auch.

Tut mir ja leid, ich hätte RSX auch lieber anders und wäre der Letzte, der G80 Technologie in ihm ablehnen würde, aber ich denke einfach, dass es nicht so ist.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#9
Die Einschränkungen, wie bei welcher Farbtiefe und Farbkodierung HDR und Antialiasing möglich sind und wo nicht sind doch eine ganze Stufe komplexer, als auch ich früher angenommen habe. Seitdem ich im Beyond3D-Forum lese, habe ich eine Menge mehr erahnen können, so richtig verstehen kann ich die Materie aber noch nicht. Das Problem ist häufig, dass die Entwickler unter NDA stehen und sehr vorsichtig mit ihren Äußerungen sein müssen, deswegen erklären sie nicht alles haarklein.

Aber es ist nicht so simpel, dass man sagen könnte, Xenos (bzw. 1900er ATI-Karten) kann gleichzeitig HDR und AA, währen RSX (bzw. 7000er nVidia-Karten) das nicht kann. Wenn ich das richtig mitbekommen habe, kann Xenos AA auf FP10-Rendertargets anwenden (10 Bit Floating Point, gibt es bei nVidia gar nicht), aber auf FP16 (das ist das, was allgemein als HDR-Technik bekannt ist) schon wieder nicht. FP10 bringt aber nicht so eine tolle Qualität, da ist laut Ninja Theory die Farbkodierung mit NAO32 präziser. Und was HDR angeht, ist alles nur eine Annäherung, FP16 ist nicht "echt" und NAO32 ist nicht "falsch" oder "Software". Sicherlich arbeitet NAO32 mit Tricks, und dadurch ist die Technologie wohl nicht für jedes Spiel geeignet, aber nichtsdestotrotz beherrscht die PS3 auf diese Weise für dieses Spiel 4xAA und "echtes" HDR.

Wenn die Verhältnisse so simpel wären mit HDR ja oder nein, warum hat denn dann nicht einmal jedes X360-Spiel AA? Und Bottlenecks besitzen beide Systeme, glaub ja nicht dass man auf der X360 keinerlei Bandbreitenprobleme hat, die liegen aber bei jedem System ein wenig woanders.
 
PSN-Name: Elbareon
#10
Nun, Probleme gibt´s überall, aber durch den eDRAM hat man dort einen enormen Vorteil.

Wobei das aber ja egal ist, mir geht es nur darum, dass RSX eben keine "Über-GPU" ist, sondern einfach ein G71-Pendant, angepasst an Cell... da ist keine G80 Technolgie drin und auch sonst nichts plötzlich absolut "überraschendes". Das hätte Sony IMHO dann schon gesagt.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#13
Ich höre den Begriff auch zum ersten mal. Das Beyond3D-Forum ist aber durchaus eine relativ hochwertige Diskussionsplattform. Natürlich gibt es dort auch viel sinnentleertes Geschwafel, aber im Gegensatz zu den meisten anderen Foren immerhin einige Leute mit wirklich einer Menge Ahnung. Wie gesagt, etliche echte Entwickler (z.B. Ninja Theroy) tummeln sich dort gelegentlich, auch wenn sie meist durch NDAs ausgebremst werden...

So wie ich das aus dem Thread herauslese, sind Geometry Shaders eine neue Klasse Shader, die mit DirectX 10 Einzug halten wird. Aber alles andere ist zu schwammig.
 
PSN-Name: Elbareon
#14
Auch wenn es hämisch klingt, aber das letzte Geheimniss von RSX war wohl der Takt... anstelle den proklamierten 550 MHz nun 500 MHz... da geht noch was... :P

Na ja, Spaß beiseite, hoffe nach wie vor dass das net stimmt. Den ein Unterschied zwischen 550 MHz und 500 MHz ist definitiv da...
 
PSN-Name: Elbareon
#15
Hier ein sehr interessanter Thread zu RSX:

http://www.neogaf.com/forum/showthread.php?t=116735&page=15

Muß in auch erstmal "voll" durcharbeiten, bisher ist mir dieser Satz interessant aufgefallen:

Aside from getting it to work with Cell (FlexIO etc) and additional caches on RSX (confirmed by the same person confirming the clock) it's possible there could be other customisations.
Mal sehen, was letzten Ende bei rauskommt...
 
#16
http://www.beyond3d.com/forum/showth...t=33973&page=2

Note: Not sure how accurate this information is. Just being the messenger.

Latest Change in PS3 Graphics. RSX was downgraded.

Before getting to the main question, we’re reporting the latest change concerning SP3 graphics.

It has been widely reported that the PS3 graphics chip is something like a Nvidia GeForce 7800 GTX based chip, but according to the collected data, as development has been advances at every studio, one part of the PS3 developers has begun to complain about the lack of fill rate performance.

At first, according the development studios which created graphics prototype {i.e. prototype engines} intended for PS3 titles on a PC base, it is extremely troublesome that the performance goes down (literal: does not come forth) when carrying [their software] over to a real PS3. In the case of each studio, it appears that they proceed with a detuning schedule {Comment: this is typical for the Japanese language: they create their own Engrish words. Detuning means making worse, to deteriorate; BTW this was a real **** to find} of the technical specifications, in which the rendering resolution is lowered and shaders are removed, and that they carry it over to a real PS3 [afterwards].

So what seems to have happened to the GPU with the same base as the GeForce7800 … Mainly three reasons are given.

Concerning PS3’s RSX, although the design is said to based on the GeForce 7800 GTX, the video memory is similar (literal: suitable) to the lower-rank model 7600 due to the 128bit bus connection and the video memory bandwith is narrower (in comparison to the 7800 line). That is considered the first reason.

Secondly, the RSX specs which have been presented to the public in 2005 have been downgraded. In 2005 it was announced that PS3’s RSX had a core clock of 550 MHz and video memory clock of 700 Mhz, but at E3 2006 it suddenly changed and behind closed doors {the literal version here sounds like ass. Thus slightly adapted}it was said that in the final model on sale the core clock would be reduced to 500 Mhz and the video memory to 650 Mhz.

Thirdly, the ROP unit is in fact only half that of the GeForce 7800GTX.

RSX has 24 pixel shader units just like the GeForce7800 line, but the ROP Unit (Rasterize Operation Unit, also called rendering back-end) which writes(literal: fills) the output from there practically (alternative: virtually) in the video memory as data (basically, drawing the pixels) is different: Instead of the 16 units of the GeForce 7800 line, RSX has only half of it, 8 units. That is exactly similar and corresponds to the lower-rank model GeForce 7600.
Nun ja, also was soll man sagen, die ÜBER GPU ist es am Ende nicht geworden, aber KENNER wissen mehr.
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#17
Da steht überhaupt nichts neues drin, außer vielleicht dass angeblich konkrete Beschwerden über mangelde GPU-Performance von einigen Entwicklern vorliegen.

Zu den drei Begründungspunkten:

1. Ja, der GDDR3-Grafikspeicher hat nur 128-Bit-Anbindung, dafür gibt es zwei Speicherbusse (über CELL zum XDR). Es mag sein, dass einige Entwickler damit (noch?) nicht umzugehen wissen, aber die Möglichkeit, erweiterte Bandbreite zu nutzen, ist definitiv da.

2. Der Taktratendowngrade ist sehr seltsam. Einerseits klingt es plausibel, wenn man die CPU-Kernfrequenz um 50 MHz senkt, wenn man dadurch eine Stufe bei der Kernspannung runtergehen kann (die fließt quadratisch in den Verbrauch und damit Hitze und Lärm ein). Aber warum sollte man den Grafikspeicher auf 650 MHz runtertakten, wenn seit bald einem Jahr die X360 Speicher vom selben Typ mit 700 MHz betreibt? Das klingt mir einfach nach einem Missverständnis.

3. Die ROPs, ja, das habe ich schon öfter gehört. Aber welchen Einfluss auf die Gesamtperformance das hat, kann ich nicht einschätzen.

Fragen: wieso kommen mehr und mehr Titel mit 1080p, wenn die Füllrate so niedrig ist, die davon massiv betroffen ist? Wieso müssen Shader herausgenommen werden, wenn z.B. die Heavenly Sword Entwickler von einem Shader-Monster sprechen? Wieso spricht Faktor 5 davon, dass das finale Devkit die Erwartungen übertroffen hat, sind die aufgekauft? Es gibt solche und solche Stimmen...
 
PSN-Name: Elbareon
#18
Na ja... was RSX genau ist/kann wird Sony/nVidia wohl (leider) nicht mehr bekannt geben... aber: Eine GPU, die Motorstorm, Lair, Heavenly Sword, Warhawk oder Afrika so auf den Schirm zaubern kann, hat definitiv Dampf unter der Haube! :rocks:
 

Planet

50% water, 50% air, the glass is always full!
PSN-Name: PlanetJumble
#19
Hier gibt es mal wieder einen relativ interessanten Thread über RSX und teilweise auch CELL auf Beyond3D. Es ist zwar etwas kontrovers, aber es deutet darauf hin, dass RSX mit ein paar kleineren Erweiterungen an seine Zielumgebung (PS3) angepasst wurde, um die Schwachstellen zu kompensieren. Angeblich sind ein paar kleine Caches vergrößert worden und die Shader haben eine Handvoll neue Instruktionen gekriegt, u.a. zum Texturladen.

Interessant fand ich auch die Idee, dass man Texturen als JPEG lädt, von einer SPU in ein DXT-komprimiertes Format (kann die GPU direkt verstehen, komprimiert schwächer (= braucht mehr Platz) als JPEG) konvertieren lässt und dann mit RSX über FlexIO aus dem XDR-Speicher lädt. Solche und ähnliche Tricks werden irgendwann den Unterschied zwischen ersten und zweiter/dritter/vierter Generation ausmachen. Da ist durchaus noch Luft! :)
 
Top