|
|
| #2 [Kommentar ausblenden] |  |
Schade das die Charaktermodele nicht so im Game aussehen :P
Langsam entwickelt sich das Game wie MoH  Die Screens sind vom grafischen nicht gerade beeindruckend. Viel zu viel HDR, Nebeleffekt, schlechte Umgebungstexturen, kein Bumpmapping in der Umgebung, Wasser erinnert an einen mix an DX7 und DX8, Schatten könnten besser usw.
Hoffe das so nicht das fertige Game aussehen soll |
|
| 2.5.2007, 12:42 |
|
| #5 [Kommentar ausblenden] |  |
@phg
Zu einer Konsole gehört mehr als nur der Grafikchip siehe PS2
Der RSX beherscht 3.0 vollständigt und nicht nur teilweise. Der C-1 oder Xenon lehnt sich jedoch schon einwenig am Shader Modell 4.0 an. Das HDR und AA nicht gleichzeitig unetrstützt werden hat nichts mit schärferen Texturen oder sonst was zu tun und ist wohl das kleinste Übel.
Deine aufgeführten Bsp. sind meiner Ansicht kaum aussagekräftig den es Games der ersten Gen. sind und man erinnere sich an die Situation mit den endgültigen Spezifikation der PS3. Die für viele Entwickler zu spät kamem um mit der PS3 vernüftige Ergebnisse zu erziehlen.
Aber das nVidia beim RSX großen Müll gebaut hat steht außer Frage, schade das es bei der PS immer an dem Grafikchip hakt Kommentar zuletzt editiert von LeoHart am 02.05.07 um 14:32 Uhr. |
|
| 2.5.2007, 14:29 |
|
| #9 [Kommentar ausblenden] |  |
| Zitat: | Original von LeoHart
Zu einer Konsole gehört mehr als nur der Grafikchip siehe PS2 |
Das ist mir klar - ich zweifle auch gar nicht am CELL, durch den das Spiel Lair erst ermöglicht werden kann...
Aber trotzdem kann ein Prozessor keine Shader-Berechnungen durchführen (genau dort wo es dem RSX-Chip fehlt)
| Zitat: | Original von LeoHart
Der RSX beherscht 3.0 vollständigt und nicht nur teilweise. Der C-1 oder Xenon lehnt sich jedoch schon einwenig am Shader Modell 4.0 an. |
Ja, das wollte ich eigentlich aussagen, hab's wohl etwas undeutlich formuliert!
Ich stelle einfach fest, dass Multi-Konsolen-Spiele oft immer schlechter sind auf der PS3, was mich doch etwas enttäuscht, dass die EIN JAHR NEUERE Konsole nicht mehr Performance hat!
Tja, wir werden sehen wie sich das in Zukunft weiterentwickelt, doch schlussendlich muss der Spielspass stimmen und wenn zukünftige Games zumindest nicht mehr ruckeln ist mir die minimal schlechtere Grafik egal! |
|
| 2.5.2007, 17:41 |
|
| #10 [Kommentar ausblenden] |  |
Oh man, hier wird schon wieder über Grafik diskutiert, wobei man nur Scans aus einer Zeitschrift sieht. Ich persönlich freue mich auf das Spiel und bin recht zuversichtlich, dass es auch vom grafischen Niveau dieser Generation über dem Durchschnitt liegen wird. Man muss nur an die PS2 Spiele der Entwickler denken...
Und die Grafikprozessoren der PS3/360 geben sich nicht viel, der einzige wirkliche Vorteil der 360 ist der EDRAM, denn das Unified Shader System der 360 ist soweit ich weiss nur auf folgenden Pixel-/Vertexshader aufteilungen möglich 48/0, 16/32, 0/48, 32/16. Wenn man sich jetzt die Spezifikationen der beiden GPUs anschaut sieht man auch, dass die gesamtleistung der Shadereinheiten des RXS keinesfalls schlechter sind und der RSX keinesfalls eine schrott GPU ist, wie es von manchen behauptet wird...
Selbstverständlich kein eine CPU Shaderberechnungen durchführen und zwar solche, von denen jede GPU nur träumen kann.
|
|
| 2.5.2007, 17:58 |
|
| #12 [Kommentar ausblenden] |  |
Ich finde es sieht klasse aus. Zum Thema Shader: Zum einen kann eine CPU ohne Probleme Shaderberechnungen durchführen (warum auch nicht?) und zum anderen ist RSX alles andere als Mist, zudem kann nVidia am wenigsten dafür, dass "nur" eine GeForce 7 Series GPU in der PS3 ihren Dienst tut... das hat Sony "verbockt". Dennoch ist klar, die Stärke der PS3 liegt bei Cell, auch wenn ich nach wie vor der Überzeugung bin, dass RSX bisher kaum sinnvoll ausgenutzt wurde, wenn ich FarCry auf meiner GeForce 6800 ansehe, da stinkt bsp. ein Resistance noch dagegen ab und RSX ist doppelt so leistungsfähig... was an den Bildern allerdings jetzt grafisch nichts besonderes sein soll, versteh ich nicht, die sehen prima aus und nicht nur "gut". Kommentar zuletzt editiert von Pry am 02.05.07 um 18:45 Uhr. |
|
| 2.5.2007, 18:44 |
|
| #13 [Kommentar ausblenden] |  |
Verstehe ich nicht was kann Sony dafür das nVidia anstatt den G71 etwas aufzupeppen einfach übernimmt und das Speicherinterface auf 128Bit setzt ?
Das die Bilder prima aussehen ist nicht dein ernst ? Wenn ich mich an den E³ Trailer einnere dann sind die Scans ein richtiger Witz dagegen . Gegenfrage was an den Bilder sieht bitte gut aus ?
Naja die 10MB EDRAM, ob das ausschlaggebend ist sei mal dahingestellt. Kommentar zuletzt editiert von LeoHart am 02.05.07 um 19:03 Uhr. |
|
| 2.5.2007, 19:02 |
|
| #14 [Kommentar ausblenden] |  |
| Zitat: | Original von LeoHart
Verstehe ich nicht was kann Sony dafür das nVidia anstatt den G71 etwas aufzupeppen einfach übernimmt und das Speicherinterface auf 128Bit setzt ?
Das die Bilder prima aussehen ist nicht dein ernst ? Wenn ich mich an den E³ Trailer einnere dann sind die Scans ein richtiger Witz dagegen . Gegenfrage was an den Bilder sieht bitte gut aus ?
Naja die 10MB EDRAM, ob das ausschlaggebend ist sei mal dahingestellt. |
Ganz einfach: Sony hat die PS3 konzipiert... sie wollten nen 128 Bit Speicherbus im RSX... oder glaubst du, nVidia hätte keinen RSX mit 256er Bus liefern können, denn sie schon lange in der GeForce 7800 GTX oder 7900 GTX im Einsatz haben...?
Zumal RSX durchaus aufgepeppt ist... die Anbindung RSX an Cell ist schneller als jede Anbindung von CPU <-> GPU in den modernsten PCs.
Was an den Bildern prima ist? Die Effekte, die Texturen, die Beleuchtung, das Wasser... und absolut nichts, was im E3-Trailer irgendwie besser aussah.
Zu den 10 MB eDRAM der X360: Ausschlaggebend ist noch falsch ausgedrückt... sie sind der Geniestreich schlechthin  Kommentar zuletzt editiert von Pry am 02.05.07 um 20:08 Uhr. |
|
| 2.5.2007, 20:07 |
|
| #15 [Kommentar ausblenden] |  |
Ohne den besagten eDRAM hätte die 360 arge Bandbreitenprobleme, denn sie hat nur ca. 20GB/s an Bandbreite welche sie sich mit der CPU und GPU teilen muss. Der eDRAM entlastet die 360 enorm und erlaubt es auch die für AA benötigte Leistung zu reduzieren. Der eDRAM an sich ist nichts Neues, den hatte AFAIK schon die PS2, nur ist sowas in einem oft Bandbreitenlimitiertem System wie einer Konsole eine große Hilfe. Kommentar zuletzt editiert von Tyrus am 02.05.07 um 20:43 Uhr. |
|
| 2.5.2007, 20:42 |
|
| #16 [Kommentar ausblenden] |  |
| Zitat: | Original von Pry
Ganz einfach: Sony hat die PS3 konzipiert... sie wollten nen 128 Bit Speicherbus im RSX... oder glaubst du, nVidia hätte keinen RSX mit 256er Bus liefern können, denn sie schon lange in der GeForce 7800 GTX oder 7900 GTX im Einsatz haben...?
Zumal RSX durchaus aufgepeppt ist... die Anbindung RSX an Cell ist schneller als jede Anbindung von CPU <-> GPU in den modernsten PCs.
Was an den Bildern prima ist? Die Effekte, die Texturen, die Beleuchtung, das Wasser... und absolut nichts, was im E3-Trailer irgendwie besser aussah.
|
Ok das ist ein Argument  Aber trotzdem war die Entwicklung des Grafkchips Aufgabe von nVidia. Ich weiß nicht wie sowas aussieht, glaub aber kaum das Sony nVidia vorgeschrieben hat was der Chips beherschen soll. Sondern Sony wollte halt ein leitsungsstarken Grafikchip und nVidia dachte ok man nehme den G71 passt ihn einwenig an und fertig. Also nVidia ist da kein Unschuldslamm.
Texturen: Du meinst allen ernstes das die unscharfen braunen schlamm Texturen (was gerostetes Metal darstellen soll) an den Wänden gut aussehen ?
Wasser: Schon mal das Wasser von BioShock gesehen --> Wasser
Beleuchtung: Dieses übertriebene HDR Effekt der einfach alles überscheint und man sich vorkommt als hätte man zu viel Cannabis konsumiert ist toll ?
Effekte: Welche ?
Nochmal der Trailer von der E³ --> Trailer irgendwie glaub ich manche scheinen ihn schon vergessen zu haben
Kommentar zuletzt editiert von LeoHart am 02.05.07 um 21:29 Uhr. |
|
| 2.5.2007, 21:28 |
|
| #17 [Kommentar ausblenden] |  |
Die Entwicklung des Grafikchips war Aufgabe von nVidia... die sie mit der einzig möglichen Lösung gelöst haben. Das war kein Auftragschip wie bei der X360, dass war Sonys Notlösung, nachdem sie gemerkt hatten, dass ein zweiter Cell als GPU nicht funktioniert... nVidia hatte gar keine Zeit, einen wirklich individuellen Chip für PS3 zu entwerfen. In der PS4, ja, da werden wir einen speziellen nVidia-Chip sehen, in der PS3 ist es eine PC GPU auf PS3-Bedürfnisse zugeschnitten... auf den Termin Frühjahr 2006. Da war RSX noch hochaktuell, dass Sony die PS3 aufgrund anderer Probleme verschieben mußte, war nicht nVidias Schuld. Sie haben Sony ihre bestmögliche Technologie zu diesem Zeitpunkt angeboten... den G71 Chip. nVidia kann man also wirklich keine Vorwürfe machen, dieses Gerede, man würde schon jahrelang an der PS3-GPU arbeiten, waren schlicht und einfach erfunden.
Zu den Bildern: Hmm, also ich sehe da Scans, wo ich bei weitem nichts sehe, was schlecht als der E3-Trailer sein soll? Und ich sehe noch viel weniger etwas, was auf unscharfe Texturen hinweisen soll? Und das Bioshock-Wasser... hmmm... ich gebe zu, ich kann die Wasserqualität eines Entwickler-Videos und das eines unscharfen Scans nicht wirklich vergleichen, aber selbst was ich da sehe, läßt mich nicht auf etwas schlechteres schließen...
Und das HDR auf dem linken Bild... sieht etwas arg aus, stimmt, aber ich bezweifle, dass das immer so aussieht, kommt auch drauf an, in welchem Moment ein Bild gemacht wird. Und dei Effekte... schau dir mal die Licht- und Schattengebungen an, dass sieht genial aus! |
|
| 2.5.2007, 21:59 |
|
| #18 [Kommentar ausblenden] |  |
Hm das ist mir wircklich nicht bekannt  scheint als hätte ich was verpasst in der Entwicklung der PS3 :P Dann revidieren ich meine Aussage ^^
Was für eine beknackte Idee ein CPU als GPU zu verwenden.
Zu den Bilder, warten wir mal bis zur E³07 ab. Und hoffentlich irre ich mich  denn noch ein grafisch vermurksten Titel ertrag ich nicht |
|
| 3.5.2007, 12:48 |
|
| #19 [Kommentar ausblenden] |  |
Nunja, es war ein zweiter Cell eingeplant, der die Hälfte der SPUs durch Rasterizer ersetzt gekriegt hat. Also wären die SPUs als Shader eingesetzt gewesen, während ansonsten recht normale Renderpipelines eingesetzt worden wären. Aber das Ganze hat sich dann halt als doch nicht so schnell erwiesen, wie erhofft - die GPU-Hersteller feilen nicht umsonst seit Jahrzehnten an ihren Chips...
Erhalten geblieben ist dank der direkten Anbindung die Möglichkeit, SPUs für besonders komplexe Berechnungen in die Grafik einzubeziehen, die mit Shadern nicht mehr realisierbar sind. RSX ist nicht mehr das Beste vom Besten, aber dennoch alles andere als Altmetall. Und die Erfahrung zeigt doch, dass man mit einer festen Plattform und Optimierungen irrisnnig viel wettmachen kann - siehe z.B. späte XBox-Spiele, das hätte man einer Geforce 3,5 nie zugetraut.
|
|
| 3.5.2007, 16:26 |
|
Du musst eingeloggt sein um News-Kommentare schreiben zu können. Hier einloggen.
Neu bei onpsx? Hier registrieren.
|