Sunshine_XXL
Bekanntes Gesicht
- Mitglied seit
- 14.05.2005
- Beiträge
- 2.237
- Reaktionspunkte
- 0
Im Prinzip geht´s hier um PC-Games bzw. PC-Hardware, aber man kann das sicher auch auf Konsolen übertragen :
Ich spiele im Moment relativ häufig "Call of Duty 2" auf dem PC. Mein Grundsystem besteht aus einem Athlon XP 2800+ Prozessor und 1024MB Normalo-Speicher. Gestern hab´ ich mal meine Radeon X800Pro-Grafikkarte gegen eine alte Radeon 9700 non-Pro ausgetauscht.
Spiele ich nun im DirectX7-Modus, so kann ich in einer 1280x1024er Auflösung mit allen Details und zusätzlich noch 2fach Anti-Aliasing eine wunderbar spielbare Framerate von knapp 50 FPS mit der Radeon 9700 erreichen. Das Spiel sieht so sehr super aus.
Im Multiplayer-Part sind so mit der Radeon 9700 Frameraten von über 70FPS möglich ( 1280er Auflösung, alle Details / Texturen auf Maximum + 2fach AA )
Stelle ich nun im Menü auf DirectX9 um, so geht die Framerate gnadenlos unter die 10Fps-Marke. Dafür hab´ ich DirectX9-Effekte wie schimmernde Pfützen oder nass aussehende Dächer.
Aber ist das nicht irgendwie krass, dass ich auf Grund einiger Effekte gleich eine so unglaubliche Performance-Einbuße hinnehmen muss ?!?
Hinzu kommt, dass die Unterschiede zwischen der DirectX7 - und der DirectX9-Version zwar sichtbar, aber in meinen Augen total vernachlässigbar sind.
Über folgenden Link könnt ihr Euch ein paar Screenshots ansehen, die ich aus dem laufenden Spiel entnommen habe. Im Ordner "Hardware-Leistungs-Verhältnis" kann man ein und die selbe Szene in DirectX9 ( das ist der Screenshot mit den Schneeflocken ) und DirectX7 vergleichen - mit einer Differenz von ca. 40FPS !!!
Im anderen Ordner sind ausschließlich Screenshots aus dem Multiplayer-Part zu sehen ( DirectX7)
http://sunshine-xxl.magix.net/
Um den Bogen zu spannen :
Hier wird doch Hardware verbraten ohne Ende ... Effekte sind schön und gut. Wenn ich aber meine 100Euro Grafikkarte gegen eine 300Euro Grafikkarte nur wegen ein paar schimmernder Pfützen austauschen muss, dann ist das irgendwie nicht mehr lustig.
Fazit : Ich glaube nicht wirklich daran, dass die Hardware immer besser werden muss. Vielmehr sollte an einer ressourcen-schonenden Programmierung gearbeitet werden. Der Fall CoD2 zeigt´s deutlich : Will ich ein paar Effekte, so verliere ich bis zu 60 Bilder in der Sekunde ( ausgehend vom Multiplayer-Spitzenwert über 80FPS ).
Ich bin der Meinung, da stimmt das Hardware-Leistungs-Verhältnis einfach nicht mehr. Denn wenn das so weiter geht, dann muss man sich wegen jedem Effekt eine neue Grafikkarte kaufen ...
Denn wenn ich mich entscheiden müsste, was besser aussieht : CoD2 in einer 1280x1024er Auflösung mit allen Details und 2fachem AA, ohne DirectX9-Effekte aber dafür mit einer Framerate von 50FPS ( auf einer Radeon 9700 ) oder CoD2 in 1024x768er Auflösung, mit mittleren Details, ohne AA, DirectX9-Effekten und 30FPS ( auf meiner X800Pro ) - nun, dann könnte ich mich nicht mit gutem Gewissen für die X800Pro-Variante entscheiden.
Sunshine
Ich spiele im Moment relativ häufig "Call of Duty 2" auf dem PC. Mein Grundsystem besteht aus einem Athlon XP 2800+ Prozessor und 1024MB Normalo-Speicher. Gestern hab´ ich mal meine Radeon X800Pro-Grafikkarte gegen eine alte Radeon 9700 non-Pro ausgetauscht.
Spiele ich nun im DirectX7-Modus, so kann ich in einer 1280x1024er Auflösung mit allen Details und zusätzlich noch 2fach Anti-Aliasing eine wunderbar spielbare Framerate von knapp 50 FPS mit der Radeon 9700 erreichen. Das Spiel sieht so sehr super aus.
Im Multiplayer-Part sind so mit der Radeon 9700 Frameraten von über 70FPS möglich ( 1280er Auflösung, alle Details / Texturen auf Maximum + 2fach AA )
Stelle ich nun im Menü auf DirectX9 um, so geht die Framerate gnadenlos unter die 10Fps-Marke. Dafür hab´ ich DirectX9-Effekte wie schimmernde Pfützen oder nass aussehende Dächer.
Aber ist das nicht irgendwie krass, dass ich auf Grund einiger Effekte gleich eine so unglaubliche Performance-Einbuße hinnehmen muss ?!?
Hinzu kommt, dass die Unterschiede zwischen der DirectX7 - und der DirectX9-Version zwar sichtbar, aber in meinen Augen total vernachlässigbar sind.
Über folgenden Link könnt ihr Euch ein paar Screenshots ansehen, die ich aus dem laufenden Spiel entnommen habe. Im Ordner "Hardware-Leistungs-Verhältnis" kann man ein und die selbe Szene in DirectX9 ( das ist der Screenshot mit den Schneeflocken ) und DirectX7 vergleichen - mit einer Differenz von ca. 40FPS !!!
Im anderen Ordner sind ausschließlich Screenshots aus dem Multiplayer-Part zu sehen ( DirectX7)
http://sunshine-xxl.magix.net/
Um den Bogen zu spannen :
Hier wird doch Hardware verbraten ohne Ende ... Effekte sind schön und gut. Wenn ich aber meine 100Euro Grafikkarte gegen eine 300Euro Grafikkarte nur wegen ein paar schimmernder Pfützen austauschen muss, dann ist das irgendwie nicht mehr lustig.
Fazit : Ich glaube nicht wirklich daran, dass die Hardware immer besser werden muss. Vielmehr sollte an einer ressourcen-schonenden Programmierung gearbeitet werden. Der Fall CoD2 zeigt´s deutlich : Will ich ein paar Effekte, so verliere ich bis zu 60 Bilder in der Sekunde ( ausgehend vom Multiplayer-Spitzenwert über 80FPS ).
Ich bin der Meinung, da stimmt das Hardware-Leistungs-Verhältnis einfach nicht mehr. Denn wenn das so weiter geht, dann muss man sich wegen jedem Effekt eine neue Grafikkarte kaufen ...
Denn wenn ich mich entscheiden müsste, was besser aussieht : CoD2 in einer 1280x1024er Auflösung mit allen Details und 2fachem AA, ohne DirectX9-Effekte aber dafür mit einer Framerate von 50FPS ( auf einer Radeon 9700 ) oder CoD2 in 1024x768er Auflösung, mit mittleren Details, ohne AA, DirectX9-Effekten und 30FPS ( auf meiner X800Pro ) - nun, dann könnte ich mich nicht mit gutem Gewissen für die X800Pro-Variante entscheiden.
Sunshine