Raytracing-Performance auf RTX 2080 Ti: Leistungsverbrauch ist laut Remedy Entertainment hoch

Was heißt das denn jetzt für Highend Hardware ab UWQHD/4k/UHD ?
Ich lese immer nur 1080p. Läuft das jetzt in 4k/UWQHD genau so schnell, oder ist es so, wie ich aus den ersten Berichten vermute, dass man das bei Highend-Monitoren eh knicken kann ?
Raytracing skaliert im Prinzip linear mit der Auflösung. Wenn es bei 1080p also 9,2ms braucht, dann bist du bei 4k eben bei etwas weniger als 40ms (30FPS wären 33ms). Mit dem ganzen Rest machts dann grob über dem Daumen also 15FPS.
 
Aber die RTX 2080 Ti wurde doch bis jetzt immer als "echte" 4K Grafikkarte beworben... Full HD ist aber kein 4K Nvidia.
 
@PCGH
Ich würde gerne meine Gedanken zum Thema äußern, bin aber seelisch immer noch nicht über die sowohl sprachliche als auch physikalisch-elektrotechnische Ungeheuerlichkeit des "Leistungsverbrauchs" hinweg ... ;)
 
Die RT-Cores können fast völlig unabhängig vom Rest laufen. und wenn sie 10 ms brauchen - noch immer schnell genug für 60 FPS.
Auch sind 60 FPS bei 4K vom Raytracing her kein Problem.

Die gezeigte Test-Szene ist nicht mit 2 Rays pro Pixel befeuert worden - sonder 2 Rays pro Pixel und Shader - Reflexion, Schatten, Global-Illumination, und dann das DeNoising.

Also von dem her - selbst eine sehr naive Implementierung ist noch gut genug für 4K@30 FPS - wobei dann der Großteil der Strahlen einfach nur Sinnlos verschwendet werden.



(Die Karten sind trotzdem zu teuer)
 
ich denke das Video zeigt eine Benchmark reife Szene. Nicht so sehr an der Wirklichkeit orientiert, sondern um jede Karte in die Knie zu zwingen.
 
@PCGH
Ich würde gerne meine Gedanken zum Thema äußern, bin aber seelisch immer noch nicht über die sowohl sprachliche als auch physikalisch-elektrotechnische Ungeheuerlichkeit des "Leistungsverbrauchs" hinweg ... ;)

Natürlich wäre "elektrischer Leistungsbedarf" wohl korrekter, aber auch der Stromverbrauch, für den Verbrauch elektrischer Energie, hat sich eingebürgert, dann ist ein "Leistungsverbrauch" auch irgendwie tragbar. Solange noch ohne Probleme (was beim Strom für Elektrizität jeder Art nicht der Fall) erkennbar ist, was gemeint ist, würde ich da nicht so drauf rumreiten, ist schließlich keine Klausur (auch wenn der Fachmann generell genau darauf achten sollte welche Worte er selbst benutzt [hat schon vielen Einstellung versaut]).
 
Zuletzt bearbeitet:
Bei ca. 70 PPI.

(Werden da 4 Pixel zu einem Pixelklumpen ? )

Das Upscaling funktioniert glücklicherweise etwas besser, indem die Zwischenwerte berechnet werden. Das ist eine Wissenschaft für sich, die auch in der Vergangenheit große Fortschritte gemacht hat. Von daher ist es um Welten besser, als das, was man vor 15-20 Jahren so bekommen hat und was den Ruf des Upscaling nachhaltig ruiniert hat.

Ich werde nachher mal Testweise in verschiedenen Auflösungen zocken, da stelle ich dem Monitor mal bis 1280x720 auf die Probe
 
Es liegt natürlich auch immer im Auge des Betrachters.
Mag ja sein, dass Kantenglättung einiges bewirken kann.

Wie wir gehört haben, haben auch manche kein Problem damit, 30fps zu zocken.
Das liegt also auch jeweils am Einzelnen, wie man das sieht und was man mag.

Ich versuche da langsam toleranter und offener zu werden.
Auch wenn's für mich nix is. ;-)

Aber man darf ja nicht von sich auf Andere schließen.
 
4K hat AMD mit der FURY X auch schon beworben........alles eine Frage der Einstellung
zwinker4.gif
Jup...vor allem sehr niedrige Grafik-Einstellung. :D

Euch zwei ist aber schon klar das ihr euch gerade selbst ins Bein geschossen habt ?
Man kann ueber die Fury X sagen was man will aber gerade in 4k war dei Karte Sau stark und hat zum Teil die 980Ti uebertroffen obwohl die Ti sogar 6gb Vram hat !
Also bevor ich hier solchen Mist verzapfe , wuerd ich wenigstens mal auf denn PCGH Test gucken !
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/
 
Zuletzt bearbeitet:
Ich habe das jetzt in Elex überprüft und muß sagen, das Full HD auf 31,5" zwar etwas pixelig ist, aber das ist kein großes Problem, besondes wenn man nach 1-2 Minuten nichtmehr drauf achtet. Auch 1600x900 ist noch geeignet um ganz passabel damit zu spielen (damit sollte Raytracing auch auf einer RTX 2080 mit 60 FPS laufen. Bei 1280x720 wird es wirklich sehr pixelig, das trübt den Spielspaß auf einem so großen Monitor wirklich, man kann sich jedoch damit wohl einen Einduck von Raytracing verschaffen.

Mehr ist natürlich immer besser, die optimale Auflösung, für mich, in Elex, ist 2560x1440, da habe ich meine 60 FPS (statt 30 in 4K) und es sieht noch gut aus.

Euch zwei ist aber schon klar das ihr euch gerade selbst ins Bein geschossen habt ?
Man kann ueber die Fury X sagen was man will aber gerade in 4k war dei Karte Sau stark und hat zum Teil die 980Ti uebertroffen obwohl die Ti sogar 6gb Vram hat !
Also bevor ich hier solchen Mist verzapfe , wuerd ich wenigstens mal auf denn PCGH Test gucken !
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/

Womit wir auch schon bei dem eigentlichen Problem sind: der Karte fehlt es, im Verhältnis zu ihrer Geschwindigkeit, einfach an Speicher. Von daher muß man einige Einstellungen runterdrehen, damit der nicht VRAM überquillt. In den neueren Benchmarks merkt man das krass, konnte die Fury X am Anfang noch etwa ein Patt mit der GTX 980Ti (non OC) rausholen, so liegt sie in den neueren PCGH Tests über im Mittel über ein Drittel zurück. Hinzu kommt, das es von der GTX 980Ti noch OC Modelle gibt, teilweise mit über 40% mehr Leistung.

Von daher haben sie recht: bei der Fury X muß man durchaus die Einstellungen senken.
 
Ich habe das jetzt in Elex überprüft und muß sagen, das Full HD auf 31,5" zwar etwas pixelig ist, aber das ist kein großes Problem, besondes wenn man nach 1-2 Minuten nichtmehr drauf achtet.

Ich mach das ja mit manchen Grafikoptionen in UWQHD auch, dass ich was abschalte, oder runter regel, damit das so läuft, wie ich's haben will, halt eine Mischung aus schön und flüssig.

Also, was soll's ?
Hauptsache man hat Spaß und es gefällt einem. :daumen:
 
Euch zwei ist aber schon klar das ihr euch gerade selbst ins Bein geschossen habt ?
Man kann ueber die Fury X sagen was man will aber gerade in 4k war dei Karte Sau stark und hat zum Teil die 980Ti uebertroffen obwohl die Ti sogar 6gb Vram hat !
Also bevor ich hier solchen Mist verzapfe , wuerd ich wenigstens mal auf denn PCGH Test gucken !
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/2/

Deinen Rat kann ich Dir gerne zurückgeben :schief:
Wenn Du davon ausgehst, daß die GTX 980 Ti mit 1075 MHz läuft und irgend jemand eine solche Karte mit diesen Taktraten im Rechner hat.......selber Schuld.
Meine EVGA GTX 980 Ti Classified läuft mit den selben Taktraten wie die hier getestete Lightning.
http://www.pcgameshardware.de/Nvidi...Tests/Geforce-GTX-1080-Test-Review-1195464/2/
Bei den Taktraten ist aber noch nicht Schluß. Auf jeden veröffentlichenden Benchmark zur Stock GTX 980 Ti ...........Firestrike Ultra/Time Spy lege ich noch ~30% drauf :daumen:

Und wie gesagt, alles eine Frage der Einstellung. Es gibt ja genug, die mit der Fury X in 4K gespielt haben. Muß ja nicht max sein.
 
Zuletzt bearbeitet:
Deinen Rat kann ich Dir gerne zurückgeben :schief:
Wenn Du davon ausgehst, daß die GTX 980 Ti mit 1075 MHz läuft und irgend jemand eine solche Karte mit diesen Taktraten im Rechner hat.......selber Schuld.
Meine EVGA GTX 980 Ti Classified läuft mit den selben Taktraten wie die hier getestete Lightning.
http://www.pcgameshardware.de/Nvidi...Tests/Geforce-GTX-1080-Test-Review-1195464/2/
Bei den Taktraten ist aber noch nicht Schluß. Auf jeden veröffentlichenden Benchmark zur Stock GTX 980 Ti ...........Firestrike Ultra/Time Spy lege ich noch ~30% drauf :daumen:

Und wie gesagt, alles eine Frage der Einstellung. Es gibt ja genug, die mit der Fury X in 4K gespielt haben. Muß ja nicht max sein.

Die 980ti war noch ne schöne Overclocker Karte mit anständigem PT.
 
Welchem Praktikanten ist denn der Fehler untergekommen?
Es gibt keinen "Leistungsverbrauch"!
Es gibt eine Leistungsaufnahme, oder Stromverbrauch. Das andere ist ein Quatschwort... Wie Super-GAU, oder Quatschwort :D

Und der "Stromverbrauch" ist genauso ein Quatschwort, denn das richtige Wort lautet "Energieverbrauch". Die Karte hätte wenn dann einen Strombedarf und der liegt bei ca. 22A.

Wenn schon Klugscheißen, dann bitte auch richtig.
 
Ich habe kein Interresse an einen Grafikkarten-Strom-verbrauch zu denken, das war bisher immer das Beste bei den GTX , dass man hier nicht so schnell in das Powerlimit rutschte.
Aber auch das wurde den RTX genommen und es reicht nicht einmal für parallelen GPU/Speicher OC.
Und nochmal sage ich es, für soo viel Geld.
Ich finde, dass hat mit Enthusiastischer Hardware nichts mehr zu tun.
Karte reinstecken , PC einschalten und in Windows alle Regler auf 95% Anschlag oder AutoOCtool klicken. Langweilig!
Irgendwo müssen die Hersteller sich dazu etwas einfallen lassen. Hier könnten die Hersteller sich eine Menge Geld sparen in dem sie die Werte nur fixen. Der Gewinn von 60 MHz ist eh nur Blenderei und Show.. Alle Sensoren und entsprechende OC-Schutzfunktionen könnte man weglassen.
Wir würden 350,00€ sparen, besonders bei den teuren RTX2080 und Ti.:wall:
 
Zuletzt bearbeitet:
Zurück