Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?

Darum geht es nicht, die einseitige Darstellung gefällt mir nur nicht. Im Forum wird NV an allen Ecken, in fast jedem Thread, schlecht geredet.
- RT braucht keiner, wird sich nicht durchsetzen und ist sowieso nur ein NV Marketing Gag
- DLSS führt per se zu vermatschten Texturen und ist generell schlecht
- Ampere ist zu teuer -> NV treibt die Preise hoch
- Ampere verbraucht zu viel Strom
- Ampere hat zu wenig VRAM
- NV verkauft alle Karten direkt ab Werk an Miner
- Sampler Feedback Streaming, Mesh Shading und DirectStorage bringen nichts

Um ein paar Beispiele zu nennen. Dabei werden jegliche Argumente dagegen sofort als NV Fanboyism abgetan, egal wie gut sie belegt sind (mit Quelle!). Dabei bringt die andere Seiten selten mal echte Argumente mit Quellen.
Da musst du dir teilweise aber an die eigene Nase fassen. Einen Teil der Aussagen da hab ich tatsächlich schon gehört, allerdings noch zu DLSS 1.0 Spielen.
Vor zwei Tagen (meine ich) hast du bezüglich RT auf chattstar reagiert, obwohl jeder weiß dass er damit nur die Diskussion anzuheizen versucht. Er trollt auf seine Art und Weise gern mal, kann aber auch ernsthaft. Das ist wie mit seahawk. Solche Sprüche musst du als ironischen Spaß ansehen und bloß nicht ernst nehmen.

Ich weiß auch nicht wo du früher warst, das war jahrelang andersherum. Beispielsweise als Pascal herauskam, kamen manche User extra in reine AMD threads (Vega samnelthread beispielsweise) um zu provozieren. Dass AMD zu viel Strom verbraucht ebenso beliebt. Das ist völlig normal und trifft immer den der gerade mehr zieht, ganz egal wie viel mehr es ist.
Ich bin seit Pentium 1 Zeiten am PC und seit 2006 ausschließlich selbstbauer. Seit 2006 hatte ich aus allen Generationen! Karten aus beiden Lagern und ich versichere dir, dass geht immer hin und her, ganz egal ob sinnig oder nicht. Daran muss man sich gewöhnen, auch dass man immer fänboy der Marke ist die man gerade verbaut hat.
 
Ach Leute, lasst es gut sein. Wir haben alle unsere Standpunkte dargelegt und damit gut. Ihr tut ja fast als müssten wir in allen Punkten einen Konsens finden.
Von mir aus können wir gern aufhören darüber zu diskutieren. Es ging hier aber vorwiegend darum, worum es immer geht: Dinge richtigstellen, weil irgendwer immer anfängt zu Behaupten XY ist "totaler Schrott, ohne ist es viel besser, bla". Ausgerechnet natürlich überwiegend Leute mit dem Konkurrenzprodukt und einem Hass auf die Firma, die XY entwickelt hat.

Wir können doch nichts dafür, dass irgendwelche Hater in einem RayTracing-Benchmark-Thread auftauchen, zuerst RayTracing bashen, darlegen dass man das sowieso nicht braucht, die Diskussion dann zu DLSS ausschweift und man den gleichen Salat dann mit DLSS hat. :ugly:

Es wird wohl noch erlaubt sein, Dinge zu verteidigen, wenn sie angegriffen werden. Wenn man der Meinung ist, dass RT und DLSS so kacke sind, dann sollte man sich eventuell einfach aus so einem Thread fern halten, wenn man den Gegenwind nicht aushält.

Es gibt Foren für solche Leute. Computerbase zum Beispiel. Da kann man den ganzen lieben langen Tag über RT und DLSS herfallen und man erntet zig Likes von gleichgesinnten Fanboys. :top::fresse:

Ich meine, da postet man solche Bilder:
und was kommt ist dann diese realitätsferne Aussage:
Ich finde es absolut Schwachsinnig für eine veränderte Beleuchtungs- und Schattendarstellung den Stromverbrauch beim Spielen von 150 bis 200 Watt der Vorgängergenerationen auf 300 bis über 400 Watt zu steigern. Sieht man sich die Ergebnisse an, dann sind die "Verbesserungen" fast nicht zu sehen, außer das man massenhaft Strom dafür verballert.

Technisch ein absoluter Rückschritt.

Da kann man nur noch den Kopf schütteln.

Und das Argument mit dem "Strom" hat man dann mit DLSS gekontert, sogar mit Screenshots bewiesen und das wurde dann auch wieder geleugnet, mit dem wirren Argument, dass die Karten ja @stock immer versuchen ins Power-Limit zu boosten. Ja, natürlich tun sie das, das sollen sie ja auch. Wer das nicht will, der macht Undervolting und dann passt das Argument auch. Wem es bei Ampere auf den Stromverbrauch ankommt, der macht das nunmal. Wem es egal ist, der lässt es halt. Weiß man doch vor dem Kauf.
 
Zuletzt bearbeitet:
Also ich denke ich bin schon zu lange hier um auf sowas noch großartig zu reagieren. Als ich an dem roten Satz angekommen war, hab ich prompt weiter gescrollt und ihn direkt wieder vergessen. Dass man da keinen Unterschied sieht kann er kaum ernst meinen. Das glaube ich nicht.
 
@Cleriker glaub doch bitte nicht, dass CB schlechter ist als PCGH Extreme. Da wird nur manchmal recht solide moderiert. Kindergarten gibt es in beiden Foren.
 
Wie kommst du darauf dass ich das glaube? Ich bin auch bei CB angemeldet sowie im luxx als auch bei igors lab, toms hardware und im overclockers uk. Ich denke ich weiß wie die Stimmung in den wichtigsten Foren so ist.
 
Ich hätte gedacht Nvidia und AMD nehmen sich in der Effizienz gar nix?
CompBase
Wegen 10% hin oder her muss man glaube ich nicht streiten.
Genau genommen sind es eher 17% bei der 6900 zu 3090.
50 Watt waren bis vor einem Jahr noch der Unterschied zwischen Kühl, Leise, und ECO Sparsam und Hochofen, Kernschmelze, viel zu heiß und brauch man ein 700 Watt Netzteil.
@deady1000 war da übrigens einer der großen Verfechter.

Die grünen Verfechter des Verzichts sind nur alle irgendwie verschwunden.
 
Genau genommen sind es eher 17% bei der 6900 zu 3090.
Quelle?

50 Watt waren bis vor einem Jahr noch der Unterschied zwischen Kühl, Leise, und ECO Sparsam und Hochofen, Kernschmelze, viel zu heiß und brauch man ein 700 Watt Netzteil.
Dazu fordere ich jetz auch mal eine Quelle.
Die 3090 ist meistens schneller gerade mit RT und DLSS.
Da darf die GPU auch mehr verbrauchen finde ich.
 
Ich hätte gedacht Nvidia und AMD nehmen sich in der Effizienz gar nix?
CompBase
Wegen 10% hin oder her muss man glaube ich nicht streiten.
Ja, ne also BigNavi ist schon effizienter, muss man zugeben. Ampere kann man jedoch gut undervolten und dann geht's auch einigermaßen. Ich fahre meine RTX3090 auf 0,825V und damit lande ich meist im mittleren bis oberen 200W-Bereich, je nach Spiel oder Benchmark auch mal im unteren 300W-Bereich. Mehr darf es bei RTX4000 echt nicht werden.
@deady1000 war da übrigens einer der großen Verfechter.

Die grünen Verfechter des Verzichts sind nur alle irgendwie verschwunden.
Das stimmt. Ich hasse es, wenn Hardware so viel Strom zieht und ich befürworte es nicht, eine RTX3090 @stock zu betreiben oder sie gar bis ins maximale Power-Limit zu übertakten, weil ich es verschwenderisch und unnötig finde. Aber was will man machen? Die Effizienz geht an BigNavi, der Rest fast ausschließlich an Ampere. Soll ich wegen der Effizienz alle anderen Punkte ignorieren? Für mich überwiegen die Vorteile.
Die 3090 ist meistens schneller gerade mit RT und DLSS.
Da darf die GPU auch mehr verbrauchen finde ich.
Das sehe ich grundsätzlich auch so.
Gerade angesichts der oben genannten Features, ist ein Mehrverbrauch zu verschmerzen.
 
Genau genommen sind es eher 17% bei der 6900 zu 3090.
50 Watt waren bis vor einem Jahr noch der Unterschied zwischen Kühl, Leise, und ECO Sparsam und Hochofen, Kernschmelze, viel zu heiß und brauch man ein 700 Watt Netzteil.
@deady1000 war da übrigens einer der großen Verfechter.

Die grünen Verfechter des Verzichts sind nur alle irgendwie verschwunden.
effizienz.PNG

Ich sehe da 9%. Quelle: https://www.computerbase.de/2020-12...die_energieeffizienz_als_performance_pro_watt

Und nein, die Verfechter sind nicht verschwunden.
Hat auch nichts mit Grün zu tun.
 
Das ist Performance pro Watt, nicht Verbrauch.
Du vergleichst also jetz nur den absoluten Verbrauch, weil die Performance pro Watt nur nen minimalen Unterschied oder die Performance pro Watt bei Raytraycing (mit DLSS) massiv besser bei Nvidia ist?

Dann war meine 980Ti ja ne mega schlechte Karte, hat viel mehr verbraucht als meine 670.
Es ist amüsant wie du dir alles zurechtdrehst. Alles positive bei Nvidia wird ignoriert und nur die negativste Auslegung zugelassen.
 
Das ist Performance pro Watt, nicht Verbrauch.
Performance pro Watt ist das Einzige was vernünftig vergleichbar ist. Man vergleicht bei einem Auto ja auch wieviel Liter / 100km es verbraucht und nicht den Tank oder wieviel es verbraucht wenn man das Gaspedal durchdrückt. Es geht um Effizienz, nicht Maximal-Verbrauch.
 
Es steht sogar noch Effizienz dabei, in dem von dir zitierten Beitrag.
Da behauptest du, es wären 17%.
Da wäre aber nur der reine Verbrauch.
Jetzt ist das auf einmal Kindergarten hier?
 
Es steht sogar noch Effizienz dabei, in dem von dir zitierten Beitrag.
Da behauptest du, es wären 17%.
Da wäre aber nur der reine Verbrauch.
Jetzt ist das auf einmal Kindergarten hier?
So macht er das halt. Nicht aufregen, einfach weiter Unfug mit Fakten widerlegen. :D
 
Vergleicht man nun Nvidias erste RT-Generation mit AMDs erster RT-Generation, ergibt sich ein Gleichstand. Tatsächlich stecken die RDNA-2-GPUs, besser bekannt als Radeon RX 6000, komplexere Raytracing-Kalkulationen besser weg als Turing. Das Preset RT High des ART-Mark läuft auf einer Radeon RX 6900 XT indes genauso gut wie auf einer Geforce RTX 2080 Ti.

Interessanter finde ich da sogar noch den Vergleich zwischen 3090 und 6900XT.
Der absolute Abstand ist zwar gewaltig, aber schaut mal auf die relativen Verluste der verschiedenen RT Stufen. Hier scheint die 6900XT komplexere RT-Kalkulationen komischerweise sogar etwas besser als Ampere wegzustecken.

Die 3090 fällt vom Preset RT High zu RT Ultra auf 26% Performance zurück. Da die FPS der 3090 mit RT High gleichauf mit denen ohne RT sind, sieht das eher nach einem CPU Limit aus, die 3090 könnte also eigentlich mit RT High noch etwas mehr erreichen, womit der Fall noch etwas weiter runter als auf 26% wäre.
Die 6900XT fällt allerdings beim gleichen Schritt nur auf 28%.

Gleiches Spiel bei Ultra vs Overkill, die 3090 halbiert ihre FPS nochmal auf 45%, die 6900XT aber ebenso mit 46%.

Das ganze dann auch als relativer Unterschied 3090 vs 6900XT:

RT High: +128% (und dabei könnten es aufgrund eines möglichen CPU Limits wohl noch mehr sein)
RT Ultra: +109%
RT Overkill: + 105%

Also auch wenn die 3090 teilweise mehr als doppelt so schnell ist, je höher die RT Stufe, desto näher kommen sie sich, obwohl man eigentlich davon ausgehen würde, dass sich Ampere immer mehr von RDNA2 absetzt, je mehr RT Berechnungen stattfinden und bei den Spielen, in denen RDNA2 näher an Ampere dran ist, immer als Grund genannt wird, dass dort eben weniger RT genutzt wird.

Die Zahlen oben sprechen hingegen eher dafür, dass das "normales" RT bei Ampere deutlich geringer auf die Performance schlägt, aber sobald es darüber hinaus noch komplexer wird, sind die beiden gleichauf was den Performanceverlust angeht.
 
Zuletzt bearbeitet:
Die Zahlen oben sprechen hingegen eher dafür, dass das "normales" RT bei Ampere deutlich geringer auf die Performance schlägt, aber sobald es darüber hinaus noch komplexer wird, sind die beiden gleichauf was den Performanceverlust angeht.
Denkbar dass die Renderpipelines da auch auf einem gewissen Level zumachen.
 
Die Zahlen oben sprechen hingegen eher dafür, dass das "normales" RT bei Ampere deutlich geringer auf die Performance schlägt, aber sobald es darüber hinaus noch komplexer wird, sind die beiden gleichauf was den Performanceverlust angeht.
Trotzdem dürfte es aber nicht sein, daß ich mit einer RTX 3070 auf eine RTX 3090 im ultra Preset aufhole.
Während hier die RTX 3090 1080p/high noch fast 37% schneller unterwegs ist, schrumpft der Abstand in 1080p/ultra auf unter 24%. In diesen Settings in Verbindung mit 1080p kann die RTX 3090 wohl noch nicht alles zeigen.
 

Anhänge

  • PCGH.PNG
    PCGH.PNG
    30 KB · Aufrufe: 18
  • high 1080p.PNG
    high 1080p.PNG
    1,3 MB · Aufrufe: 13
  • 1080p ultra.PNG
    1080p ultra.PNG
    1,3 MB · Aufrufe: 12
Zurück