Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

Also eine 2080ti FE darf max 325 ziehen und meine Karte max 366 wobei sie auch 375 raushaut und das ist Quatsch? O. K..

Ja, ist generell vieles Quatsch was du sagst, alleine schon, dass du erst allgemein über den Stromverbrauch eine Ti redest I'm Bezug zu dem des Nachfolgers, nachher dann von Custom Karten mit OC und zuletzt dann noch von deiner Karte und Ref Karten mit maximierten Powerlimit und tust so als hättest du ursprünglich das gemeint. :D

Bitte wie soll eine 3080ti bei 125Watt 50% mehr leisten. Erklär es mir einfach.

Das ist sogar noch wahrscheinlicher als deine mögliche Annahme, dass sie 50% mehr leistet, ohne Effizienter zu sein und die 50% dann auch nur noch unter DXR, womit am Ende dann 20% über bleiben bei 0% mehr Effizienz.

Und plötzlich braucht dann die 2080 Ti nur noch 250 Watt und nicht mehr 330.

Das wären dann 2080 Ti Leistung +50% und etwa 140 bis 150 Watt Strombedarf, was ich aber für unwahrscheinlich halte, für ausgeschlossen aber nicht und das liegt an dem riesigen Fertigungssprung, aber weit wahrscheinlicher als 20% mehr Performance und das nur wenn RT zugeschaltet wird.

Du vergisst einen wesentlichen Faktor, nVidia könnte die gewonnene Effizienz und den Leistungszuwachs einfach in die Bildqualität, bei einer höheren Raymenge investieren, ohne das man DLSS für die 3080ti noch bräuchte. Native raytraced Auflösung unter 1k, 2k, 4k!

Ist die Raymenge wirklich das einzige Performancekriterium? Wieso habe ich bei Metro Exodus eine viel viel höhere Raymenge als bei Battlefield 5 und dennoch ist die Performance in Metro teils besser?


Normalerweise ohne viel Shader Power, wenig RT Power, ergo wird Nvidia niemals nur die RT Cores aufpumpen, weil das nix bringen wird.
Dir ist immer noch nicht klar, dass es um Betriebsspannungen geht....

Eine Betriebsspannung von 0,5 Volt wird für Halbleiter schwierig...

und Watt eigentlich nur der Wert für die Abwärme ist, der bei einer bestimmten Vcore und Auslastung aller Einheiten abtransportiert werden muss, weil eine GPU die gesamte elektrische Energie, die sie aufnimmt in Wärme umwandelt.

Und ich dachte die GPU erzeugt noch Strom, wenn man sie einbaut..., gut dass du mir das erklärt hast.

250 Watt maximal sind für nVidia kein Problem, wenn man nicht sogar höher geht und warum sollte man das nicht auszunutzen wissen

Wie hat Nvidia denn bei Maxwell die Leistungsaufnahme im gleichen Prozess gesenkt? Nur mit der Versorgungsspannung?
 
Kan ich nicht glauben.
Mach mal den internen Benchmark auf 1080p ultrahoch/highest. Ich glaube, daß Du da kaum/nicht an meiner GTX 1080 vorbeikommst. An der GTX 1080Ti schon garnicht.

Wie in praktisch allen Games keine chance gegen GTX1080Ti
Ich habe mir soeben ca. zwanzig angeschaut zu dem Spiel. In ca. 70% aller Benchmarks ist GTX1080 (non-ti) vorne.
Leider finde ich nur referenzmodelle.

Edit :
Gefunden (Custom´s - Bild 1)
[H]ard|Forum
 

Anhänge

  • Screenshot_2020-01-06 Shadow-of-the-Tomb-Raider-RTX-2070-benchmark png (PNG-Grafik, 630 × 327 Pi.png
    Screenshot_2020-01-06 Shadow-of-the-Tomb-Raider-RTX-2070-benchmark png (PNG-Grafik, 630 × 327 Pi.png
    151,3 KB · Aufrufe: 42
Zuletzt bearbeitet:
Kan ich nicht glauben.
Mach mal den internen Benchmark auf 1080p ultrahoch/highest. Ich glaube, daß Du da kaum/nicht an meiner GTX 1080 vorbeikommst. An der GTX 1080Ti schon garnicht.
In SOTTR ist eine 5700 XT auch schneller als eine 2080 Ti, das habe ich selbst getestet. Das Spiel ist unglaublich gut auf AMD-Hardware optimiert.
 
In SOTTR ist eine 5700 XT auch schneller als eine 2080 Ti, das habe ich selbst getestet. Das Spiel ist unglaublich gut auf AMD-Hardware optimiert.

Das ist der neueste CB test vom 17.12.2019 !
5700XT ist weit weg von RTX2080Ti, welten !

Grafikkarten von AMD und Nvidia im Test: Testergebnisse im Detail - ComputerBase

Edit :
Shadow liegt der 5700XT aber sehr gut , schneller als VII und deutlich flotter als rx64
Doppelbench mir Rise of the Tomb Raider

Radeon RX 5700/ RX 5700 XT: performance analysis • Eurogamer.net
 

Anhänge

  • Screenshot_2020-01-06 Grafikkarten von AMD und Nvidia im Test Testergebnisse im Detail.png
    Screenshot_2020-01-06 Grafikkarten von AMD und Nvidia im Test Testergebnisse im Detail.png
    50,8 KB · Aufrufe: 36
  • Screenshot_2020-01-06 Grafikkarten von AMD und Nvidia im Test Testergebnisse im Detail(1).png
    Screenshot_2020-01-06 Grafikkarten von AMD und Nvidia im Test Testergebnisse im Detail(1).png
    95,7 KB · Aufrufe: 22
Zuletzt bearbeitet:
In SOTTR ist eine 5700 XT auch schneller als eine 2080 Ti, das habe ich selbst getestet. Das Spiel ist unglaublich gut auf AMD-Hardware optimiert.

Ich kann mich an den Test von Igors Lab erinnern. Da kommt eine RX 5700XT auch mit über @2100MHz nicht an einer RTX 2080 vorbei. Eine oc RTX 2080Ti ist dann noch mal ein anderes Kaliber. Und die Vega64 ist da ganz am Ende.

1.jpg 2.jpg

Mit meiner GTX 1080Ti bin ich bei dem selben Test mit den selben Einstellungen schneller als alles da gezeigte.
1080p oc.jpg

Um das Ergebnis zu erreichen müßte sich eine Vega schon mehr als strecken und sollte erst einmal meine GTX 1080 schlagen :D.
R9 3900X @4.5GHz.jpg

ÄÄH nö:D
pcgh.PNG pcgh+.PNG
 
Zuletzt bearbeitet:
Ich vergaß zu erwähnen, dass ich dabei unter CPU-Testbedingungen und FullHD getestet habe. Man sollte nicht so viele Sachen gleichzeitig machen. :rollen:
 
Ich kann mich an den Test von Igors Lab erinnern. Da kommt eine RX 5700XT auch mit über @2100MHz nicht an einer RTX 2080 vorbei. Eine oc RTX 2080Ti ist dann noch mal ein anderes Kaliber. Und die Vega64 ist da ganz am Ende.

Anhang anzeigen 1075531Anhang anzeigen 1075532

Mit meiner GTX 1080Ti bin ich bei dem selben Test mit den selben Einstellungen schneller als alles da gezeigte.
Anhang anzeigen 1075533

Um das Ergebnis zu erreichen müßte sich eine Vega schon mehr als strecken und sollte erst einmal meine GTX 1080 schlagen :D.
Anhang anzeigen 1075534

....so sehe ich das auch :D

...sehr viele unterschiedliche szenen wurden hier gebencht und die olle GTX1080 ist in allen schneller (DX12) :
ROTTR
YouTube

...und soviel zum Thema : "Pascal profitiert nicht von DX12" :D

SOTTR
YouTube

Der kleine Pascal is A TRULY LEGEND :D
DX19 kann ruhig kommen, no problemo.

5700XT/RTX2070 werden in drei jahren nicht da stehen wo GTX1080 heute steht, da bin ich mir zu 100% sicher.
Next-Gen Ports (Scarlett/PS5) könnten aber nach fünf jahren zum Problem werden.

...für 5700XT und RTX2070 aber selbstverständlich auch, kaum schneller.
Es herrscht seit 2016 praktisch stillstand ! RTX2080Ti mal ausgenommen.

A very strong GPU but also a Portemonnaie-destroyer

Das waren noch Zeiten, nicht wahr ?
Nvidia Geforce GTX 1070 und 1080 - UVP der Founders Edition auch in Deutschland gesenkt

....so ganz ohne konkurrenz senkte NVIDIA die Preise.

https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

Ich würde zwar nie und nimmer so viel Geld für eine GPU ausgeben aber verglichen mit der RTX2080Ti waren die Preise 1A und zwar direkt zum Release !

Es ist wirklich traurig das die karte immer noch so teuer ist, bin schon auf die RTX3080Ti gespannt.
Ich hoffe für alle Interessenten das die Rekorde "hier" nicht gebrochen werden.
 
Zuletzt bearbeitet:
Ich kann mich an den Test von Igors Lab erinnern. Da kommt eine RX 5700XT auch mit über @2100MHz nicht an einer RTX 2080 vorbei. Eine oc RTX 2080Ti ist dann noch mal ein anderes Kaliber. Und die Vega64 ist da ganz am Ende.

Anhang anzeigen 1075531Anhang anzeigen 1075532

Mit meiner GTX 1080Ti bin ich bei dem selben Test mit den selben Einstellungen schneller als alles da gezeigte.
Anhang anzeigen 1075533

Um das Ergebnis zu erreichen müßte sich eine Vega schon mehr als strecken und sollte erst einmal meine GTX 1080 schlagen :D.
Anhang anzeigen 1075534

ÄÄH nö:D
Anhang anzeigen 1075535Anhang anzeigen 1075536

Moin!

Das hat mich jetzt mal interessiert, deshalb habe ich den Bench auch noch mal laufen lassen. Auf 1080p "ultrahoch" und mit einer MASSIV langsameren CPU (1700X @ 4.0GHz) kriege ich am Ende ohne irgendwelche OC-Stunts (nur UV, Powerlimit ist nicht erhöht) dieselben (GPU) FPS wie deine GTX 1080 raus :ka:.

SOTR 1080p UV.jpg

Schau wie krass ich im CPU Limit bin... abgesehen davon performt das doch für nen Gameworks-Titel ganz ordentlich auf meinem AMD "Schrottsystem" :P


Grüße!
 
Zuletzt bearbeitet:
Moin!

Das hat mich jetzt mal interessiert, deshalb habe ich den Bench auch noch mal laufen lassen. Auf 1080p "ultrahoch" und mit einer MASSIV langsameren CPU (1700X @ 4.0GHz) kriege ich am Ende ohne irgendwelche OC-Stunts (nur UV, Powerlimit ist nicht erhöht) dieselben (GPU) FPS wie deine GTX 1080 raus :ka:.



Anhang anzeigen 1075562

Schau wie krass ich im CPU Limit bin... abgesehen davon performt das doch für nen Gameworks-Titel ganz ordentlich auf meinem AMD "Schrottsystem" :P




Grüße!

Dein Link geht leider nicht :P.
Es behauptet keiner, daß die Vega Schrott ist. oder AMD generell Schrott ist. Es ging um die Aussage, daß die Vega in dem Spiel schneller als die GTX 1080Ti ist und das ist sie nicht.
Wie im gesamten Durchschnitt ist hier der Nvidia Gegenpart die GTX 1080 und nicht die TI.
 
Wie hat Nvidia denn bei Maxwell die Leistungsaufnahme im gleichen Prozess gesenkt? Nur mit der Versorgungsspannung?
Du verdrehst wieder wesentliche Aussagen und Zusammenhänge, wie du das immer tust und wie es dir genehm ist, so das es in deine Argumentationskette passt. Eigentlich wollte ich dir nicht mehr antworten und ich bin auch kein Chipdesigner, das stimmt.

Um das jetzt abzukürzen, 7nm+ wurde ursprünglich nicht für GPUs entwickelt und TSMC hat EUVL zuletzt für eine dauerhafte Ausgangsleistung von 250 Watt weiterentwickelt, dazu wurde das Multipattern und dazugehörige Tools angepasst, so das man nVidia als Auftraggeber auch in seine Bücher vermerken konnte.

NVidia wäre also schön blöd, dieses Verfahren nicht auszunutzen, wenn es denn extra für sie und vermutlich AMD angepasst wird. Effizienz ist nicht nur geringere Leistungsaufnahme, sondern bei gleichem Verbrauch die Bildqualität zu verbessern oder mehr FPS zu liefern oder mehr Pixel und damit höhere Auflösungen berechnen zu können (einfach ausgedrückt). Das hilft dem Entwickler die verfügbaren Ressourcen, dann auch sinnvoll zu verteilen ohne das ein GPU-Design schon frühzeitig bei der Leistungsaufnahme limitiert.

Ausserdem habe ich von Maximalen Werten geschrieben, und 247,5 Watt passt bei dauerhafter (auch alltäglicher=24/7) Ausgangsleistung von 250 Watt wie die Faust auf Auge, sprichwörtlich. Ob nVidia das auszunutzen weis? Ich glaube ja. 210-250 Watt für die 3080ti, wenn sie so heißen sollte, passen meiner Meinung nach. Mehr VRAM, größeres SI und 50% mehr Rechenleistung. Unbekannte Grösse sind die Meshshader, die aber Turing schon enthält und sich wegen fehlender Unterstützung durch Microsofts DX bisher nicht richtig inSzene setzen konnten, was in ihnen steckt und gleiches gilt für AMD.

Ob dir das passt oder nicht, ist mir relativ egal. Mit GM führte man den Binning Rasterizierer ein, der der Pipeline allein schon 10 bis 15% mehr Effizienz beschert und die Corefabric, die zu Lasten der Gesamtfläche geht und damit Leckströme niedrig halten kann. Jedes Mal in einem eigens für nVidia aufgelegten Prozessverfahren. Ich glaube da gastello, dass dies für 7nm+ nicht zutrifft, wenn doch und er Unrecht hat, darfst du dich auf saftige Preissteigerungen freuen.

Übers Quatsch schreiben müssen wir uns sicher nicht unterhalten und dabei wesentliche Zusammenhänge immer wieder aus dem Kontext zu reißen.
 
Zuletzt bearbeitet:
Dein Link geht leider nicht :P.
Hmm okay... ich kann den Screenshot auf allen Endgeräten aufrufen :huh: Edit: Hab den Anhang noch mal neu Verlinkt.

Es behauptet keiner, daß die Vega Schrott ist. oder AMD generell Schrott ist.
Sorry... diese Andeutung galt nicht wirklich dir! Aber unser Multiaccount-AMD-Hater bezeichnet Vega ja gerne als Fail und pickt sich auch mal kaputte Benchmarks raus, die eine 750 Ti vor Vega sieht, um seinen Standpunkt zu untermauern. Der hat heute Morgen garantiert schon wieder nen RTW gebraucht oder wenigstens in seine Tastatur gebissen, als er meine Ergebnis gesehen hat ;).

Es ging um die Aussage, daß die Vega in dem Spiel schneller als die GTX 1080Ti ist und das ist sie nicht.
Wie im gesamten Durchschnitt ist hier der Nvidia Gegenpart die GTX 1080 und nicht die TI.
Da stimme ich dir zu - 1080 und Vega sind von Anfang an gleichwertige Gegenspieler gewesen, mit Effizienz-Vorteilen für die Geforce und Compute-Vorteilen (und Bastel-Potenzial) für die Radeon. Und für beide bleibt - so sehr man sich auch streckt - die Leistung der 1080 Ti unerreicht.


Grüße!
 
die Leistung der 1080 Ti unerreicht.

Neben meiner alten GTX 670 is das auch meine bisherige Lieblings GPU, auch in diesem speziellen Custom Modell(Strix OC).
Immer kühl und lautstärketechnisch ganz angenehm.

Da wird Nvidia mich mit der 3080 ganz schön locken müssen, damit ich darauf verzichte. Werd' mich nur schweren Herzens trennen.
Also 11+GB Speicher bitte und ordentlich Leistung.
Dazu halt wieder gute Custom Modelle(angenehme Geräuschkulisse).

Dann können wir drüber verhandelt, Nvidia(von der 3080Ti sprech' ich schon gar nicht mehr).

Irgendwie beschleicht mich das Gefühl, dass ich diesmal wieder nicht wirklich das bekommen werde, was ich haben möchte, da Nvidia beim Speicher ja gerne knausert.
Aber genug des Rätselratens von meiner Seite. Ich warte dann mal Daten ab, wo die Speichermenge genannt wird. Kann sich ja nur noch um ein paar Wochen, oder Monate handeln. ;)
 
Neben meiner alten GTX 670 is das auch meine bisherige Lieblings GPU, auch in diesem speziellen Custom Modell(Strix OC).
Immer kühl und lautstärketechnisch ganz angenehm.

Da wird Nvidia mich mit der 3080 ganz schön locken müssen, damit ich darauf verzichte. Werd' mich nur schweren Herzens trennen.
Also 11+GB Speicher bitte und ordentlich Leistung.
Dazu halt wieder gute Custom Modelle(angenehme Geräuschkulisse).

Dann können wir drüber verhandelt, Nvidia(von der 3080Ti sprech' ich schon gar nicht mehr).

Irgendwie beschleicht mich das Gefühl, dass ich diesmal wieder nicht wirklich das bekommen werde, was ich haben möchte, da Nvidia beim Speicher ja gerne knausert.
Aber genug des Rätselratens von meiner Seite. Ich warte dann mal Daten ab, wo die Speichermenge genannt wird. Kann sich ja nur noch um ein paar Wochen, oder Monate handeln. ;)

für dich ist eh bald Weihnachten , solange dein Äther nicht ausgeht ^^

einfach kurz durchatmen..... und sich den Preiß der 3080ti vorstellen xD
 
Zurück