Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

Halber Verbrauch bei deutlich mehr Leistung. Das könnte das erwartete Upgrade für mich sein. Möchte als nächste Karte nämlich eine, die nicht mehr als die jetzige Verbraucht bei gleichzeitig deutlich mehr Leistung. Könnte was werden.
 
Die 280 Ti ist bei 275 Watt abgeriegelt.

WTF. 20% mehr Pixel sind eine Steigerung von 50%? Alles klar gastello.
Du darfst also Stuss auf mein Posting antworten und mir ist es untersagt, dass richtig zu stellen. Das du bei Mathe immer gefehlt hast, wissen wir Elkinator.

Du kennst die Ausgangsgrössen nicht, hängst dich aber wie immer weit aus den Fenster, waren es nicht sogar 80% von dir vorausgesagt, wie 20-30 Spiele Ende 2019.

Spiel deine Börsenspielchen mit deinesgleichen. Du hast weder etwas mit Software- noch Hardwareentwicklung zu tun, daher ist deine Meinung nichts wert.

Du schuldet dem Forum übrigens noch die Links zu deinen Testergebnissen! Und deiner Expertise, die dich zu einem Spezialist deklarieren, der anderweitige Meinungen für nichtig erklären kann und darf.
 
Wie kommst du auf 330 Watt für die 2080 Ti? Die Founders Edition ist @stock bei 260 Watt abgeriegelt und kann manuell auf maximal 325 Watt erhöht werden.


Gesendet von iPhone mit Tapatalk
 
Wie kommst du auf 330 Watt für die 2080 Ti? Die Founders Edition ist @stock bei 260 Watt abgeriegelt und kann manuell auf maximal 325 Watt erhöht werden.


Gesendet von iPhone mit Tapatalk
Weil ich auch MAXIMAL schreibe und es nicht nur Referenzgrafikkarten gibt. Die grobe Schätzung von 330 Watt maximal durch das gesamte Portfolie ist daher berechtigt.

Elkinator sucht sich immer das Beste raus, betreibt also Sherry Picking wenn ihm gut passt.

Daher schreibe ich ja auch 210 bis ... Watt maximal.

Meine Karte darf sogar 375 Watt ziehen.
 
Die Redaktion könnte ja mal ne Stelle in nem Game@4k RT=ON/OFF raussuchen, wo die RTX 2080Ti FE genau 260W verbraucht und die Fps messen. Die Fps dann als Lock für die Ampere nehmen.

Bin mal gespannt, obs dann nur 130W braucht. Zusätzlich könnte man bei 1,5x Fps locken und schauen obs 260W sind.

Den Vgl. von Igor zw. Pascal und Turing fand ich ja schon interessant.(x)
Nvidia GeForce RTX 2080 Ti im grossen Effizienz-Test von 140 bis 340 Watt | igorsLAB – Seite 2 – igor sLAB
(leider UVen die Reviewer alle net, was natürlich net praxisnah sein kann)

(x) Das ist sicherlich etwas unfähr bei 220..260 W gewesen, weil die RTX chilled aber die GTX schon über dem
Wohlfühlpunkt läuft. Dann geht logischerweise mit mehr W die Schere noch weiter auf.
 
Zuletzt bearbeitet:
Meine Karte hat ein hochoffiziellen Target von 331 Watt bei einem Limit von 366 Watt und 1770MHz, lastet die maximale Boardpower von 375Watt auch aus, wenn sie temperaturabhängig nicht limitiert wird. Schaffe soll nicht immer so einen Unsinn schreiben und sich raussuchen was ihm am besten passt.

Aber nein, sowas tun ja nur AMD Karten. Der Tester vor dem Herrn! :schief:

Er glaubt ja, dass nur er sich so eine Hardware leisten kann. Ich vermute mal das ganze Signum ist Fake. Ich habe noch eine Matrix die genauso viel schluckt, bei 1800 MHz. Das die Karten das Powerbuget auch ausreizen hat Raff mehr als einmal kommentiert, aber der hat ja seiner Meinung auch keine Ahnung. Übertroffen wird das nur durch Vega10.
 
Viele machen den fehler und vergleichen GTX1080 mit RTX2070 oder GTX1080Ti mit der RTX2080. Das ist natürlich falsch !
Die direkte Nachfolger der GTX1080 trägt den namen RTX2080 und RTX2080Ti ist der Nachfolger der GTX1080Ti.

Die karten können sich schon recht deutlich von den Vorgängern distanzieren. 30% sind nicht die Welt aber so wenig ist das jetzt auch nicht.

Launch-Analyse nVidia GeForce RTX 2080 & 2080 Ti (Seite 2) | 3DCenter.org

Bild 1 (FullHD)
Bild 2 (WQHD)
Bild 3 (UltraHD)

Das war schon eine "recht starke" Architektur die praktisch alles richtig machte ! Ampere wird NVIDIA´s erfolgsrezept weiterführen bzw. noch einen draufsetzen, da bin ich mir relativ sicher. Ich halte 45-50% für sehr wahrscheinlich.


Edit : RTX2080Ti natürlich und nicht GTX2080Ti :D
 

Anhänge

  • 1.png
    1.png
    76,1 KB · Aufrufe: 44
  • 2.png
    2.png
    89,1 KB · Aufrufe: 42
  • 3.png
    3.png
    95 KB · Aufrufe: 35
Zuletzt bearbeitet:
Viele machen den fehler und vergleichen GTX1080 mit RTX2070 oder GTX1080Ti mit der RTX2080. Das ist falsch !
Die direkte Nachfolger der GTX1080 trägt den namen RTX2080 und GTX2080Ti ist der Nachfolger der GTX1080Ti.

Die Nomenklatur ist frei von NVidia gewählt. Wenn du das Spielchen mitmachst und nach Namen vergleichst haste Recht. Das macht aber nunmal nicht jeder mit, manche vergleichen auch nach Chipnamen oder Chipfläche, Shaderzahl, TDP oder sogar Preis - also nach technischen Daten. Und da siehts dann meistens ganz anders aus.

Was der Hersteller für nen Namen aufdruckt sollte dem geneigten Nerd ziemlich egal sein, denn Namen dienen einzig dem Käuferfang - und sind auch wunderbar geeignet um gewisse Dinge zu kaschieren die man nicht so in der Öffentlichkeit haben möchte (beispielsweise als nach GTX480 und GTX580 die den großen Chip trugen auf einmal mit der GTX680 eine Karte mit dem mittleren Chip kam - aber natürlich mit Highend Namen und Highend Preis - und das hat man auch schön durchgehalten bis zum TU104 heute).
 
Du darfst also Stuss auf mein Posting antworten und mir ist es untersagt, dass richtig zu stellen.

Dann sind die +50% bei Spielen unter RayTracing nämlich maximal 20% Performance mehr, weil man derzeit maximal 40% des Bildes mit Raytracing in hybriden Verfahren berechnen kann.

Lege doch für diese Aussage, dass man derzeit maximal pauschal 40% des Bildes mit Raytracing in hybriden Verfahren berechnen kann, eine Quelle vor. Das ist doch völliger Schwachsinn.
Nur weil Battlefield in den ultra Einstellungen 40% der Auflösung als Rays im Ray Tracing für Spiegelungen vorsieht, das wären unter UHD gut 3 Millionen Rays, ist das nur das Setting in Battefield und nicht allgemeingültig. Du benutzt doch diesen Zusammenhang nur wieder um gegen Nvidia zu stänkern und dann diese blödsinnige Rechnung aufzumachen.

Wo soll da irgendeine Expertise sein?

Metro Exodus benutzt in der high Einstellungen 0,5 Rays per Pixel und in Ultra 1 Ray per Pixel, also 100% des Bildes werden für GI im hybriden Verfahren berechnet, das sind über 8 Millionen Rays.... Bei der Gamscom hatten sie sogar noch 3 Rays per Pixel angewendet.
Also was willst du mit deinen pauschalen 40% des Bildes und 50% mehr Raytracingleistung bei 20% mehr Rays, was dann in 20% Mehrleistung ohne RT resultiert? Kannst andere für dumm verkaufen und irgendwelche Skalierungen annehmen, oder lachhafte Rechnungen aufstellen.

Es gibt keine 50% Mehrleistung in RT Szenarien und daraus resultierend 20% mehr Leistung.Das skaliert so überhaupt nicht, weil es nicht die "RT Leistung" gibt, sonder die Leistung nicht nur von der Anzahl der verschossenen Rays abhängt, sondern von viel mehr.

Die "RT Leistung" ist, was die RT Cores angeht, schon hoch genug für die hybriden Verfahren.

Weil ich auch MAXIMAL schreibe und es nicht nur Referenzgrafikkarten gibt.

Komisch, genau das was gestello immer schreibt, der sieht bei Nvidia auch weiße Weißwürste und sieht aus dem Nichts immer 40 oder gar 50 Watt mehr Verbrauch als normal.:D

Und jetzt sinds also die Custom Designs, nur was hat das für einen Sinn mit denen zu vergleichen?:ugly:

Die grobe Schätzung von 330 Watt maximal durch das gesamte Portfolie ist daher berechtigt.

Ne, purer Blödsinn.
Elkinator sucht sich immer das Beste raus, betreibt also Sherry Picking wenn ihm gut passt.

Die Referenzkarte halt, was sonst.
Und dein Elkinator ist TechBlogger aka Poor_Volta aka K12Beste, aka TechExtremist, , garantiert nicht ich.:ugly:
 
Zuletzt bearbeitet:
und nach Namen vergleichst haste Recht.

Ich vergleiche nicht nur die Namen sondern auch die performance usw., da hat sich einiges getan beim offiziellen Nachfolger.
RTX2080Ti ist um ca. 30% flotter unterwegs.

Launch-Analyse nVidia GeForce RTX 2080 & 2080 Ti (Seite 3) | 3DCenter.org
Das schnellste Modell von 2017 kann man doch nicht mit dem zweitschnellsten Modell von 2018 vergleichen, wo ist da die Logik ?

Wie siehst du das eigentlich ?
Frage :
RTX2080 oder RTX2080Ti - Nachfolger von GTX1080Ti ?

Edit :
...also für mich stellt sich die frage gar nicht, RTX2080Ti !
High-End vs High-End ! Crème de la Crème und das war RTX2080 nicht. Das wollte die GPU auch nie sein.
Eine Liga tiefer ! GTX1080 (successor)
 
Zuletzt bearbeitet:
Also eine 2080ti FE darf max 325 ziehen und meine Karte max 366 wobei sie auch 375 raushaut und das ist Quatsch? O. K.. Du betreibst deine 2080ti undervoltet auf 150 Watt?

Bitte wie soll eine 3080ti bei 125Watt 50% mehr leisten. Erklär es mir einfach.

Du vergisst einen wesentlichen Faktor, nVidia könnte die gewonnene Effizienz und den Leistungszuwachs einfach in die Bildqualität, bei einer höheren Raymenge investieren, ohne das man DLSS für die 3080ti noch bräuchte. Native raytraced Auflösung unter 1k, 2k, 4k! Mit welcher Vcore? 0,5v? So ein Schwachsinn.

Dir ist immer noch nicht klar, dass es um Betriebsspannungen geht und Watt eigentlich nur der Wert für die Abwärme ist, der bei einer bestimmten Vcore und Auslastung aller Einheiten abtransportiert werden muss, weil eine GPU die gesamte elektrische Energie, die sie aufnimmt in Wärme umwandelt. Die Einheit in der Mitte eines Dies, aber die gleiche Spannung braucht, wie eine die dicht am Versorgungspin sitzt. Die Daten und deren Rechenergebnisse dieser Einheiten, werden über eine Art Trasse aus Einheiten, an diese Funtktionseinheit weitergeleitet und darüber das Rechenergebnis abgefragt und zurücktransportiert. Alle diese müssen mit Energie versorgt werden. Ein Spannenabfall im Design führt zwangsweise zum Datenverlust.

Mehr Einheiten bei höherer Density und größerer Chipfläche brauchen mehr von diesen Wegen, je nach Funktionalität und Aufgabe.

Du kannst also nicht einfach 5210 Shadereinheiten hernehmen und dann meinen, der Leistungszuwachs wäre so oder so groß. Dazu müsste man erstmal die Designänderungen kennen, den Einheitenzuwachs bestimmen und die Größe der Chipfläche kennen. Wo der Sweetspot bei 7nm+ liegt (0.7v bei 1500MHz) und welche Taktrate nVidia anpeilt.

7nm+ ist dabei eine völlig unbekannte Größe. Wir kennen das SI nicht und auch nicht den VRAM Ausbau.

250 Watt maximal sind für nVidia kein Problem, wenn man nicht sogar höher geht und warum sollte man das nicht auszunutzen wissen?

Da kommst du mit dem Dreisatz, ja hallo?
 
Zuletzt bearbeitet:
...kurz und knapp ala Trump.

Wenn es besonders gut läuft wird Big Navi im durchschnitt um ca. 5-7% schneller sein als RTX2080Ti.
RTX3080Ti erscheint kurze zeit später und wird um mindestens 25% schneller sein als Big Navi !

The End !
 
Da kommst du mit dem Dreisatz, ja hallo?

Na wenn du so rechnest und die GPU bei RT 50% schneller ist und in Battlefield 40% des Bildes mit Hybrid RT Berechnet wird, dann würden ein Ergebnis von 20% Performance plus overall ja bedeuten, dass die Ampere oder Hopper GPU bei klassischer Rasterisierung 0% schneller ist, bzw eher langsamer weil Hybrid Raytracing ja der höhere Flaschenhals ist. Wo ist denn da bitte die Logik?

Ergibt einfach keinen Sinn, auch diese 40% des Bildes haben einfach keine Aussagekraft, da es in Metro 100% des Bildes sind und im Vergleich zu Battlefield einfach fast die dreifache Anzahl der Rays...

Vielleicht solltest du das mal genauer erklären wo hinter der hanebüchenen Aussage der tiefere Sinn steht.
 
Könnt ihr 2 es nicht belassen und man wartet einfach ab was die neuen Karten dann wirklich können. Erst dann werdet ihr 2 sehen wer recht hatte oder ob beide daneben lagen. Man kann das doch endlos so weiter machen, jedoch ist das ganze nur Glaskugel Wettbewerb.

Geht doch mal auf ein Bier dann beruhigt sich das ganze hier wieder und ihr konntet euren Schwall beim Bier loswerden :)
 
Also ich hab letztens einen Test der PCGH bei mir nachgestellt mit der per HBM geOC'ten Vega64 vs 1080Ti und dem Spiel Shadows of the Tomb Raider.

Ich hab beim Hauptspielerechner (3700X), mit meiner Vega64 ~90 FPS, im 2. Rechner mit dem 1800X@4,1 mit der 1080Ti (non OC) sinds auch so um die 90FPS, öfter aber auch nur paar um die 80. Auflösung 2560x1440 (DX12), Details auf ultra, aber keine Kantenglättung. Die Vega ist in diesem Spiel meist schneller.

Die 2080TI schätze ich mal auf 110-115 FPS (kann ja mal wer gegentesten, der über diese Karte und das Game verfügt). 50% mehr wären Zuwachs um gute 55 FPS. Also 165-170 FPS, und das bei nur 150W! :hmm:
Nee, bei aller Liebe, unvorstellbar - das glaub ich so nicht bzw. wo haben die den Schalter her, um die Physik derart zu überlisten? :devil:
 
Also ich hab letztens einen Test der PCGH bei mir nachgestellt mit der per HBM geOC'ten Vega64 vs 1080Ti und dem Spiel Shadows of the Tomb Raider.
Ich hab beim Hauptspielerechner (3700X), mit meiner Vega64 ~90 FPS, im 2. Rechner mit dem 1800X@4,1 mit der 1080Ti (non OC) sinds auch so um die 90FPS, öfter aber auch nur paar um die 80. Auflösung 2560x1440 (DX12), Details auf ultra, aber keine Kantenglättung. Die Vega ist in diesem Spiel meist schneller.

Kan ich nicht glauben.
Mach mal den internen Benchmark auf 1080p ultrahoch/highest. Ich glaube, daß Du da kaum/nicht an meiner GTX 1080 vorbeikommst. An der GTX 1080Ti schon garnicht.
 
Zurück