Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

Mehr Leistung bei weniger Verbrauch hört sich immer gut an. Aber in Summe scheint es, dass die betagte 1080 endlich in Rente geschickt werden kann. Von daher :daumen:. Bin gespannt was im ähnlichen Zeitraum von AMD kommt. Ich freu mich jedenfalls... Dazu noch ein Ryzen 4000.
 
50% Mehrleistung UND 50% weniger Verbrauch? Da wird man ja wahnsinnig. Da könnte AMD sowas von einpacken. Das hieße am Beispiel einer RTX 2060, dass es nun stattdessen die Leistung einer RTX 2080 mit einer TDP von 80W gibt. :ugly:

Irgendwie klingt das zu schön um wahr zu sein. Ich vermute mal es wird eher auf 50% mehr Leistung bei gleich absolut gleich bleibenden Verbrauch rausläuft. Fragt sich wie AMD da mithalten soll. AMD hat ja den 7nm-Effizienzsprung schon hinter sich und ist dennoch nicht effizienter als Turing.
 
50% Mehrleistung UND 50% weniger Verbrauch? Da wird man ja wahnsinnig. Da könnte AMD sowas von einpacken. Das hieße am Beispiel einer RTX 2060, dass es nun stattdessen die Leistung einer RTX 2080 mit einer TDP von 80W gibt. :ugly:

Irgendwie klingt das zu schön um wahr zu sein. Ich vermute mal es wird eher auf 50% mehr Leistung bei gleich absolut gleich bleibenden Verbrauch rausläuft. Fragt sich wie AMD da mithalten soll. AMD hat ja den 7nm-Effizienzsprung schon hinter sich und ist dennoch nicht effizienter als Turing.

Es ist davon auszugehen das NVIDIA sehr genau weiß was AMD entgegen halten kann und seine eigenen Produkte eben auch dementsprechend platziert.
Hätte AMD nichts würde auch von NVIDIA nichts kommen... Warum denn auch.
 
jo und man darf dann sicherlich wieder mit Preissteigerungen rechnen, da der 7nm Prozess so übeeeelst viel mehr kostet, und Nvidia das als Argument benutzt. Dann erreicht eine einst Mittelklassekarte XX60 für 200€ die 600€ Marke. Dann werden die Nvidia-Kunden wieder verarscht, man beschneidet bewusst die GPU's und bringt ein paar Monate später die unbeschnitte Super Variante, teilweise sogar günstiger als die NonSuper, und Nvidia und dessen Boardpartner sind dann noch zu blöd dafür die NonSuper Karten günstiger als die Super Variante zu verkaufen.

Und wo haben wir denn bitteschön 50% Leistungssteigerung bei Nvidia Ampere, es wird so ausfallen, die nicht brauchbare RT Performance wird um 35% ansteigen, die dringend benötige Renderpower wird um 15% steigen, natürlich wird an der Preisschraube wieder gedreht, GPU's verteuern sich, mit der Begründung der Fertigungsprozess ist wesentlich teuer, steigende GDDR6 Preise und und und...

Glaskugel:

RTX 4080ti->1499€ UVP
RTX 4080->999€ UVP
RTX 4070->699€ UVP
RTX 4060->599€ UVP

7 Monate später folgen die Super Karten:

RTX Titan X->2999€ UVP
RTX 4080S->899€ UVP
RTX 4070S->599€ UVP
RTX 4060S->499€ UVP


Für mich ist Nvidia fast schon gestorben mit ihrem überteuerten Turingmüll, zum Glück hab ich mich für eine GTX 1080ti entschieden, die wird noch sehr lange dienen. Erst bei 4k muss man aufrüsten. Das einzige Spiel wo meine GTX 1080ti schlecht ist, ist RDR2, aber das ist ohnehin sehr schlecht optimiert. Raytracing hätte man nie in die GPU implementieren dürfen, eine dedizierte RayTracing Karte wäre eine viel bessere Lösung gewesen, sowie damals mit PhysX, so kann sich jeder Kunde entscheiden ob er gerne den netten RayTracing Effekt möchte oder nicht.
 
Für mich ist Nvidia fast schon gestorben mit ihrem überteuerten Turingmüll, zum Glück hab ich mich für eine GTX 1080ti entschieden, die wird noch sehr lange dienen. Erst bei 4k muss man aufrüsten. Das einzige Spiel wo meine GTX 1080ti schlecht ist, ist RDR2, aber das ist ohnehin sehr schlecht optimiert. Raytracing hätte man nie in die GPU implementieren dürfen, eine dedizierte RayTracing Karte wäre eine viel bessere Lösung gewesen, sowie damals mit PhysX, so kann sich jeder Kunde entscheiden ob er gerne den netten RayTracing Effekt möchte oder nicht.
Solchen Leuten wie Dir, die Turing dummdreist als "Müll" bezeichnen, sollte man sofort alle moderne Technik entziehen und unter Steinzeitbedienungen auf eine einsame Insel packen.

Aus meiner Sicht ist es sehr sehr dumm, einen hochkomplexen Fertigungsvorgang, der immerhin seit über 18 Monaten technologisch in vielen Dingen ein wichtiger Vorreiter darstellt und in der höchsten Ausbaustufe weder von Intel noch von AMD irgendwie ernsthaft geschlagen wurde, so abfällig darzustellen. Das zeugt weder von Vorhandensein von Intelligenz noch Anstand. Das Turing mit Hilfe der Tensorcores auch nebenbei mal so KI und DeepLearning (zusammen mit Googles TPUs) revolutioniert hat, ist wohl entgangen. Aber hauptsache mal dummblöde als tumpes Volk mal seine unsachlich und wirkliche dämliche Meinung in die Welt herausgeblöck.

Daß allgemein die Preise weltweit für Hightech steigen? Schau Dir doch nur mal die Preise von den aktuellen AMD-CPUs an, von Intel mal ganz zu schweigen. Wo ist hier Dein "Aufschrei?". Hier auch eine aktuelle Meldung über den Anstieg von Flash-Preisen.
Preisanpassungen: NAND-Flash koennte 2020 bis zu 40 Prozent teurer werden - ComputerBase
Und wo haben wir denn bitteschön 50% Leistungssteigerung bei Nvidia Ampere, es wird so ausfallen, die nicht brauchbare RT Performance wird um 35% ansteigen, die dringend benötige Renderpower wird um 15% steigen, natürlich wird an der Preisschraube wieder gedreht, GPU's verteuern sich, mit der Begründung der Fertigungsprozess ist wesentlich teuer, steigende GDDR6 Preise und und und...
Ach, Du bist das Zentrum der Welt, oder wie? Meine Güte, muß Dich Deine Mutter zu sehr verwöhnt haben. Andere wie ich sehnen mehr Rechenpower im RT-Bereich herbei. Und es zwingt Dich keiner, diese Karten kaufen. Aber es ist das eine, den Preisanstieg zu kritisieren (der übrigens in allen Bereichen steigt) oder nur einfach dumm eine Technologie abzuwerten, nur weil sie persönlich nicht leistbar ist. Und als kapitalorientiertes Unternehmen würde ich ebenso die Preisschrauben oben halten, wenn ich einen technologischen Vorsprung hätte. Machen alle anderen auch so. Nennt sich ganz einfach Marktwirtschaft mit Angebot und Nachfrage.

Um das Klarzustellen: Ich habe nichts dagegen, daß Dir die Preise nicht passen und Du Dich darüber beschwerst, ich habe was gegen Deine abfällige "Müll"-Bezeichnung.
 
Zuletzt bearbeitet:
Es ist davon auszugehen das NVIDIA sehr genau weiß was AMD entgegen halten kann und seine eigenen Produkte eben auch dementsprechend platziert.
Hätte AMD nichts würde auch von NVIDIA nichts kommen... Warum denn auch.

Zum 1. Ja da hast du Recht beide Hersteller wissen um die Fähig- und Möglichkeiten des anderen.
Nvidea weiß das AMD vermutlich ungefähr 30% auf ihre 2080ti legt und wird deshalb iwas mit min. 50% planen.

Zu 2. spätestens alle 3 Jahre musst wieder mehr Leistung anbieten weil sonst beginnt der Markt sich zu sättigen und deine Verkaufszahlen gehen zunehmend runter.
 
Erstmal muss NV so einen großen Chip mit 754mm² auch mit 7nm+ hinbekommen.
Falls alle Chips rund 1/3 kleiner ausfallen wg. der großen W-Ersparnis dann wirds evtl. schwierig mit der großen Leistungssteigerung 3080ti vs 2080ti.
Evtl. bleibt bei 2060-->3060 die Chipfläche gleich, dann ist dort der größte Leistungssprung möglich.
Man hätte dann ne 2060s-RT-Leistung mit weniger Verbrauch.(x)
oder
Alle Chips bleiben in der Fläche gleich und der Takt wird gesenkt. Dann wäre auch mit weniger Spannung
ne deutliche Einsparung beim Verbrauch möglich.

Es wird auf jeden Fall interessant die Fps/W bzw. Fps/mm² anzuschauen.

edit:
(x) oder die 3060 bringt 50% mehr normale Leistung. Wo müsste die Graka dann in 4k liegen?
Richtig, auf Niveau der 2080s bei weniger Verbrauch, wzbw. (wäre für 499€ nice to have)
Dann sind die größeren Modelle eigentlich nur noch für RT-User erforderlich.
Übrigens ist auch der Vgl. Navi vs Vega interessant bzgl. der Chipfläche, 251 vs 486 =2x Fps/mm².
 

Anhänge

  • CODMW@4k.PNG
    CODMW@4k.PNG
    288,2 KB · Aufrufe: 34
Zuletzt bearbeitet:
Ich spar schon mal für die 3030 Ti Super Phenomenal 6GB.
Die ist dann sicher 5% schneller als meine 1060, verbraucht 5% weniger und gibts´schon für 250 Euros!
Ick freu mir!
Gruß Yojinbo
 
tl;dr: Werde mir keine 1000€+ Karte kaufen, aber wenn ich deutlich mehr als 750€ ausgeben soll, darf es ebenfalls für mich kein Speicherdowngrade sein. Also ein 8GB Kauf wird ebenfalls nicht stattfinden. So viel zu meinen Gedanken, zur zukünftigen Gen von Nvidia. RT ist erst mal, nach wie vor, zweitrangig für mich.




Nun zur langen Version, wer viel Zeit hat, sich meine Gedankensprünge reinzuziehen(nicht unbedingt notwendig). ;) :


Ob die jetzt nun "50% schneller" wird, oder 47,375 %, oder 51,25%", wir werden's erleben. Langsamer als die Vorgänger werden sie wohl nicht. ;)

So lange AMD nichts schnelles zu bieten hat: Fast Null.

Gut dass ich mir das nochmal in's Gehirn brenne, damit ich's nicht vergesse, während der kommenden "Hype-Phase" und somit die Chance auf eine 3080Ti bei meiner nächsten GPU-Aufrüstung, ebenfalls fast Null ist(bye, bye 3080Ti ! :cool: ), da ich einfach nicht die magische 1000€ überschreiten möchte, für so einen Kauf. Das is bei mir ne symbolische rote Linie.
Besser ich sage mir das selber vorher nochmal klar und deutlich, denn der Hype wird wieder extrem werden, über die nächsten Monate und das damit geförderte "haben will Gefühl".

Jetzt wird's für mich speziell dann tatsächlich interessant, ob Nvidia der potenziellen "3080" ausreichend Speicher spendieren wird, denn ein Speicherdowngrade(runter von 11 GB) werde ich ebenfalls nicht mitmachen.
11-12 GB sind daher Minimum für mich, auch für eine "80er", damit es überhaupt ein eventueller Kaufkandidat wird.
Falls die der 3080 nur 8GB spendieren werden, weiß ich nicht, ob das gut für mich ist, da ich dann Geld spare(weil Kauf = Nein, nein ;) ), oder schlecht, da ich keine neue GPU kriege ( = :'( Buäh ! Mehr FPS-haben-will :heul: ).

Im absoluten Notfall muss ich mich wohl daran erinnern, was für ein tolles Custom Modell(leise und kühl) einer 1080Ti ich bereits besitze. :)
Die 4000er Karten werden sicher auch toll.
Oder die 3080 Super mit dann 12 GB Speicher(falls die ersten nur 8GB haben). ;)


Bezüglich der Preise ... keine Ahnung ...

Vor Turing hatte ich mir eigentlich ein Limit von ca. 750€ gesetzt. Bei einer 2080Ti wäre ich evtl. noch bis 850-900€ zähneknirschend mitgegangen, maximal, bei entsprechender Leistung(war aber nix).
Mittlerweile is aber alles irgendwie teurer geworden.

Vielleicht nicht schlecht, sich selber vor dem großen Hype Gedanken zu machen und sich ne Preisgrenze festzunageln.

Nehm' ich mal meine alten 750€ Limit und pack da mal Inflationär einfach 2x3 % drauf. Ähm ... 750 geteilt durch 100 mal 6 .... ähm ... 45€ ? Dazu. 795€ hört sich doof an. Runde ich mal auf 800 auf und geb dann nochmal großzügige 10% oben drauf, wegen der allgemein gestiegenen Preise.
Dann wär' ich bei 880€.

880€ ...
Ups ... ziemlich exakt(fast) genau die Hälfte hab ich für meine CPU ausgegeben. :D

Hört sich eigentlich nach 'nem guten Plan an. Eine 3080Ti werd' ich wohl für 880€ nicht kriegen, geh ich mal von aus.

Was haben denn die 2080 anfänglich gekostet(mal eben gucken gehen) ?
Alter ! Hatten die nicht mehr alle Latten am Zaun ? Da gab's doch einige Custom 2080 die um die 1000€ gekostet haben, zum Start. Eine 8GB Karte ! :stupid:
Aber normalerweise sollte man ein "80er" Modell für bis zu 880€ (oder günstiger) kriegen.
Es soll mal richtig gute "80er" Modelle für 550-650€ gegeben haben. Noch gar nicht so lange her. Und beste "80er" der Pascal gab's eben auch zu 750€ zum Start. Warum soll man bei Ampere nun nicht für sagen wir 800€ ein richtig gutes Modell kriegen !? Sollte drin sein.

Allerdings lege ich mich hier klipp und klar fest: Ein 8GB Kauf wird nicht stattfinden.
Nur mal für mich selbst, als Erinnerung, was für mich gehen würde und was nicht mehr.


Was raytracing (RT) angeht, sehe ich das weiterhin erst mal nur als "nice to have" an, muss aber noch nicht unbedingt. Interessant aus technischer Sicht, auf alle Fälle !
Aber eher noch als Beta-Spielerei. Gut wenn's für den Preis mit dabei ist, aber kein Hauptkaufkriterium. Vielleicht ändert sich das in Zukunft(paar Jahre) dann mal.

DLSS brauch ich z.B. auch überhaupt nicht. Ich spiel native Auflösung und feddich. Normale Kantenglättung reicht.
1440p is da nach wie vor mein Ding. Mag halt allgemein ne Mischung aus höheren FPS und guter Grafik. 4k is mir da noch n Tick zu heavy. Hab gern noch Luft nach oben(bzw. in diesem Fall nach unten, was FPS angeht ;) ).

Herzlichen Dank, für's geduldige Lesen, wer so weit gekommen ist. :daumen:
 
Zuletzt bearbeitet:
Gab doch vor ein paar Tagen die News das big Navi um die 700mm² in 7nm+ kommen soll.

Ansonsten zur eigentlichen News. Wie in der anderen News bereits gesagt muss man bedenken dass Nvidia nicht nur von 12nm auf 7nm+ wechselt sondern auch auf eine komplett neue Architektur. Pascal und auch Turing haben auf Maxwell aufgebaut und Ampere soll ähnlich wie RDNA was komplett neues sein. Wenn wir uns mal an Maxwell zurückerinnern was so ein großer Architekturwechsel bringt, dann wird man sich daran erinnern dass der Mittelklassechip (von der Chipfläche) schneller war als die vorherige High-End Karte. Die GTX980 war mit 398mm² rund 17% schneller als die GTX780 mit 561mm² (30% weniger Chipfläche) bei gleicher Fertigungsgröße (28nm). Wenn man jetzt mal guckt was TSMC zu 7nm und 7nm+ sagt, dann sind es 50% weniger Verbrauch oder 30% mehr Shader für 7nm im Vergleich zu 14nm (Nvidias 12nm sind auch 14nm) und 15% geringerer Verbrauch und 20% mehr Shader für 7nm+ im Vergleich zu 7nm. Aus dem Shrink kann man laut TSMC maximal 30*1,2=36% mehr Shader auf die selbe Chipfläche und selben Verbrauch packen. Aus dem Architekturwechsel kann man 30-40% mehr Leistung erwarten und kommt dann tatsächlich bei einem Monsterchip bei um die 70% Leistungsplus raus bei gleichbleibenden Verbrauch wie die aktuelle Karte. Auf der anderen Seite könnte man den Verbrauch um 50*1,15=57,5% aus dem Shrink verringern und vielleicht nochmal 10% aus dem Architekturwechsel. Also ca. 70% weniger Verbrauch bei gleicher Chipfläche und Leistung. Also entweder 70% mehr Leistung oder 70% weniger Verbrauch. Je nachdem was Nvidias neue Architektur bringt können die Werte auch noch ein Stückchen weiter oben landen um dann auf die 50/50 aus der News zu kommen. Je nachdem wie Navi 2 ausschaut könnte uns eine neue Maxwell bevorstehen wo der kleinere Chip als High-End Verkauft wird (400mm², 15% mehr Leistung bei 50% geringeren Verbrauch als die 2080ti) und der echte High-End Chip dann die 50-70% höhere Leistung bringt, je nachdem was AMD auf den Markt bringen kann.

Big Navi 700? eher 505mm2?

Die Architekturbezogenen Verbesserungen habe ich in meinem Berechnungsbeispiel bewusst ausgeklammert, da man dies
zur Zeit, sowohl für Ampere als auch für RDNA2 noch nicht abschätzen kann, wie viel diese denn sein werden. (Aber min. 10% sind wohl bei beiden realistisch)
Eigentlich ging es mir auch nur darum aufzuzeigen, dass wenn man die aktuellen Karten auf 7nm shrinkt AMD bei Performance pro Fläche nicht schlechter dasteht.

Die von dir aufgeführten Herstellerangaben hören sich auf dem Blatt natürlich toll an, sind aber in der Regel was die Fläche betrifft nur eine "Up to" Angabe.
Was den Verbrauch anbelangt sind ca. 50 -60% bei gleichem Takt sicherlich realistisch, aber von mehr als 60% würde ich nicht ausgehen.
Die Performance bei der selben Leisungsaufnahme wird wohl wirklich um 50% steigen + (10% IPC???) könnten es sogar 60% werden.
Allerdings werden bei den Benchmarks wohl doch nur maximal 40-50% davon ankommen. Je nachdem auch noch weniger wenn das SI limitiert und kein HBM2(E) Speicher verwendet wird.

Es betrübt mich das zu sagen, aber ich stimme dir bei deiner Leistungsprognose zu. Es wird für RDNA2 wohl ziemlich schwierig da gleichzuziehen, oder dies gar zu übertreffen.
Aber man sollte nicht unterschätzen was mit einer neuen Architektur möglich ist. Das Spiel ist erst zu Ende wenn die Karten auf dem Tisch liegen.

Theoretisch:
Fläche:
MI25 (RX64) 495 (14nm) -50% = 247.5 (10nm) -40% =MI60 (VII) = 155 (7nm) Schlussendlich hatte sie 331mm2 (Wenn man dies auf den 7nm+ überträgt, werden wohl auch dort von den theoretischen 20% nicht viel übrig bleiben.)

Performance:
MI25 (RX64) 100% (14nm) +15% = 115 (10nm) +20% =MI60 (VII) = 138 (7nm) +10% 7nm+ = 152%

Laut Datenblatt:
7nm vs 10nm vs 14nm: Fabrication Technology Explained - Tech Centurion

"TSMC’s 10nm node is 2x Denser than their 12nm/16nm. It is also 15% faster and 35% power efficient. The density of TSMC’s 10nm Process is 60.3 MTr/mm²."

The 7nm FinFET Process is 1.6 times Denser than TSMC 10nm’s Process. Also, the 7nm process results in 20% better performance and 40% power reduction as compared to their 10nm technology.

TSMC 7nm+ has a 20% higher density when compared to their 7nm Node. It is their first process that uses EUV (Extreme ultraviolet lithography). However, it will only use EUV in some critical layers. This node allows for either a 10% higher performance or a 15% power reduction.
 
Zuletzt bearbeitet:
Solchen Leuten wie Dir, die Turing dummdreist als "Müll" bezeichnen, sollte man sofort alle moderne Technik entziehen und unter Steinzeitbedienungen auf eine einsame Insel packen.

Aus meiner Sicht ist es sehr sehr dumm, einen hochkomplexen Fertigungsvorgang, der immerhin seit über 18 Monaten technologisch in vielen Dingen ein wichtiger Vorreiter darstellt und in der höchsten Ausbaustufe weder von Intel noch von AMD irgendwie ernsthaft geschlagen wurde, so abfällig darzustellen. Das zeugt weder von Vorhandensein von Intelligenz noch Anstand. Das Turing mit Hilfe der Tensorcores auch nebenbei mal so KI und DeepLearning (zusammen mit Googles TPUs) revolutioniert hat, ist wohl entgangen. Aber hauptsache mal dummblöde als tumpes Volk mal seine unsachlich und wirkliche dämliche Meinung in die Welt herausgeblöck.

Daß allgemein die Preise weltweit für Hightech steigen? Schau Dir doch nur mal die Preise von den aktuellen AMD-CPUs an, von Intel mal ganz zu schweigen. Wo ist hier Dein "Aufschrei?". Hier auch eine aktuelle Meldung über den Anstieg von Flash-Preisen.
Preisanpassungen: NAND-Flash koennte 2020 bis zu 40 Prozent teurer werden - ComputerBase

Ach, Du bist das Zentrum der Welt, oder wie? Meine Güte, muß Dich Deine Mutter zu sehr verwöhnt haben. Andere wie ich sehnen mehr Rechenpower im RT-Bereich herbei. Und es zwingt Dich keiner, diese Karten kaufen. Aber es ist das eine, den Preisanstieg zu kritisieren (der übrigens in allen Bereichen steigt) oder nur einfach dumm eine Technologie abzuwerten, nur weil sie persönlich nicht leistbar ist. Und als kapitalorientiertes Unternehmen würde ich ebenso die Preisschrauben oben halten, wenn ich einen technologischen Vorsprung hätte. Machen alle anderen auch so. Nennt sich ganz einfach Marktwirtschaft mit Angebot und Nachfrage.

Um das Klarzustellen: Ich habe nichts dagegen, daß Dir die Preise nicht passen und Du Dich darüber beschwerst, ich habe was gegen Deine abfällige "Müll"-Bezeichnung.


Und du solltest mal von deinem hohen Ross runter kommen.
Beruhig dich mal, die bist nicht weitaus besser mit deinem geweine hier, ich kann es zwar etwas nachvollziehen aber man muss sich nicht auf das gleiche niveau begeben.
Du solltest echt mal auf deine Wortwahl achten, wie alt bist du 12 ?
Ich geh mal davon aus so lange wie du hier im Forum bist höchswahrscheinlich Ü30.
Wuuzaaa ;P
 
Die MI60 ist ne Workstation-Graka, die man auch net mit Games messen sollte.
(eigentlich ist ja nur durch die soft-beschnittene MI50 die Prosumer R7 entstanden, die viel Ballast hat,
sprich gar net effizient bei Fps/mm² sein kann)

Daher würde ich bei Generationenvgl. eher Vega vs. Navi als reine Consumer heranziehen.
 

Anhänge

  • MI60.jpg
    MI60.jpg
    35,7 KB · Aufrufe: 16
  • MI60-2.jpg
    MI60-2.jpg
    44,4 KB · Aufrufe: 17
Zuletzt bearbeitet:
Erstmal muss NV so einen großen Chip mit 754mm² auch mit 7nm+ hinbekommen.
Falls alle Chips rund 1/3 kleiner ausfallen wg. der großen W-Ersparnis dann wirds evtl. schwierig mit der großen Leistungssteigerung 3080ti vs 2080ti.
Evtl. bleibt bei 2060-->3060 die Chipfläche gleich, dann ist dort der größte Leistungssprung möglich.
Man hätte dann ne 2060s-RT-Leistung mit weniger Verbrauch.(x)
oder
Alle Chips bleiben in der Fläche gleich und der Takt wird gesenkt. Dann wäre auch mit weniger Spannung
ne deutliche Einsparung beim Verbrauch möglich.

Es wird auf jeden Fall interessant die Fps/W bzw. Fps/mm² anzuschauen.

edit:
(x) oder die 3060 bringt 50% mehr normale Leistung. Wo müsste die Graka dann in 4k liegen?
Richtig, auf Niveau der 2080s bei weniger Verbrauch, wzbw. (wäre für 499€ nice to have)
Übrigens ist auch der Vgl. Navi vs Vega interessant bzgl. der Chipfläche, 251 vs 486 =2x Fps/mm².

Was hat Call Of Duty hier mal wieder verloren oder andere Games wo AMD nicht ganz so schlecht performed ? (Bild 3 - Customs)

GTX1080Ti lässt er mal wieder absichtlich weg bzw. hat sie im Test abgewählt da schneller als VII usw. usw.
Was willst du damit bezwecken !? Findest du das selbst nicht ein wenig lächerlich bzw. peinlich ? Unglaublich

Die Testszene ist zudem für die katz (GAmeGPU), hier gibts richtiges Worst-Case :
Call of Duty: Modern Warfare – jaka karta, do jakich ustawie?

Back to Topic:
50% auf die RTX2080Ti wäre schon sehr beachtlich. Ich erwarte von dieser Gen deutlich mehr als von Pascal auf Turing. Es wird sehr schwierig für AMD. Mit Big Navi die in 7nm-Prozess gefertigt wurde kommt man vielleicht auf RTX2080Ti Niveau und das nach fast zwei jahren ! Das ist viel zu wenig und erinnert an die Vergangenheit zb. VII & GTX1080TI oder rx64 und GTX1080.

Ich kann mir nicht vorstellen das Big Navi viel schneller wird als RTX2080Ti, sehe hier höchstens 5% im durchschnitt.
 

Anhänge

  • Screenshot_2020-01-04 Call of Duty Modern Warfare – test wydajności kart graficznych i proc.png
    Screenshot_2020-01-04 Call of Duty Modern Warfare – test wydajności kart graficznych i proc.png
    59,7 KB · Aufrufe: 44
  • Screenshot_2020-01-04 Call of Duty Modern Warfare – test wydajności kart graficznych i proc.png
    Screenshot_2020-01-04 Call of Duty Modern Warfare – test wydajności kart graficznych i proc.png
    60,7 KB · Aufrufe: 40
  • Screenshot_2020-01-04 R6Y0V7Cqyr1RX (JPEG-Grafik, 503 × 458 Pixel).png
    Screenshot_2020-01-04 R6Y0V7Cqyr1RX (JPEG-Grafik, 503 × 458 Pixel).png
    196,8 KB · Aufrufe: 39
Zuletzt bearbeitet:
GameGPU hat mit aktuellen Treibern+Patchs nachgetestet, was von Haus aus erstmal net schlecht ist.(x)

Ansonsten sind mir ein paar fps mehr oder weniger in Review XYZ egal.
Jeder kann ne Szene mit Vorteilen für XYZ heraussuchen.
Das heisst net zwangsläufig das im gesamten Game ne Graka A wesentlich besser sein muss als B.

(x) Wenn der Nachtest BF 5 kommt werde Ich Dich gerne informieren.
Der olle BF1 ist evtl. net mehr zutreffend.

edit: Das Ergebnis von guru3d sollte eigentlich schon mit aktuellem Treiber sein.
 

Anhänge

  • BF5@4k.PNG
    BF5@4k.PNG
    222,5 KB · Aufrufe: 40
Zuletzt bearbeitet:
Und du solltest mal von deinem hohen Ross runter kommen.
Was für ein hohes Ross, wenn man mit Fakten kommt? :schief:
Beruhig dich mal, die bist nicht weitaus besser mit deinem geweine hier, ich kann es zwar etwas nachvollziehen aber man muss sich nicht auf das gleiche niveau begeben.
Mir gehen die Leute einfach auf die Nerven, die etwas als "Müll" bezeichen, nur weil es ihnen zu teuer ist oder sie es sich nicht leisten können. Es ist und bleibt kein Müll! Müll ist das, was weggeworfen wird zur Entsorgung. Sowas würde doch keiner mit einer funktionierenden Turing-Karte tun. Daher ist so eine Aussage unterstes Niveau und einfach nur dumm.

Und wenn Du inhaltlich nichts weiter beitragen kannst, schweig einfach! Nuhr Zitat kann hier helfen.
 
Zuletzt bearbeitet:
Die MI60 ist ne Workstation-Graka, die man auch net mit Games messen sollte.
(eigentlich ist ja nur durch die soft-beschnittene MI50 die Prosumer R7 entstanden, die viel Ballast hat,
sprich gar net effizient bei Fps/mm² sein kann)

Daher würde ich bei Generationenvgl. eher Vega vs. Navi als reine Consumer heranziehen.

Ich hab ja in Klammern dazu geschrieben dass, das Desktop Pendant für die MI60 die Vega VII (Vega 20) und für die MI25 die RX Vega 64 (Vega 10) ist.

Auch die MI25 mit der verglichen wurde ist eine Workstation-Grafikkarte aber ich habe auch die jeweilige Desktop Variante herangezogen.
Einen besseren Vergleich gibt es nun mal nicht.
Vega mit Navi ist wie Äpfel mit Birnen zu vergleichen, da können so gut wie keine Rückschlüsse über den Prozess gemacht werden.
 
GameGPU hat mit aktuellen Treibern nachgetestet, was von Haus aus erstmal net schlecht ist.

Ansonsten sind mir ein paar fps mehr oder weniger in Review XYZ egal.
Jeder kann ne Szene mit Vorteilen für XYZ heraussuchen.
Das heisst net zwangsläufig das im gesamten Game ne Graka A wesentlich besser sein muss als B.

Du wählst absichtlich karten wie die GTX1080Ti aus der Liste (GameGPU), weil die GPU vor der VII landet. Das machst du leider immer so wenn du Screenshots von benchmarks postest.Was soll das ?

Bei CB wählst du zb. alles ab was auf NVIDIA besser performed
Sorry, aber ich finde das schon besorgniserregend, ganz ehrlich.

Was willst du damit bezwecken, antworte mir doch mal kurz ?
btw.
GameGPU hat ein paar AAA-Titel mit neuen treibern getestet aber das ist hier nicht das Thema.

Der folgende Thread ist passender :
Nvidia Geforce-Treiber: Kostenlose Leistungssteigerung 2019 von bis zu +20 Prozent im Benchmark-Test

Edit :
Pascal hat im übrigen am meisten von neuen Treibern profitiert, siehe Rage 2 (Vulkan) und Metro Exodus (DX12)
 

Anhänge

  • Screenshot_2020-01-04 Nvidia Geforce-Treiber Kostenlose Leistungssteigerung 2019 von bis zu +20 .png
    Screenshot_2020-01-04 Nvidia Geforce-Treiber Kostenlose Leistungssteigerung 2019 von bis zu +20 .png
    58,8 KB · Aufrufe: 57
  • Screenshot_2020-01-04 Nvidia Geforce-Treiber Kostenlose Leistungssteigerung 2019 von bis zu +20 .png
    Screenshot_2020-01-04 Nvidia Geforce-Treiber Kostenlose Leistungssteigerung 2019 von bis zu +20 .png
    60,2 KB · Aufrufe: 51
Zuletzt bearbeitet:
I
Vega mit Navi ist wie Äpfel mit Birnen zu vergleichen, da können so gut wie keine Rückschlüsse über den Prozess gemacht werden.

Nur ist wg. der FP-Leistung die MI60 auch ganz anders als die MI25 von der Arch., kommt noch das I/O dazu.

Da Ampere ja net nur den Prozess sondern auch die Arch. wechselt , dachte ich halt an so einen Sprung wie bei Navi.

@derrman
Könntest Du es bitte unterlassen aus jedem Thread einen Wettkampf der Farben zu machen.
Hier gehts um vermutliche Performance mit Shrink in der Fertigung.
und
Ampere sollte ja deutlich mehr leisten können als die poplige FHD-Auflösung in ME.(= Null Relevanz)
Mal schauen, ob ne 3080Ti dann 50fps schafft in 4k, wohlgemerkt OHNE das schöne neue RT.
 

Anhänge

  • ME@4k.PNG
    ME@4k.PNG
    26,1 KB · Aufrufe: 20
Zuletzt bearbeitet:
...

Wie wahrscheinlich ist es, dass eine 3080Ti unter 1000€ kosten wird ? Vor allem da ja doch einige bei der 2080Ti zugeschlagen haben, mit Signalwirkung: "Hey Nvidia ... der Preis is ok !".
...

So lustig, die ganzen
Ti user ,
Apple Watch Träger
und Magnat Hifi Anlagen Nutzer hier.
Aber was solls, welche raytrays euch auch immer aus den SUVs von der Straße holen, Daumen hoch.
Vergesst nicht, drei Monate später kommen sogar noch schnellere weniger kastrierte Super Versionen raus.
 
Zurück