News Nvidia Blackwell soll angeblich in 3 nm 2024 kommen [Bericht]

Na dann bin ich gespannt was die beiden anderen Riesen noch aus dem Hut zaubern werden?
Die roten haben ja den neuen Gaming Manager bekommen.
Ich hoffe die schlafen nicht wie es im Artikel umschrieben wird.

Die Schlafvermutung ist bei AMD leider omnipräsent. Vielleicht gibt es dort ja bald mal ne Kaffeemaschine um die Produktivität zu steigern, würde ihnen gut tun.
 
VEGA VS Pascal
Vega64 auf GTX1080 Niveau vs GTX1080TI
Ca 30% Leistungsunterschied zugunsten Nvidia...
Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere eher ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...

@VCMI , @raPid-81 , @owned139

An die drei von der Tankstelle : Ja, die Wahrheit ist manchmal eine bittere Pille ... :D
 

Anhänge

  • GPU Bench Vega.jpg
    GPU Bench Vega.jpg
    392,4 KB · Aufrufe: 45
Zuletzt bearbeitet von einem Moderator:
Der AD104 (4070, 4070Ti) hat 35,8 Milliarden Transistoren, wobei die 4070 ca. 25% der Einheiten abgeschalten hat, was eine "Nutzlast" von 27,4 Milliarden Transistoren ergibt.

Die 7800XT von AMD hat, wie es der Teufel so will, 28 Milliarden Transistoren.

Das macht die aktuelle Technologie von AMD und Nvidia doch sehr gut vergleichbar. Daran kann man sehen, dass AMD mehr in Richtung Raster gewichtet ist und dort vorne liegt und Nvidia eben auf RTX und Tensor Kerne setzt. Das sorgt dafür, dass beim Rastern Teile des Nvidia Chips stillstehen und damit kommt der Rückstand zustande. Bei Raytracing macht sich jedoch die spezialisierten Kerne bemerkbar und AMD verliert wieder an Boden. Es ist nicht so leicht zu sagen einer der Chips wäre fundamental besser, sie sind eben unterschiedlich gewichtet.

An der Stelle würde ich die Entwicklung von AMD freisprechen, die haben ihren Job gemacht.
Dann kommt der Verkauf und ruiniert diese Karte. Erstens, sie wird als 7800XT vermarktet, zweitens mit dem Preis von knapp unter 600€ ist die Preis/Leistung bei Raytracing richtig miserabel im Vergleich zur 4070 und vom dem Plus an Raster scheint man sich nicht so viel zu kaufen können.

Eigentlich hätte AMD die 7600XT und die 7700XT veröffentlichen müssen, aber sie haben ganz dreist beiden Karten ein +100 im Namen gegeben und ein +100€ im Preis. Und ja, Nvidia verkauft seine 28 Milliarden Transistoren Karte auch für 600€ und da sind wir uns doch auch einig, dass es 100€ zu viel sind. Man kann AMD und Nvidia halt nicht zum konkurrieren zwingen und derzeit scheinen sie das gar nicht zu wollen.

Als Resultat sehe ich, dass Nvidia die hoehn Preise beibehält, der KI Hype sorgt dafür, dass sich keiner für schlechte Gaming-Verkäufe interessiert und wenn 3nm kommt und die Gerüchte stimmen, dann hat AMD eh nichts oberhalb der Leistung einer 5070 und die Preise bleiben was sie sind.
 
dann hat AMD eh nichts oberhalb der Leistung einer 5070 und die Preise bleiben was sie sind.
Geschickte Aufteilung des Consumer Markts würde ich das mal nennen wollen. AMD greift den Entry und Mid Tier Level Markt ab. NVidia verdient sich dann weiterhin eine goldene Nase im "Highend Segment". In die Quere kommt man sich dann bis auf weiteres nur bei den "KI Beschleunigern" im Data Center Bereich. Ein Schelm ist wer sich böses dabei denkt...
 
Das macht die aktuelle Technologie von AMD und Nvidia doch sehr gut vergleichbar. Daran kann man sehen, dass AMD mehr in Richtung Raster gewichtet ist und dort vorne liegt und Nvidia eben auf RTX und Tensor Kerne setzt. Das sorgt dafür, dass beim Rastern Teile des Nvidia Chips stillstehen und damit kommt der Rückstand zustande. Bei Raytracing macht sich jedoch die spezialisierten Kerne bemerkbar und AMD verliert wieder an Boden. Es ist nicht so leicht zu sagen einer der Chips wäre fundamental besser, sie sind eben unterschiedlich gewichtet.
Immer wieder schön zu sehen, dass der alte Trick mit der Brechstange immer noch funktioniert, weil die wenigsten Leute den Verbrauch mit einbeziehen. Und genau deswegen macht AMD das auch hier.

Du vergisst bei der Story halt, dass die 7800 XT glatte 50 Watt mehr verbraucht als die 4070. Gleiche den Verbrauch der beiden Karten an, und der AMD-Raster-"Vorteil" ist.. weg. Nvidia ist in allen Disziplinen vorne. Es ist so einfach wie traurig. Nvidia könnte natürlich auch den Verbrauch erhöhen und AMD auch offiziell schlagen, aber sie lassen AMD grade genug Luft zum Atmen. Die Gründe kann sich jeder selbst ausmalen.
 
5000er oder, falls der Leistungssprung nicht groß genug ist, 6000er NV, könnte für mich auch interessant werden. Dann sollte RT so weit sein, dass es auch für mich interessant werden könnte.
 
Zuletzt bearbeitet:
Die gpc und tpc sollen sich nicht ändern also faktisch geht man den Takt Weg
Sprich mehr sm im high end ich nehmen an das gb203 dann 168sm hat also 16 gpc
Derzeit sind es 12gpc (144sm)

18gpc sollten dann der voll Ausbau des gb202 sein
Was bei 3,2ghz maximal reale 121tf wären (176tf nvidia Angabe)
Das wird es am desktop nicht geben

Also wird gb203 ne 90er sku 144sm aktiv von 168sm also 144 *3,2*88*2=81,1tf (117tf) vs aktuell 64tf (91tf)) = +26%
ich sehe aber eher das nvidia zuerst gb205 mit 8 gpc 84sm aktiv von 96sm (47tf ) als 80 ti er sku bringt +27%
folgend den gb206 mit 4gpc 36sm (20tf) als 60ti er +15%
und gb207 24sm (13,5tf) als 50er +70% vs rtx3050

Das wäre genauso enttäuschend wie ada sku Planung bisher.
Im übrigen wird zeitgleich auf gddr7 24gbit umgestellt was das si um nen viertel kürzt

gb207 24rop 96bit 9gb (von 128 auf 96bit) rtx5050 sku ab 330€ 13,5tf (19,6tf)
gb206 48rop 128bit 12gb (das si bleibt gleich) rtx5060 ti sku ab 500€ 20tf (32tf)
gb205 64rop 192bit 18gb (von 256 auf 192) rtx5080ti sku ab 1000€ 33tf (45,8tf)
gb203 96 rop 256bit 24gb (von 384 auf 256) rtx5090 sku ab 1500€ 47tf (78tf)
Und das mit 36gbps
 
Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
VEGA64 war anfangs sogar langsamer (5%) und knapp 100€ teurer und schwerer verfügbar als die GTX1080. (Deswegen brachte man ne GTX1070TI)
bis das AMD die Treiber in den Griff bekommen haben hat es über ein Jahr gedauert so das man nacher vielleicht 5-7% schneller war.. und das bei bedeutend höheren verbrauch... (sieht man an deinem Vergleichsbild das dort Vega64 und GTX1080 gleich auf sind)
Zwischenzeitlich hatte Nvidia bereits Volta rausgebracht und viele Spielengines und Benchmark Parkoure sind von DX11 auf DX12 gegangen was der VEGA besser geschmeckt hat. ( Der sogenannte Poor Volta finewine)

Die Vega56 war schneller als die GTX1070 ja aber ich rede hier vom AMDs Vollausbau.... nicht deren runtergeschnibbelten Chips.
Vega56 war zur VEGA64 anders abgestuft als die GTX1080 zur GTX1080TI hin.
Man kannte die Leistung der GTX1070 seit Monaten (weil sie da bereits so lange auf dem Markt war) und hat die VEGA56 bewusst so kastriert das sie noch schneller war.

Die RX580/590 waren nur an die kotzgrenze übertaktete RX480er die on pair mit der GTX1060-6G war .. zu Lasten des Stromverbrauchs.

Erst mit dem Nodeshrink der VII (vega2) war man mit der GTX1080TI Konkurrenz fähig was Performance angeht bei immer noch höheren Verbrauch. Zwischenzeitlich war aber bereits Touring auf dem Markt und die VII musste sich genauso wie die RX5700xt (die nur wenige Monate danach Released wurde )mit der RTX2080TI vergleichen.. die gute 30% schneller war



Bis heute sind viele VEGA Features die angekündigt würden (primitive shaders ect) nicht umgesetzt worden und in Vergessenheit geraten.

Ja Ampere war ein Totalausfall was den Stromverbrauch anging weil man auf Samsung als chipfertiger gesetzt hat..
Mit TMSC wäre man entweder leistungsfähiger oder Sparsamer gewesen
Nur durch diese schwäche konnten die RX6000er überhaupt mit Ampere in Rasterleistung konkurrieren. Raytracing hing man noch auf RTX2080TI leistung

Jetzt bei den RX7000 hast du halt wieder den Moment wo der RDNA Vollausbau so gerade auf gleichen Level wie die zweitstärkste Karte RTX4080 ist in Rasterleistung.. und Raytracing auf dem Level der RTX3090
Bei bedeutend höheren Verbrauch.. wärend die RTX4090 da noch ordentlich einen drauf legt an Leistung. (Und nichtmals ein Vollausbau ist da geht noch mehr wenn man's gewollt hätte)


Es sind aber auch mittlerweile die Software lösungen die massiv hinterher hängen.. FSR-Q entspricht DLSS-P/B und man kommt mit DLSS bedeutend tiefer von der Renderauflösung bevor es anfängt kacke auszusehen und kann so bei ähnlicher Bildqualität im upscaling Fall gute 20-25%mehr FPS generieren.
Framegen ist mittlerweile seit einem Jahr erprobt und finetuned sowie in vielen Spielen mit Erfolg integriert.. wärend wir immer noch auf die ersten Spiele mit FSR FMF warten zum vergleichen.. in der HOFFNUNG das es was taugt.
Allein deswegen kann man im Moment keine AMD Karte empfehlen.. auch wenn sie etwas günstiger ist.
Vorallem da immer mehr Spiele mit Raytracing und Framegen rauskommen (egal was man davon halten mag)

Kein Publisher kann es sich leisten FSR FMF only ohne DLFG zu integrieren ..nicht nach dem Shitstorm den wir bei starfield gesehen haben
 
Zuletzt bearbeitet:
Der AD104 (4070, 4070Ti) hat 35,8 Milliarden Transistoren, wobei die 4070 ca. 25% der Einheiten abgeschalten hat, was eine "Nutzlast" von 27,4 Milliarden Transistoren ergibt.

Die 7800XT von AMD hat, wie es der Teufel so will, 28 Milliarden Transistoren.

Das macht die aktuelle Technologie von AMD und Nvidia doch sehr gut vergleichbar. [...]
Hier begehst du leider einen signifikanten Denkfehler. Die 7800XT ***) nutzt und hat insgesamt 36,3 Mrd. Transistoren. Was du dagegen berücksichtigt hast ist ausschließlich das GCD und das bringt alleine nichts zu Wege. ;-)
Zudem, beim AD104 für bspw. die RTX 4070 rd. 25 % Transistoren rauszurechnen ist ebenso verfehlt, da die abgeschalteten SMs keinen entsprechenden Anteil an der Gesamttransistorzahl des Chips haben. Das funktioniert so schlicht nicht. Und man könnte bspw. korrigierend überlegen einen weiteren kleinen Teil rauszurechnen, wenn man reine Grafikleistung betrachten will, d. h. man könnte den größeren Teil der funktional über die Generationen immer weiter gewachsenen Tensor Cores rauszurechnen versuchen. Das ist alles nicht so trivial.

Am Ende kommt man jedoch zu dem Schluss, dass nVidia grob betrachtet mit vergleichbarer Transistorzahl deutlich mehr abliefert als AMD es vermag.

Was eine solche Betrachtung am Ende jedoch bringen soll ist eine andere Frage. Die veröffentlichten Produkte sind wie sie sind, da helfen keine Was-wäre-wenn-Spielchen und wie in der Vorgeneration auch muss AMD primär seine GPU-Produkte über den Preis verkaufen um die Defizite i. V. z. Grafikplatzhirsch zu kompensieren.
Letzten Endes auch gut so, denn so gibt es ein breites Marktangebot in allen Preisklassen und man ist nicht nur dem Marktführer ausgeliefert.


*) Viel einfacher ist da der Vergleich gegen die RTX 4070 Ti als dem Vollausbau des AD104. Hier braucht man nichts zu versuchen rauszurechnen. Der AD104 hat fast genau so viele Transistoren wie AMDs Design, ist leistungstechnisch auf Augenhöhe (mal schneller, mal langsamer im Rasterizer), ist generell deutlich effizienter und bringt darüber hinaus noch viel mehr Leistung und Funktionalität in anderen Bereichen mit, so weitaus stärkeres Raytracing, höhere und weitaus funktionsreicheren ML-Durchsatz, Spezialfunktionen wie SER **), etwas bessere Videoengines (bzgl. Qualität aber auch mehr En-/Decoder), bspw. die Optical Flow Engine, usw.

**) SER und der höhere RT-Durchsatz sind zudem nicht das Gleiche. Die RT Cores haben einen grundsätzlich höheren Durchsatz, so deutlich gesteigert ggü. der Ampere-Generation. SER steigert diesen bei umfangreicher RT-Nutzung weiter durch ein Shader Reordering, auch eine Funktionalität, die bisher nur sehr wenige Titel implementiert haben, da sie implementiert werden muss als eigene Render Stage in der Pipeline, so u. a. von Cyberpunk, was dessen Pathtracing überhaupt erst ermöglicht, während RDNA3 hier komplett einbricht.
Hinzu kommen hier bspw. noch weitere Funktionen wie die Opacity Micromap Engine und die Displaye Micro-Mesh Engine, die derzeit noch brach liegen, da bisher kein mir bekannter Titel diese nachträglich implementiert hat, da auch diese in der Render Pipeline explizit genutzt werden müssen, d. h. hier liegt noch weiteres Potential für kleinere Leistungssteigerungen in der Architektur.
nVidia ist hier nicht ohne Grund der Marktführer ... dass das denen eine "großzüge" Preisgestaltung ihrer Produkte ermöglicht ist leider die Kehrseite der Medaille.

***) Das "T" als Tippfehler nachträglich ergänzt, da es offensichtlich wenig Sinn ergibt eine CPU mit einer GPU zu vergleichen, auch wenn so manchem da der Horizont zu fehlen scheint, um diesen trivialen Tippfehler erkennen zu können. ;-)
 
Zuletzt bearbeitet:
Das hat AMD bereits offiziell gemacht.
ah ist dem so? Ich dachte das sind bislang nur (mehrfach genannte) Gerüchte - hast du dazu eine Quelle?

Haben sie das jetzt offiziell gemacht?

Bisher waren das nur Gerüchte, ich hätte da gerne eine Quelle.
Hab deinen Beitrag leider erst später gelesen ;)
Ontopic: Digitimes war bisher immer ganz gut informiert wenn ich mich richtig erinnere. Ist trotzdem die Frage welches Gerücht stimmt, "Blackwell erst 2025" und "Apple hat fast das gesamte 3nm Kontingent reserviert" gab es ja auch bereits. Wäre natürlich wünschenswert wenn der 2-Jahres-Rhythmus bleibt, ich würde gern nächstes Jahr aufrüsten.
CB hat das etwas ausführlicher beschrieben und geht auch auf die Verzögerungen im 3E Prozess ein, im Prinzip wird 2024 wohl eher "sportlich", ich würde eher mit mitte 2025 rechnen, vor allem weil hier der HPC Chip mit Gamingchips gleichgesetzt wird, aber ersterer kommt wohl deutlich früher https://www.computerbase.de/2023-09...-von-nvidias-b100-bis-qualcomms-next-gen-soc/
Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
Ja, sie waren aber eigentlich gegen die 1080Ti geplant
 
Zuletzt bearbeitet:
Du vergisst bei der Story halt, dass die 7800 XT glatte 50 Watt mehr verbraucht als die 4070. Gleiche den Verbrauch der beiden Karten an, und der AMD-Raster-"Vorteil" ist.. weg. Nvidia ist in allen Disziplinen vorne. Es ist so einfach wie traurig. Nvidia könnte natürlich auch den Verbrauch erhöhen und AMD auch offiziell schlagen, aber sie lassen AMD grade genug Luft zum Atmen. Die Gründe kann sich jeder selbst ausmalen.

Ich sehe da einen "Nachteil" des Chiplet Designs. Wo Nvidia komplett in 5nm fertigt, hat AMD nur die Recheneinheiten in 5nm und den Rest in einem gröberen Prozess. Dieser gröbere Prozess wird mehr Strom verbrauchen, das liegt in der Natur der Sache. Der Stromverbrauch einer GPU besteht ja nicht nur aus Rechnen, über 50% des Stromverbrauches geht damit drauf, dass Daten von A nach B kopiert werden. Gerade da ist AMD nicht auf 5nm und wird daher mehr Strom brauchen. Mit einem teilweise 5nm Chip gegen einen Komplett-5nm Chip anzutreten und den gleichen Stromverbrauch zu erwarten war immer aussichtslos für AMD.

Wir sind es halt nicht gewohnt, Multichip so wahrzunehmen, einfach weil Intel in der Fertigung zuletzt recht weit hinter AMD war und Multichip mit verschiedenen Strukturbreiten von AMD immer gut gegen ein rückständiges Intel ausgesehen hat. Da wird in naher Zukunft die 14. Generation von Intel einige Wahrnehmungen gerade rücken.

Ob ein Chip später sehr hoch takten wird ist etwas das schon im Design berücksichtigt werden muss. Jeder TSMC Prozess hat sein Limit was Energiedichte angeht. Salopp gesagt, zu viele Rechenkerne auf einem Fleck und die Taktrate sinkt. Das ganze Design etwas entzerren und man kann jeden Kern höher Takten. Genau letzteres macht das Chiplet Design und der Infinity Cache beim monolithischen Design von AMD. Ich sehe da keine Brechstange die in letzter Minute rausgeholt wird, seinen Zieltakt muss man schon in der Entwicklungsphase planen.


*) Viel einfacher ist da der Vergleich gegen die RTX 4070 Ti als dem Vollausbau des AD104. Hier braucht man nichts zu versuchen rauszurechnen. Der AD104 hat fast genau so viele Transistoren wie AMDs Design, i]...}

Quelle Vollausbau AD104 = 36 Milliarden

Quelle Transistorcount 7800XT: 28 Milliarden

Ergebnis: man kann den Vollausbau des 104 nicht mit 7800XT gleichsetzen, da der AD104 mehr Transistoren hat. Nur der Cutdown spielt in der ähnlichen Liga aktiver Transistoren.
 
Ihr habt Recht, waren nur Gerüchte bezüglich "kein High End bei RDNA4". Ich dachte ich hätte da einen offiziellen Tweet zu gelesen, waren aber nur welche von den bekannten Leakern.
 
Das einzig überraschende für mich ist, dass Nvidia Blackwell nicht Hopper Next hinten anstellt, wie schon befürchtet wurde.
TSMC wurde ja von der 'can it run Crysis' Lederjack schon bestätigt und ein 3N Prozess sehe ich als gesetzt an. Irgendwie muss man ja mehr als 80 Millarden Transitoren auf Hopper Next bekommen, was alleine physisch ohne dichteres Packen so nicht bei nem 814 mm² Die möglich wäre. Ja, genau ich gehe momentan davon aus, dass Hopper Next 100 und somit wohl auch Blackwell BW102? noch große monolithische Chips sein werden. Vlt. sind es die letzen großen monolithischen Nvidia Chips überhaupt, sollte TSMC beim 2nm Prozess schon auf High-NA setzen werden. Danach schaut es momentan aber nicht aus, da ASML wohl Ende dieses Jahres die erste serienreife High-NA Maschine überhaupt an Intel ausliefern wird. TSMC wird nächstes Jahr bedient aber diese Maschinen sind in erster Linie für R&D gedacht. Die Maschinen für die Massenproduktion sollen ab 2025 ausgeliefert werden, sofern es keine weiteren Verzögerungen geben sollte... (ASML und keine weitere Verzögerung. 3x auf Holz klopf... Ist halt Cutting Edge Stuff im wahrsten Sinne des Wortes.) Und TSMC will ja wohl Ende 2025 schon die Massenproduktion in N2 starten...
 
Schwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere ein Totalausfall).
Totalausfall würde ich dazu nicht sagen.

Ich meine eine 3080 war mit 320W ja quasi genau so gut unterwegs, wie eine 6800XT bei 300W. Auch die 3090 gegen eine 6900XT sah nicht so schlecht aus.

Ja, die 3090ti war natürlich im Prinzip ein Verbrauchsausfall ;)
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070
Das ist ja theoretisch süß, aber als ich damals meine 1070 gekauft hatte, ging es um Fury, oder Pascal.

Fury war 9 Monate alt, als Pascal den Markt erreicht hat und erst 15 Monate später erreichte Vega den Markt. Vega musste schneller sein, alles andere wäre ein noch größerer Witz gewesen.

Hoppla, Fine Wine Vega 64 war zu Release sogar 8% langsamer als die GTX1080. Vega 56 und die GTX1070 hatten einen Patt.

Vega 64 hat 120W mehr als die 1080 verbraucht und die Vega 56 noch 45W mehr als die 1080 und 68W mehr als die 1070.

Das kann eigentlich alles nicht schön reden. Wega hatte seine Sternstunde im Abverkauf. Da gabs die echt super billig.
und VII in etwa gleich schnell als die GTX 1080Ti
Meine nur beim Cherrypicking
, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Nochmal, die 1070 war günstiger als jede Fury beim Kauf. Dann war selbst Vega56 jahrelang nicht schneller. Erst als die 1070 echt zur Rentner Gen gehörte häuften sich die Benchmarks, in denen eine V56 spürbar schneller war und das immer noch bei deutlich höherem Verbrauch. Und das quasi als Gen nach Fury und Pascal.
Durstig und zu spät, ja das waren sie ...
Ich persönlich finde das nach der R9 290X kaum noch was kam bei AMD. Alles immer zu spät, zu durstig, zu lahm (neuste Feautres usw)

Quelle zu Fury/Vega/Pascal


Das Fazit aus dem Test
"Die Radeon RX Vega 64 scheitert folglich daran, die Geforce GTX 1080 Founder's Edition zu entthronen; die Nvidia-Grafikkarte liegt zwar immer wieder in Schagdistanz, im Mittel ist sie jedoch schneller. Das Duell Radeon RX Vega 56 gegen Geforce GTX 1070 Founder's Edition geht hingegen unentschieden aus: Mal führt die eine, mal die andere Grafikkarte. Schaut man nur auf die Spiele-Benchmarks, fährt die GTX 1070 einen hauchdünnen Vorsprung ein, während die Vega 56 mit einer besseren OpenCL-Leistung punktet."
 
Totalausfall würde ich dazu nicht sagen.

Ich meine eine 3080 war mit 320W ja quasi genau so gut unterwegs, wie eine 6800XT bei 300W. Auch die 3090 gegen eine 6900XT sah nicht so schlecht aus.

Ja, die 3090ti war natürlich im Prinzip ein Verbrauchsausfall ;)
Meine nur beim Cherrypicking
Es ging/geht ihm (dem Vorposter) um die LEISTUNG !
Verbrauch Außen vor. Hab ich ja erwähnt, dass Vega zu durstig war/ist.

Beim Verbrauch hat Navi 21 (6000´er) ggü. Ampere undiskutabel das bessere FPS/Watt/€ Verhältnis.

Und beim Bench (Anhang) mit 20 Games in 4 verschiedenen Auflösungen (100 vs. 101 % / VII vs. 1080Ti) da von "nur bei Cherrypicking" zu reden ist auch irgendwie :banane:
 
Zurück