Geforce RTX 3000: Analyst will Ampere-Termine kennen, Nvidia hat keine Eile

Aber der Kunde hat natürlich nichts davon, wenn Big Navi dann mit einer 3060 kämpfen muss.

Erstens, freut es mich ein jedes mal, wenn Dein Post mit "ich dachte" anfängt. Weiter so, irgendwann wird es schon werden … ;-)

Zweitens, könnte es evtl. daran liegen, dass Big Navi mit Deiner 3060 in der selben Preisklasse spielen wird ?!?

MfG, Föhn.
 
mmh mir egal wie der Kunstoff heißt und was er verbraucht...AMD, Intel, Nvidia völlig Banane! Wenn die nicht wenigstens 40% als Durchschnittswert auf die 2080TI Packen und einen Realistischen Preis dazu muss die olle 1080Ti noch 2-3 Jahre die Fahne halten. Geld ist ausreichend da, der kauf wille ist überfällig. Aber mit 1000€+ den Kunden an der Nase herumführen nur für die Bilanz. Und eine noch zu Teure und platzverschwendende Technologie mit kaum sichtbarem Mehrwert aber imensem Leistungsverlust... Das müssen erstmal Millionen andere kaufen da ist mein Geld mehr wert. Keine Eile...Lächerlicher Typ!

Aber AMD ist ja auch nicht unbedingt für billig GPU´s bekannt... das heißt wenn "big-Navi" etwa um eine 2080Ti rum schwiert +- wird die auch sicher nicht unter 1000€ zu haben sein.
Nur das RT, Softwareseitig gelöst wird und kein Platz dafür verschwendet wird ist ein Vorteil
 
Zu allen derzeit überteuerten Features muss ich sagen:

HDR ist ein absoluter Augenschmaus wenn es 1000 nits sind.
DLSS ist mittlerweile wirklich gut aber nur in 4k
RTX sieht im laufenden Spielen wirklich toll aus.

Spielen gerade Shadow of the Tombraider in 4k + RTX-ultra/DLSS + HDR 1000
Es läuft sehr gut und gerde im Dschungel katapultiert RTX und HDR das Bild auf ein völlig neues Level...obwohl SoT *nur* RTX-Schatten hat.
Ich dachte anfangs auch ...was n Kackfeature...aber jetzt...WOW-Effekt.

Preislich wird Ngreedia uns knechten bis hoffentlich Intel dem Möchtegern-Apple-Verein auf den Boden zurückholt.
Vor der nächsten GPU hol ich mir lieber erstmal ne Next Gen Konsole... die bieten eh die unterhaltsameren Titel.
 
Spielen gerade Shadow of the Tombraider in 4k + RTX-ultra/DLSS + HDR 1000
Es läuft sehr gut und gerde im Dschungel katapultiert RTX und HDR das Bild auf ein völlig neues Level...obwohl SoT *nur* RTX-Schatten hat.
Das Problem ist nur - es ist KEIN 4k. Nur deshalb läuft es. Es ist irgendwas um 1440p. Ein Scaler der dieses Sampling nicht mag - zeichnet Dir Matsch auf den Schirm. DLLS x2 kommt nirgends zur Anwendung und damit auch kein Upsampling sondern Downsampling das man aufwendig filtert.
 
Solang es kein bezahlbare 32" 4k@120hz Monitore gibt(bezahlbar und nicht zu nem Preis von nem Jagdgewehr welches recht wertstabil ist) rüste ich nicht auf ,
Die aktuellen Games was mich jucken laufen alle noch CuC kommt erst noch und rest kann warten. So kann man die Gierabteilungen in den Konzernen am besten ausbremsen, aber die Menschheit ist ja so verblödet und angefixt durch das Marketinggelaber inzwischen (bestes Beispiel die verhurten Fanboys überall) das die Industrie inzwischen machen kann was se will, die deppen kaufens doch so oder so.
Ich Arbeite in der industrie und Beobachte meine Psychokollegen vom Marketing jeden tag beim BlaBla und Kaffee saufen. Die meisten ham Psycho studiert und wissen scho wo se beim Kaufvieh ansetzen müssen.
Desswegen Kauft BMW nur BMW ist gut alles andere ist kacke und nur BMW ist es gelle HaHa
Ich fahr nen Dodge RAM haha
 
Er meint wohl den Produktivzuwachs.

Er sprach von Leistung.

Aber Einheitenzuwachs und Effizienzzuwachs in gleicher Höhe ist fast zu unmöglich

Dann ist in der Geschichte desöfteren schon so einiges unmöglich gewesen, zumal niemand von Einheitenzuwachs sprach.
Es kann genauso auch der Takt steigen und nur begrenzt mehr Einheiten geben.
Du hast in Post#41 aber beides mit +50 Prozent angegeben. Ist mMn zuviel..

Für einen Full Node ist das nicht zu viel. 50% schneller bei gleicher Leistungsaufnahme, was gleichbedeutend mit 50% effizienter ist, ist für so große Fertigungssprünge üblich.

und später schreibst Du dann nur noch 50 Prozent - bei gleichem Energiebedarf. Du widersprichst Dir damit selbst.

Gleicher Energiebedarf bedeutet halt auch 50% effizienter, ist dasselbe.
50/50 ist klar zu hoch gegriffen.

Nein, ist es nicht.

Ampere wird nichts weiter sein als ein weiterentwickelter Volta...

Achso und jetzt dachte ich, es ist eigentlich nur ein G80 aus 2006.

Wie man nVidia kennt wird die 3080 leicht unter der 2080ti liegen

Das kann man ausschließen. Bei dem Prozessvorteil sind wie gesagt eher +50% drin und nicht~ 20%.
Mit der Schätzung aus dem AMD Fan-Lager wirst du auf die Nase fallen.
Dann wird wohl Big Navi auch nur so schnell wie ne 2080, wenn man sich an deine Maßstäbe hält, neo.
 
@gastello
Quatsch von einem Clown. N7 FEOL bringt 7% und N7 MOL 10% höhere Effizienz. N7+ eine bis zu 18% höhere Packdichte. Das wars. +50 klar. +1000 hört sich noch besser an. Das wird richtig teuer weil man Lacke und Laser unter N7+ nicht mehr weiter verwenden kann. Die Yield liegt bei kleinen Handy SKUs um 70%, dass muss aber auf dGPUs noch lange nicht zutreffen. Den Durchbruch bringt erst N5+ und was das kostet ist Schwindel erregend.

Er wird nur umhereiern, behaupten was er alles nicht geschrieben hat und worum es ihm nicht ging. Gesülze mehr nicht.
 
N7+ eine bis zu 18% höhere Packdichte.
Wenn man derzeit von 20-25 Prozent Gesamtfläche für die RT Cores ausgeht - könnte nVidia mehr RT Cores auf das Design packen und auch mehr Shader bei höherem Takt (7nm+). 50 Prozent werden es sicher nicht - aber die 25-30 Prozent bei gleichhoher Effizienz könnte man gut schaffen - wir wissen ja die Größe nicht (Diesize mm²?). Reicht ja auch - wenn AMD nicht deutlich schneller herauskommt. Die werden sicher die TI angreifen.

PS: 550mm²? Was würde sowas kosten?

Dann wird wohl Big Navi auch nur so schnell wie ne 2080, wenn man sich an deine Maßstäbe hält, neo.
Kann ich mir nicht vorstellen - weil die Seven schon so schnell ist (+/-5 Prozent) und die 5700XT zuweilen auch (Vulkan). Da mußte schon die S her. Die werden klar die TI angreifen.
 
Zuletzt bearbeitet:
Klar haben die keine Eile die wollen ja auch nichts verkaufen. Und refreshed wurde doch erst kürzlich.
ich glaube jetzt wird die Leistung released die es hätte mit RTX 2000 werden sollen!
 
Das kann man ausschließen. Bei dem Prozessvorteil sind wie gesagt eher +50% drin und nicht~ 20%.
Mit der Schätzung aus dem AMD Fan-Lager wirst du auf die Nase fallen.
Dann wird wohl Big Navi auch nur so schnell wie ne 2080, wenn man sich an deine Maßstäbe hält, neo.

Das Lustige ist ja, dass bei aktuellen, fordernden Spielen die RX5700XT bereits auf Augenhöhe mit der 2080 super ist und
effizienztechnisch deutlich überlegen bzw. in einer ganz anderen Liga spielt.
Dabei ist jetzt noch nicht mal Next Gen. angesagt, dass kommt noch und mit RDNA2 und verbesserter 7nm+ EUV Fertigung lässt AMD nächstes Jahr so richtig seine Muskeln spielen.

Ach ja, mit gleich schnellem Speicher würde die RX5700XT wohl auch in CoD MW mit der 2080 super gleich aufliegen. (Siehe Beispiel)

Unter dem Strich haben wir also eine 2080 super: mit 3072 shading units, TDP 250W, Die Size 545mm2, 15.5GT/s und gemäss Computerbase ein im Mittel aus drei Spielen berechneter Verbrauch bei bei der RX5700XT von 210W und bei der 2080 super von 242W im Gegensatz ist die RX5700XT, mit ihren 2560 Shading units schlank und rank, (TDP 225W) Die Size 251mm2 in 7nm und 14GT/s

Eine hypothetische RX5750XT mit 3072 shading units und schnellem Speicher, würde die 2080 super aber sowas von zersägen.
Keine Ahnung von wo das Ammenmärchen kommt, dass NVIDIA's Architektur so überlegen sein soll.

RDR2.png CoD_MW.png 2080super W.png
 
Der Flächenvorteil 16nm (12nm FFN ist wohl nichts anderes) zu 7nm+ liegt wohl bei 67% - dann würde GT102 mit ca. 4000 Shadereinheiten auf 204mm² schrumpfen. Leider weiß man nicht abschließend wie groß die Tensor- und RT-Cores wirklich sind. Bei +50% gehen wir dann von 6000 Shadereinheiten aus - bei einer Größe von 306mm². Wie will man das wegkühlen wenn man den Takt noch anheben will? Selbst wenn es 350mm² bei gleicher Effizienz sind - 250-300 Watt - ist das kaum machbar. Ich kann mir das nicht vorstellen. Zugleich bringt 16 zu 7 30% Performancezuwachs - was klar machbar ist. NVidia ging schon bei Maxwell und Pascal über Die-Flächen und nutze die Packdichte nicht immer aus. Führt ja insgesamt zu weniger Leckströmen.
 
Nun RDNA vs Turing
Amd rdna arch hat etwa die effizienz von pascal
Die leistung der shader entspricht genau der leistung nvidias pascal
Und das trotz überlegenden fertigung

daher ist der Traum das eine rx5700 xt = navi12 einen tu104 ebenbürtig ist.

lass mal Erklären
Nvidia turing arch hat folgende änderunge an de arch vernommen
Größerer L1 cache Sm module auf 64shader verkleinert um die andere hälfte mit tensor und rt cores zu füllen
Doppelten L2
Jetzt kommt was dazu was die arch verbessert hat gegenüber pascal, turing kann wenn mna es anwendet teile der berechnung von zwei fp16 auf einen fp32 zusammenführen
Heist man braucht nicht mehr dediziert einen shader für eine operation sondern kann 2 threads ausführen damit halb genaue Daten schneller berechnet werden können

Das muss aber in software angewiesen werden ,
In DX12 und Vulkan lassen sich solche Optimierungen anwenden.
In opengl Dx11 und dx9 nicht
Daher ist turing auch genau nur dann schneller bei shader wenn solche Berechnungen verwendet wird.
Ansonsten entspricht die shader Leistung genau der von pascal.
amd RDNA ist der nvidia arch recht ähnlich lediglich die engine(struktur) ist noch gcn und limitiert hier die max shader
4 blöcke mit jeweils 10cu
Erst rdna2 wird das entfernen

Geplant waren aber 4 blöcke und 14cu für navi10
Wurde wegen Fertigungsfehler gecancelt (zu geringe ausbeute und Wärmeprobleme)

Zukunft könnte sein das man 8 Blöcke je 10cu bringt
das wäre der besagte big navi
Durch den geänderten Struktur wird auch die Wärmeentwicklung endlich im griff sein

Eine rx5900xt wird es nicht geben

nebenbei die ps5 hat 48cu 8 blöcke *6cu
Offen ist derzeit wie amd DXR unterstützen will. Spezielle hardware Beschleunigung ist wahrscheinlich, vermutlich arm co Prozessoren oder verkleinerte zen x86 cpu (nicht vollwertig sondern rein auf Strahlverfolgung ausgelegte fpu)

Denoising wird spannend das kann man wie nvidia per FP16 Einheiten lösen
tensor cores sind einfachere shader die nur eine Aufgabe haben das bild zu sampeln.


allgemein was DXR angeht das wird die Zukunft sein aber nur als Ergänzung
Für die komplette übermahne bei Licht schatten und Spiegelungen reicht derzeit die Leistung nicht aus.
Auch amd rdna2 wird das nicht ändern nvidia wird quasi die RT Leistung auf max 50% steigern können somit wird eine RTX 3060 ausreichend sein wie dann die rtx2080ti mit Rt läuft
Rasterleistung wird sich kaum was tun
Einsteigerkarten wie 60er werden auf derzeitiger 70er niveau landen
die 70er werden wie die 80er landen lediglich das high end Produkt
RTX 3080ti wird gut 20% zulegen mit DXR 50%

Vermutlich wird nvidia auf 5120 shader gehen und damit volta einstellen was shadercount angeht.
Nur diesmal können PC diese auch auslasten. Dank DXR und Softwareanpassungen.
Mehr als 80sm geht derzeit nicht, weil die tesla arch am limit ist

angefangen hat diese arch 2006 mit g80 (8800gtx)90nm
veränderung marginal g92b 55nm shrink
veränderung noch Marginaler mehr shader gt200b 55nm
Veränderung Eins Fermi (gtx480 gf100) 40nm mehr shader
Veränderung Zwei Kepler (gtx680 midrange später als gk110 gtx780ti) takt von shader auf coreclock angeglichen allgemein clock erhöht 28nm Vorteil mehr shader
Veränderung maxwell teile von HPC Berechnungen aus den consumer gpu gestrichen. Takt erhöht 28nm
Veränderung pascal marginal Fertigung und Taktraten erhöht gp102 16nm Fertigungsvorteil
Veränderung Drei volta Anpassung der shader arch von 128 auf 64 shader je sm (nur hpc markt gv100 größter chip den es je als gpu gab)
Veränderung Vier turing Fertigung auf 12nm kein Effekt (tu102 rtx2080ti) Einführung von Echtzeit hybrid raytraycing = dxr
Puh ampere/turing verbessert wird schwer vorherzusagen ich vermute lediglich nen shrink auf 7nm(Samsung) mehr tensor rt cores high end mehr shader der rest marginal angepasst

Die gesamte nvidia arch basiert auf deren tesla design von 2006
Der nächste schritt wäre MCM gpu was ich aber mit ampere vermutet habe für den Profi markt
Consumer wird wohl ein angepasster turing werden
Mehr als 80sm äka 5120 shader gehen nicht auf einen chip
Den die dichte verhindert es höher zu takten und damit die Gefahr von zufälligen Leckströmen erhöht
Dazu kommt das immer mehr shader nicht ausgelastet werden können
games sind seriell Zwangsweise
Also solange es nicht möglich ist das jährlich die cpu um 1 ghz an takt steigen können (heute 5ghz nächsten Jahre bis 10ghz) können mehr als 5120shader nicht ausgelastet werden
es ist schon heute sehr schwer. nur 4608 shader auszulasten (titan rtx)
Es geht hier nicht um FPS die lassen sich durch Settings beeinflussen (insbesondere beim gamedesign) sondern um die gpu Auslastung

AMD Geschichte ist deutlich bewegter und voller chaos durch Fehlplanungen von 2009 bis 2017
man wollte eine gpu arch für alle bereiche HPC Creative und consumer.
Was aber in schlechter Auslastung der arch führte zuletzt vega der gcn arch

Nvidia Entscheidung 2012 consumer und creative HPC zu trennen war goldrichtig.
Dadurch konnte man die gpu deutlich höher takten zudem durchaus besser spezialisieren. Was zu mehr Ungenauigkeiten führt.
Darum kann man keine consumer gpu als hpc oder als ernsthafter creative workflow verwenden.
Mit amd GCN geht das, da mangelst nur am Treiber.
Und nein gpgpu ist nicht gemeint sondern 3dmax, autocad und co
 
Das Problem ist nur - es ist KEIN 4k. Nur deshalb läuft es.

Ja, und das ist doch völlig okay. 4K mit RT wäre ja auch eine völlig übersteigerte Erwartung, das wird auch eine Karte von der nächsten und übernächsten Generation nicht auf den Schirm bekommen.
Genausowenig gibt es heute eine Karte die in 4K mit maximalen Details alles flüssig darstellst, viele Titel laufen selbst auf einer Titan RTX in 4K nicht mal mit 40 bis 50 FPS.
Quatsch von einem Clown. N7 FEOL bringt 7% und N7 MOL 10% höhere Effizienz. N7+ eine bis zu 18% höhere Packdichte. Das wars. +50 klar.

Damit ist der Sprung von 12nm auf 7nm+ gemeint und den hat Nvidia vor sich und der ist riesig.
AMD hat ja ihr Pulver weitgehend verschossen und kann sich dann nur noch auf die von dir genannten Verbesserungen von 7nm + freuen.

Das Lustige ist ja, dass bei aktuellen, fordernden Spielen die RX5700XT bereits auf Augenhöhe mit der 2080 super ist...

Nicer Cherrypick, bald ist die Kate so schnell wie eine 2080 Ti.:P

effizienztechnisch deutlich überlegen bzw. in einer ganz anderen Liga spielt.

Also grundsätzlich liegen zwischen 5700XT und 2080 Super 20 bis 30% Leistung, je nach Auflösung im PCGH Index.
Ich kann mir immer Spiele herauspicken die auf Kare A oder B schneller bzw. langsamer laufen und dann irgendwelche Behauptungen machen.
Tatsache ist, die Karte liegt im PCGH Index gleichauf mit einer RTX 2070, da muss ich jetzt nicht hergehen und und irgendetwas erzwingen oder schönreden.

Dabei ist jetzt noch nicht mal Next Gen. angesagt, dass kommt noch und mit RDNA2 und verbesserter 7nm+ EUV Fertigung lässt AMD nächstes Jahr so richtig seine Muskeln spielen.

Wenn Nvidia keine neune Produkte herausbringt und weiterhin bei 12nm bleibt, dann vielleicht, aber die Uhr dreht sich ja weiter.

Eine hypothetische RX5750XT mit 3072 shading units und schnellem Speicher, würde die 2080 super aber sowas von zersägen.

Hypothetisch, ja richtig. Hypothetisch könnte AMD viel leisten, aber das entspricht nicht der Realität.
AMD muss mindestens 1 Generation aufholen, was nicht mal ganz mit der 5700XT geschafft haben, trotz enormem Fertigungsvorteil.
Früher war der Hersteller mit dem neuesten Proezess immer vorne, da sieht man, wieviel Rückstand AMD hat.

Keine Ahnung von wo das Ammenmärchen kommt, dass NVIDIA's Architektur so überlegen sein soll.

Weil sie halt schon vor über einem Jahr die Leistung einer 5700XT mit leicht geringerem Verbrauch und in einem veralteten Fertigungsprozess auf dem Markt gebracht haben.
Und Ampere wird, was die Entwicklung ansteht, ja nicht auf der Stelle treten.

Wie will man das wegkühlen wenn man den Takt noch anheben will?

Wie will man das denn bei AMD wegkühlen, wenn eine 5700XT schon 210 Watt in 7nm säuft und noch +50% auf eine 2080 Ti fehlen?
Dort stellst du dir die Frage offenbar nicht, dabei hat Nvidia schon seit längerem viel weniger Kühlungsprobleme als AMD. Das macht eine detlich effizientere Architektur eben aus.
 
Zuletzt bearbeitet:
Ach ja, mit gleich schnellem Speicher würde die RX5700XT wohl auch in CoD MW mit der 2080 super gleich aufliegen. (Siehe Beispiel)
Keine Ahnung von wo das Ammenmärchen kommt, dass NVIDIA's Architektur so überlegen sein soll.

Anhang anzeigen 1068899Anhang anzeigen 1068900Anhang anzeigen 1068901

Weil es auf der anderen Seite, genauso wie Dich, Leute gibt die sich die Benchmarks aussuchen die sie zu ihrer vermeintlichen Wahrheit brauchen. Mit gleichauf oder so ist es dann ganz schnell wieder vorbei.

Screenshot (27).png Screenshot (28).png Screenshot (29).png Screenshot (30).png Screenshot (31).png
Man kann sich jede Karte ein wenig zurechtrücken, wenn man lange genug im Netz sucht.

Genauso könnte ich fragen warum behauptet wird, daß man mit einer GTX 1080 unter Vulkan/DX12 nicht mehr spielen kann. Weil eben Benchmarks (eine Szene) herangezogen werden die das angeblich belegen.
Nur hält sich meine GTX 1080 nicht daran :D.

COD/Rage 2/Wolfenstein jeweills ultra Einstellungen. Ok bei COD gibts nur eine ultra Einstellung :ugly:.
RAGE2_2019_11_06_09_56_49_361.png RAGE2_2019_11_06_09_57_42_121.jpg RAGE2_2019_11_06_09_59_11_441.png RAGE2_2019_11_06_09_59_40_716.jpg RAGE2_2019_11_06_10_01_23_040.png RAGE2_2019_11_06_10_02_43_136.jpg
ModernWarfare_2019_11_05_17_50_52_131.png ModernWarfare_2019_11_05_18_43_52_908.jpg ModernWarfare_2019_11_05_18_44_33_817.jpg ModernWarfare_2019_11_05_18_45_10_894.jpg ModernWarfare_2019_11_05_18_46_41_103.png
Youngblood_x64vk_2019_11_06_09_44_47_249.jpg Youngblood_x64vk_2019_11_06_09_45_01_413.jpg Youngblood_x64vk_2019_11_06_09_47_15_776.jpg Youngblood_x64vk_2019_11_06_09_49_26_980.jpg

Das selbe gilt natürlich für die AMD Karten. Nur weil die Karte in einer bestimmten Szene nicht so gut performt, sagt das noch lange nicht aus wie gut das gesamte Spiel läuft.
 
Zuletzt bearbeitet:
Klar haben die keine Eile die wollen ja auch nichts verkaufen. Und refreshed wurde doch erst kürzlich.
ich glaube jetzt wird die Leistung released die es hätte mit RTX 2000 werden sollen!

Glaubst Du wirklich NV (oder AMD oder Intel) sind so unfähig, dass sie die Leistungspotentiale einer Strukturbreite so falsch einschätzen, dass sie sich um einen vollen Shrink vertun?
 
Zurück