Nvidia Ampere: Neue Gerüchte um 24/20/10 GiByte Speicher für GA102

Warum ich gern im September ne dicke Karte von Nvidia kaufen würde?

- AMDs Customs kommen nach bisherigen Infos frühestens 4 Monate später im Januar (später Launch, keine Custom-Boardpartner, Feiertage im Dezember)
- Ich habe seit 3,5 Jahren keine Graka gekauft.
- Ich brauche die Mehrleistung jetzt, eigentlich brauchte ich die schon 2018, wo ich in VR eingestiegen bin. Mittlerweile ist die Auflösung/Anforderung enorm. Die fehlende Leistung fällt mir mittlerweile in nahezu jeder Sitzung auf.
- Die RTX3090 wird ohnehin unerreicht bleiben, also nehme die höchstwahrscheinlich sowieso, bzw 'hätte sie nach langem warten dann eh genommen'.
- Da oben fällt preislich bei dieser Karte gar nichts. Wenn, dann fallen die Preise der Karten, wo BigNavi mitspielt. (Bis max RTX3080.)
- Der H265-Encoder von Nvidia (NVENC) ist deutlich besser, was bei meinem VR-Headset relevant ist. (Daher eig ein Must-Buy bei mir.)
- RTX (Nice to have. Sicherlich State-of-the-Art. AMD wird da bei weitem nicht mitkommen.)
- DLSS (Nvidia exklusiv.)
- Habe keine Lust auf monatelanges Treiberchaos (war zumindest in der Vergangenheit so)
- Habe keine Lust auf manuelles Optimieren (siehe oben)
- AMD GPUs = Viel Hype, viel Marketing (siehe oben)
- Habe keine Lust nach wochen- und monatelangem Warten enttäuscht zu werden.
- Weil ich's kann und weil ich's will. Wartet ihr doch.

Die AMD-Karten werden, wenn sie entsprechend schnell werden, auch teurer werden als in der Vergangenheit. Vielleicht preislich etwas angepasst, dass das P/L wieder passt, aber Ampere wird auch richtig fett.
Ich tu mir den Quatsch nicht mehr an. Die Vergangenheit hat bei Nvidia gezeigt, wer zum Launch gekauft hat, wurde nicht enttäuscht. Zumindest gilt das solange ich es seit Maxwell aktiv beobachte.

Möchte nur mal auf die GTX1080Ti und RTX2080Ti verweisen.
Nichts kam oder kommt da ran. Wer die früh gekauft hat, hat lange fröhlich auf Höchstleistung gezockt.
Und wie man sieht steht die RTX2080Ti noch heute über ihrer UVP.
Also warum sollte man da bitte warten?
Zeitverschwendung.

Die RTX3090 wird schon sehr teuer werden. Aber irgendwie wird der Preis auch zu rechtfertigen sein.
Wenn die Gerüchte sagen 50-60% schneller als die RTX2080Ti und 20GB VRAM, dann ist das schon okay.
Die werden schon Preise gestalten, die Zielgruppe auch mitmacht.

Wenn BigNavi überraschend schnell und billig wird, so what? Herzlichen Glückwunsch. An das Nvidia Flaggschiff werden sie trotzdem nicht herankommen.
Nvidia hat nicht gepennt, sondern offenbar ordentlich auf's Gas getreten.

Und wie gesagt, mir geht es auch zu einem großen Teil um meine VR-Brille, die die ganzen Side-Features* von Ampere gut gebrauchen kann.
Zumal ich jetzt auch mal einfach nur zocken will und keine Lust habe wieder bis ~Januar zu warten. Zeit ist Geld.

Ob ich es dann letztendlich wirklich mache, entscheide ich natürlich nicht jetzt, sondern dann wenn sie da sind.
Aber die RTX3080 wird's nach aktuellem Stand eher nicht, wenn die RTX3090 so viel schneller ist, zumal die Lücke wahrscheinlich eh zeitnah, spätestens zu BigNavi, geschlossen wird und das wäre dann wirklich dumm.

*Leistung, VRAM, NVENC, VirtualLink(?), bessere Kompatibilität mit Oculus und VirtualDesktop
 
Genau das alles wurde bei der letzten Generation auch immer wieder im Vorraus gepredigt und niemand kauft solche Karten und NVidia verarscht uns und das kommt alles niiiiemals nicht so.

Und was ist passiert? Die 1660/2060 kam mit nur 6 GB und die 2070/2080 mit nur 8 GB - so wie ihre Vorgänger 1060/70/80 auch schon. Genau das was ja niiiiemals passieren kann. Und? Die Karten haben sich verkauft wie blöd.

Und auch dieses Mal wirds genau so kommen. 16GB auf 500€ Karten? Ich (bzw. NVidia) lacht sich tot. Wird nicht passieren. Grund: Gekauft wie blöd wirds trotzdem.

Ich muss ja so oder so kaufen. Denn meine GTX 680 zieht moderne Spiele nicht mal mehr auf "Niedrig". Und solche Leute wie mich gibt es viele, die immer einer Generation oder mehr Überspringen.
Somit wird NV genug kunden finden, aber ob die die eine 2000 Karte haben auch aufrüsten bei den gleichen Ram - daran zweifle ich.
 
Zuletzt bearbeitet:
Wenn AMD wirklich so geile Karten am Start hat, dann sollten sie lieber schnell die Fresse aufmachen, weil im September kaufe ich - und ich bin da nicht der einzige. :ugly:

Der schlaue Mensch wartet bis alles released ist und kauft dann, es sei denn es hagelt massiv Verschiebungen :schief:.

@Andrej...ach ist das so :what: ?? Ich kenne keinen der noch so ne uralte Gurke hat. Damit wars zocken vor 5 Jahren schon vorbei bzw mehr wie unerträglich :ugly::lol:.
 
Der schlaue Mensch wartet bis alles released ist und kauft dann, es sei denn es hagelt massiv Verschiebungen :schief:.

Warten ist nur keine Lösung, wenn ein Konkurrent seit 7 Jahren nicht mehr oben auf war! Beispielsweise bei Vega hat man über ein Jahr für eine Enttäuschung gewartet. Das Problem bei AMD sind die unerträglichen Paperlaunches, wonach ewig nichts verfügbar ist.

Schlaue Menschen greifen zu, sobald etwas in der eigenen Preis- und Leistungsklasse verfügbar ist. Der Umstieg von 28nm / 16nm / 12nm auf irgendwas mit 8nm wird so oder so gewaltig sein!

@Andrej...ach ist das so :what: ?? Ich kenne keinen der noch so ne uralte Gurke hat.

Nicht jeder rüstet ständig den PC auf. Einige haben das Warten eventuell auch etwas übertrieben. Irgendwann wird es einmal Zeit. :ugly:

Damit wars zocken vor 5 Jahren schon vorbei bzw mehr wie unerträglich :ugly::lol:.

Du wärst überrascht wie viele Spiele immer noch damit laufen. Je nach Genre oder Einstellung reicht es für den ein oder anderen Titel aus. Ich kenne Leute, die nur wegen der Miningfreaks nicht auf Maxwell / Pascal / Polaris aufgerüstet haben.

Für diese Käufergruppe ist GA102 allerdings irrelevant. Vielleicht ist etwas bei GA104 und GA106 dabei.
 
Genau das alles wurde bei der letzten Generation auch immer wieder im Vorraus gepredigt und niemand kauft solche Karten und NVidia verarscht uns und das kommt alles niiiiemals nicht so.

Und was ist passiert? Die 1660/2060 kam mit nur 6 GB und die 2070/2080 mit nur 8 GB - so wie ihre Vorgänger 1060/70/80 auch schon. Genau das was ja niiiiemals passieren kann. Und? Die Karten haben sich verkauft wie blöd.

Und auch dieses Mal wirds genau so kommen. 16GB auf 500€ Karten? Ich (bzw. NVidia) lacht sich tot. Wird nicht passieren. Grund: Gekauft wie blöd wirds trotzdem.

In der letzten Gen war vorab doch schon klar zu erwarten, das die 2060 nur 6Gb bekommt. Kann mich auch nicht daran erinnern, das es viele User hier waren, die ernsthaft geglaubt haben, das Nvidia der 8GB spendiert.

Ist auch egal... Ich will auf jeden Fall nicht nochmal in 8GB investieren, deswegen wäre es schade, wenn es bis hoch zur 3070 nur bei 8GB bleibt und wer mehr will, dann dafür zur 3080 greifen muss, bei Nvidia. Gerne auch von AMD etwas in der Klasse, aber bei beiden Herstellern bisher nur Gerüchte. Also abwarten, was real kommt und dann zu welchen Preisen.

Wie soll das auch gehen, wenn 16 GB GDDR6 schon einen EK-Preis von knapp $200 hat?

Das glaube ich nicht, das Nvidia im EK für 16GB GDDR6 schon 200$ zahlt. Mich würde da eher interessieren wie viel Prozent des gesamten Preises der Grafikkarte der Speicher ausmacht und das dann damals und heute gegenübergestellt.
Also so 2010 und 2020 verglichen.
 
Genau das alles wurde bei der letzten Generation auch immer wieder im Vorraus gepredigt und niemand kauft solche Karten und NVidia verarscht uns und das kommt alles niiiiemals nicht so.

Und was ist passiert? Die 1660/2060 kam mit nur 6 GB und die 2070/2080 mit nur 8 GB - so wie ihre Vorgänger 1060/70/80 auch schon. Genau das was ja niiiiemals passieren kann. Und? Die Karten haben sich verkauft wie blöd.

Und auch dieses Mal wirds genau so kommen. 16GB auf 500€ Karten? Ich (bzw. NVidia) lacht sich tot. Wird nicht passieren. Grund: Gekauft wie blöd wirds trotzdem.

In der letzten Gen war vorab doch schon klar zu erwarten, das die 2060 nur 6Gb bekommt. Kann mich auch nicht daran erinnern, das es viele User hier waren, die ernsthaft geglaubt haben, das Nvidia der 8GB spendiert.

Ist auch egal... Ich will auf jeden Fall nicht nochmal in 8GB investieren, deswegen wäre es schade, wenn es bis hoch zur 3070 nur bei 8GB bleibt und wer mehr will, dann dafür zur 3080 greifen muss, bei Nvidia. Gerne auch von AMD etwas in der Klasse, aber bei beiden Herstellern bisher nur Gerüchte. Also abwarten, was real kommt und dann zu welchen Preisen.

Der schlaue Mensch wartet bis alles released ist und kauft dann, es sei denn es hagelt massiv Verschiebungen :schief:.

@Andrej...ach ist das so :what: ?? Ich kenne keinen der noch so ne uralte Gurke hat. Damit wars zocken vor 5 Jahren schon vorbei bzw mehr wie unerträglich :ugly::lol:.

Der schlaue Mensch wartet also im Normafall, bis die neuste Gen des einen Herstellers schon wieder fast alt ist? Früher waren AMD und Nvidia immer im wechsel. Das die so zeitgleich das Licht der Welt erblicken sollen, war, oder ist nicht immer so.

Das ganze ist für mich eher Situationsabhängig. Nach gesunden Meschenverstand halt.

Alte Gurken und zocken ;) Da muss ich aufpassen... Seit 2010 ist es das erste mal, das ich seit Pascal, das ich mich danach nichts aus der aktuellen Gen zugelegt habe. ;) Da fühle ich mich, mit meiner 1070 schon wie mit einer alten Gurke... Aber auch völlig Latte, wer mit was zockt :)
 
Der Takt der GPU wird wohl kaum markant niedriger als 2GHz ausfallen.

Man sollte bedenken das die XBOX bereits 1.8GHz und die PS5 2.2Ghz taktet. (Und Desktop ist verglichen mit den Konsolen nochmals eine ganz andere Nummer)
Die RX5700XT taktet ja auch schon 1.9GHz weswegen für mich ca. 2GHz für Big Navi als gesetzt gelten.

Glaub mir ist auch besser so, wenn ich nicht dafür verantwortlich bin. Die wissen nämlich selbst ganz genau Bescheid wie sie dieses Problem lösen können bzw. bereits gelöst haben.


Was erwartest denn du bei einer Karte die +50% Performance/Watt liefern wird. 1.6GHz? Komm wieder auf den Boden der Realität zurück sonst können wir auch gerne eine Wette machen wenn du dir da so sicher bist das der Takt deutlich geringer als 2GHz ausfallen wird.
Xbox Series X hat ein SoC mit Navi, der 52 aktive cus hat, RX 5700XT hat 40 zum Vergleich. Big Navi soll 80 haben. Und ja, bei so viel cus und IPC Optimierung, reichen auch 1,6 GHz um fast die doppelte Performance einer RX 5700XT zu erreichen, was AMD auch so anpreist.
Die 2GHz Variante wäre ein Wattschlucker, der seinesgleichen sucht.
 
Zuletzt bearbeitet von einem Moderator:
Irgendwie macht das Ganze sehr wenig Sinn.
Die 3080 nur mit 10 GB halte ich für ausgeschlossen, der Speicherbedarf wächst und das weiß NVIDIA, eine Karte mit einer höheren Leistung als die einer 2080 Ti und mit weniger VRAM halte ich diese Gen für ausgeschlossen. Aus diesem Grund würde ich eher darauf tippen das die 90er/80 Ti 24 und die 80er 20 hat.
Die 3070 mit nur 8 GB ist genauso ausgeschlossen, 0 VRAM Steigerung.
Bei der 3060 wäre es sogar eine Senkung, nie im Leben wird das so passieren, 6 GB reichen teilweise nicht mal mehr in Full HD.

Mein Reden.
3070/3080 mit 12 oder gar 16GB sollten eigentlich gesetzt sein, sollte man sich nicht länger den Unmut der (potentiellen) Kunden auf sich ziehen wollen.
Eine 3060 mit 8GB ist auch nicht so der Brüller, kann man mit Wolfenstein und Raytracing bereits sprengen
Und es ist ja bereits bekannt, dass eine 2080 Ti in UHD am Limit angekommen ist, da würde man sich also mit nur 16GB RAm auch nicht gerade mit Ruhm bekleckern, weswegen es wohl auch schon die Gerüchte mit 20/24GB gibt, damit man zumindest die nächsten Konsolenspiele zocken kann.
Eine 3080 mit 10/20GB, eine 3070 mit 8/16GB wäre für mich einmal zu wenig, einmal vielleicht sogar schon ein wenig übertrieben, wenn man NVidias ewiges Gejammere über hohe Speicherpreise bedenkt, die ja angeblich für die ach so großen Preistreiberungen verantwortlich gemacht werden sollen (ist natürlich eine dumme Ausrede, aber hört sich ja fast sogar gut an, denn AMD konnte Vega mit noch wesentlich teurerem HMB2 schließlich auch liefern).
 
Die Fläche ist hier nicht das Problem (auf 500 mm^2 könntest du wenn die Kühlung stark genug ist 500W mindestens abführen - 1 W/mm^2 ist ohne große Kunstgriffe machbar, da liegen schnelle CPUs schon lange) - aber ich glaube auch nicht, dass über 2 GHz bei derart großen Chips mit 5000+Shadern dauerhaft möglich sind ohne dass die Leistungsaufnahme enorm hoch wird. Sowohl bei NV als auch bei AMD. Die Gerüchte sprechen ja schon von 300-350W für die Karten - was nebenbei auf beiden Seiten als Indiz gesehen werden kann dass man nicht glaubt, mit den "üblichen" 250W-Karten gegen die jeweilige Konkurrenz gut dastehen zu können. Offenbar traut jeder der beiden dem anderen einiges zu wenn das mit den derart hohen TDPs stimmt.
Theoretisch machbar ist es schon, praktisch bedarf es eines fetten Kühlers, der auch bezahlt werden muss. 500W über einen Luftkühler abführen? :D Ich bin schon gespannt wie die Nvidia-Kühler aussehen werden. Normalerweise sollte man sie standardmäßig mit Wakü ausliefern.
 
Zuletzt bearbeitet von einem Moderator:
Ist halt das Problem wenn der Chip von Samsung kommt. AMD wird da locker effizienter sein mit der Fertigung bei TSMC!
 
Ist halt das Problem wenn der Chip von Samsung kommt. AMD wird da locker effizienter sein mit der Fertigung bei TSMC!
Nicht bis 1.8 GHz, davon gehe ich bei Nvidia aus. Sie haben auch verdammt viele Shader verbaut. RDNA1 kommt mit 7nm trotzdem schlechter weg als 14nm Nvidia (Turing).
 
Ich werde nicht sofort zugreifen. Ich warte erst einmal ab mit was AMD im November um die Ecke kommt und ob Nvidia dann einen 30xx Refresh/Konter auf den Markt schmeisst.
Man munkelt ja schon, dass die Karten zum Start leicht gebremst auf den Markt kommen, um später dann in Form eines "Wunder-Treibers" 10-15% mehr Leistung bekommen falls AMD sich stark positioniert.
 
Das glaube ich nicht, das Nvidia im EK für 16GB GDDR6 schon 200$ zahlt. Mich würde da eher interessieren wie viel Prozent des gesamten Preises der Grafikkarte der Speicher ausmacht und das dann damals und heute gegenübergestellt.
Also so 2010 und 2020 verglichen.

(Bitte anklicken und nicht nur den Linktext lesen, die zum Termin des Artikels aktuellen Preise werden genannt!)

GDDR6 significantly more expensive than GDDR5

Außerdem:

NVIDIA & AMD Graphics Cards Prices To Rise Due To GDDR6 Supply

$200 ist vielleicht zu viel, mag sein, dass NVidia auch "nur" $150 pro 16 GB zahlt. Es ist aber erheblich. Zumal eine Komponente, die im EK mit $150 veranschlagt ist, im End-VK locker mit §300-400 kalkuliert werden muss, meist noch eher mehr. Das ist übrigens bei ALLEN Produkten so.

Außerdem ist mir gar nicht ganz klar, ob NVidia selbst die GDDR6 ordered und verbaut oder ob das nicht der Grafikkartenhersteller macht. Bei einer FE mag das NVidia sein, ggf. auch bei Referenzplatinen die ein OEM nur branded, aber bei Custom-Designs kann ich mir das ehrlich gesagt gar nicht anders vorstellen als das der Grafikkartenhersteller selbst alle Komponenten einkaufen muss.
 
Zuletzt bearbeitet von einem Moderator:
1. Es stimmt nicht, dass AMD ineffizienter als Nvidia ist. Ein optimierter 12 nm Prozess von Nvidia ist ein 7 nm Prozess von AMD. Ob das jetzt 12 nm oder 7 nm oder 10 nm oder was weiß ich nm sind ist völlig irrelevant, da es sich dabei rein um Marketinggags handelt, um beispielsweise "falscherweise" seine Effizienz oder seinen zukunftsorientierten Fertigungsprozess hervorheben zu können. Ist bei Intel auch dasselbe Die gut optimierten 14 nm CPUs von Intel sind gleich den gut optimierten 7nm CPUs von AMD. Ob Intel das jetzt aber 14 nm+++ oder 10 nm oder sonst was nennt ist völlig egal .... .

Außerdem sind auf dem AMD Chip lediglich 10,3 Milliarden Transistoren verbaut auf dem RTX Chip einer RTX 2070 Super aber 13,6 Milliarden und trotzdem schafft es AMD damit Nvidia zumindest in diesem Segment momentan gut anzugreifen. Auch der Takt ist bei AMD höher. Das TBP mag bei AMD zwar etwas höher angesetzt sein, aber das macht im Endeffekt kaum einen Unterschied. Denn:

2. Bei nicht optimierten Titeln ist AMD vor allem in Vulkan und DX 12 klar voraus. Das sieht man auch wieder an Horizon Zero Dawn, wo die Rohleistung der RX 5700 XT deutlich über der RTX 2070 Super liegt und damit eher Richtung RTX 2080 (Super) geht. Somit scheinen 225 Watt durchaus gerechtfertigt angesetzt zu sein und die Leistung ist auch vorhanden. Da wo Nvidia deutlich optimiert oder Entwickler mit Nvidia eher mehr Optimierungen betreibt ist natürlich schlecht für AMD und lässt halt AMDs Karten eher ineffizient und schlecht dastehen obwohl es ganz und gar nicht an der Rohleistung der Karten liegt, sondern mehr an den Spieleentwicklern, die auch die architektonische Zusammensetzbarkeit der AMD-GPUs miteinbinden müssten.

Somit wird AMD mit Navi 2x durchaus einen satten Sprung hinlegen. Wo jetzt die RX 5700 XT schon etwa 100 FPS im Durchschnitt in 1440p erreicht wird eine RX 6900 XT (oder ein anderer Name) klar 100 FPS und mehr in 4K bei Ultra-Settings erreichen und das bei einer gesteigerten Effizienz pro Watt um 50 %. AMD wird jetzt immer das versuchen draufzulegen. Navi 3x aka RX 7900 XT wird dann klar 100 FPS und mehr in 6K oder einer höheren Auflösung schaffen und das bei gesteigerter Effizienz pro Watt um 50 %. Das wird ewig so weitergehen.

Somit hat Nvidia auch jetzt entsprechend bei der Speicherausstattung reagiert und will sich hier nicht verängstigen lassen. Damit gibt man AMD aber nochmals etwas Spielraum, um ebenso bei der Speicherausstattung herumdrehen zu können. Vielleicht sind 16 GB mit 512 bit Anbindung besser als 24 GB mit 384 bit Anbindung .... viel Speicher nützt einem nichts wenn er nicht auf schnelle Weise zur Verfügung steht.

Wir werden sehen wie die Leistung ausfällt und dann kann man urteilen.
 
Anscheinend sollen die Spezifikationen aber trotzdem so stimmen laut Leaks, selbst wenn das hier einige für unrealistisch halten.

16 GB reicht grundsätzlich für 4K Ultra aus und auch für Raytracing enabled dürften 16 GB ein Optimum darstellen. Da aber zukünftige Titel anspruchsvoller werden halte ich 16 GB in 2 Jahren wiederum zu wenig, um dann neu herausgekommene Titel mit Raytracing spielen zu können.

Mir stellt sich aber die Frage: Wie wird AMD Raytracing anbieten? In welcher Form? Und wie werden Spieleentwickler darauf eingehen? Vielleicht erfolgt diese Strahlenverfolgungsberechnung auf andere Weise wie bei Nvidia und AMD hat noch was auf Lager ähnlich zu DLSS, um hier die Performance auch bieten zu können. AMD konnte sich ja jetzt 2 Jahre genug Gedanken machen, wie sie mit Raytracing umgehen können, da man Nvidia den Vorlauf machen hat lassen, um zu sehen, was kann AMD dabei besser machen.

Ein spannender Herbst wartet auf uns.
 
Im PCGH Beitrag von Montag war aber durchaus die Rede von einer 3070 mit 8 bzw. 16 GiB und einer 3080 mit 10 bzw. 20 GiB. Das ergibt im Zusammenhang mit der Liste in diesem Beitrag durchaus Sinn. NV fächert das Angebot im oberen Preissegment einfach weiter auf:

RTX Titan Ampere: GA102-400 (~5.376 Shader) mit 24 GiB und 384 Bit
Geforce RTX 3090 (3080 Ti): GA102-300 (~5.248 Shader) mit 20 GiB und 320 Bit
Geforce RTX 3080: GA102-200 (~4.652 Shader?) mit 20 GiB und 320 Bit
Geforce RTX 3080: GA102-200 (~4.652 Shader) mit 10 GiB und 320 Bit
Geforce RTX 3070: GA104-400 (~2944 Shader?) mit 16 GiB und 256 Bit
Geforce RTX 3070: GA104-400 (~2944 Shader) mit 8 GiB und 256 Bit
Geforce RTX 3060: GA106-300 (?) mit 6/8 GiB und 192/256 Bit

Meiner Meinung nach werden sich die 8 bzw. 10 GiB Varianten an der Releasepreisen der 2000er Generation orientieren und die 16 bzw. 20 GiB Modell entsprechend teurer und sich unterhalb der nächst größeren Karte einordnen. Damit kann NV wahrscheinlich in jeder Leistungsklasse AMD etwas entgegensetzen. Für uns wird die Entscheidung dann freilich nicht leichter. Eventuell wird es die Modelle mit 16 bzw. 20 GiB Speicher auch mit etwas mehr Shadern geben? Da ist ja im Vergleich zum Unterschied zwischen der 3090 und Titan noch Luft!
 
1. Es stimmt nicht, dass AMD ineffizienter als Nvidia ist. Ein optimierter 12 nm Prozess von Nvidia ist ein 7 nm Prozess von AMD. Ob das jetzt 12 nm oder 7 nm oder 10 nm oder was weiß ich nm sind ist völlig irrelevant, da es sich dabei rein um Marketinggags handelt, um beispielsweise "falscherweise" seine Effizienz oder seinen zukunftsorientierten Fertigungsprozess hervorheben zu können. Ist bei Intel auch dasselbe Die gut optimierten 14 nm CPUs von Intel sind gleich den gut optimierten 7nm CPUs von AMD. Ob Intel das jetzt aber 14 nm+++ oder 10 nm oder sonst was nennt ist völlig egal .... .

Außerdem sind auf dem AMD Chip lediglich 10,3 Milliarden Transistoren verbaut auf dem RTX Chip einer RTX 2070 Super aber 13,6 Milliarden und trotzdem schafft es AMD damit Nvidia zumindest in diesem Segment momentan gut anzugreifen. Auch der Takt ist bei AMD höher. Das TBP mag bei AMD zwar etwas höher angesetzt sein, aber das macht im Endeffekt kaum einen Unterschied. Denn:

2. Bei nicht optimierten Titeln ist AMD vor allem in Vulkan und DX 12 klar voraus. Das sieht man auch wieder an Horizon Zero Dawn, wo die Rohleistung der RX 5700 XT deutlich über der RTX 2070 Super liegt und damit eher Richtung RTX 2080 (Super) geht. Somit scheinen 225 Watt durchaus gerechtfertigt angesetzt zu sein und die Leistung ist auch vorhanden. Da wo Nvidia deutlich optimiert oder Entwickler mit Nvidia eher mehr Optimierungen betreibt ist natürlich schlecht für AMD und lässt halt AMDs Karten eher ineffizient und schlecht dastehen obwohl es ganz und gar nicht an der Rohleistung der Karten liegt, sondern mehr an den Spieleentwicklern, die auch die architektonische Zusammensetzbarkeit der AMD-GPUs miteinbinden müssten.

Somit wird AMD mit Navi 2x durchaus einen satten Sprung hinlegen. Wo jetzt die RX 5700 XT schon etwa 100 FPS im Durchschnitt in 1440p erreicht wird eine RX 6900 XT (oder ein anderer Name) klar 100 FPS und mehr in 4K bei Ultra-Settings erreichen und das bei einer gesteigerten Effizienz pro Watt um 50 %. AMD wird jetzt immer das versuchen draufzulegen. Navi 3x aka RX 7900 XT wird dann klar 100 FPS und mehr in 6K oder einer höheren Auflösung schaffen und das bei gesteigerter Effizienz pro Watt um 50 %. Das wird ewig so weitergehen.

Somit hat Nvidia auch jetzt entsprechend bei der Speicherausstattung reagiert und will sich hier nicht verängstigen lassen. Damit gibt man AMD aber nochmals etwas Spielraum, um ebenso bei der Speicherausstattung herumdrehen zu können. Vielleicht sind 16 GB mit 512 bit Anbindung besser als 24 GB mit 384 bit Anbindung .... viel Speicher nützt einem nichts wenn er nicht auf schnelle Weise zur Verfügung steht.

Wir werden sehen wie die Leistung ausfällt und dann kann man urteilen.
Nvidia und Intel haben schlicht bessere Designs. 7nm ist immer ein ganz klarer Vorteil, den Intel gerne hätte. Ich weiß nicht, in was für einer Traumwelt sich manche AMDler befinden. Das mit den Größen und Transistoren, Verschwörungstheorien über Optimierung und die Milchmädchenrechnungen zählen nicht, sondern alleine, was von allem in Leistung umgesetzt wird. RDNA1 ist langsamer im überlegenen Prozess, obwohl die uArch später erschienen ist. Das ist an sich schon ein Skandal. Noch schlimmer ist, dass die Karte 1080 Ti nicht durchgehend schlagen kann. Die Karte ist ein Uropa mittlerweile.
Ich bin kein AMD-hater, aber man sollte bei den Fakten bleiben.
 
Zuletzt bearbeitet von einem Moderator:
1. Es stimmt nicht, dass AMD ineffizienter als Nvidia ist. Ein optimierter 12 nm Prozess von Nvidia ist ein 7 nm Prozess von AMD. Ob das jetzt 12 nm oder 7 nm oder 10 nm oder was weiß ich nm sind ist völlig irrelevant, da es sich dabei rein um Marketinggags handelt, um beispielsweise "falscherweise" seine Effizienz oder seinen zukunftsorientierten Fertigungsprozess hervorheben zu können. Ist bei Intel auch dasselbe Die gut optimierten 14 nm CPUs von Intel sind gleich den gut optimierten 7nm CPUs von AMD. Ob Intel das jetzt aber 14 nm+++ oder 10 nm oder sonst was nennt ist völlig egal .... .

Das stimmt, wenn die Fertigungsprzesse von verschiedenen Herstellern stammen.
Der Grund für den schwierigen Vergleich zwischen Intel und AMD liegt darin, dass Intel selbst fertigt während AMD, in der Regel, bei TSMC fertigen lässt.

Turing wird in 12 nm und Navi in 7 nm gefertigt, beide von TSMC. Somit kann man hier sehr wohl vergleichen.

Wenn deine restlichen Vorhersagen eintreten werde ich übrigens einen Besen mit Stiel verdrücken, ohne Senf. :daumen:
 
(Bitte anklicken und nicht nur den Linktext lesen, die zum Termin des Artikels aktuellen Preise werden genannt!) [...]

Zwei Micron-Chips aus deinem ersten Link werden bei mouser.de aktuell verkauft für

MT61K256M32JE-14:A TR 10,00 € bei 2000 Stk.
MT61K256M32JE-12:A TR 9,47 € bei 2000 Stk.

Bspw. der 2 GiB-Baustein mit 16 Gbps

MT61K512M32KPA-16:B TR 23,89 € bei 2000 Stk.

Zu berücksichtigen ist jedoch, dass nVidia zum Teil schnellere OC-Chips verbauen wird (18+ Gbps) und hier ist schwer abzusehen um wie viel teuerer die werden.

Darüber hinaus müssen Boardpartner bei nVida komplette "Chipsätze" kaufen, d. h. die GPU zzgl. den zugehörien Speicherchips. Aus nVidia's Sicht auch vollkommen nachvollziehbar, da man finanziell etwas mitverdienen kann, die Chipunterstützung sicherstellt und andererseits auch verhindert, dass Boardpartner die Portfolio-Planung zerschießen, zumal die sich eh alle Designs von nVidia freigeben lassen müssen.
 
Zurück