AMD Big Navi: Neue Radeons mit RDNA 2 kommen vor den Konsolen

Anmerkung: Da AMD bereits +50 % Perf/Watt "versprochen" hat für RDNA2 und das gar auf offiziellen Slides, kann man davon ausgehen, dass die auch ein entsprechendes Ergebnis um diesen Wert herum abliefern werden.
Wie sich das am Ende konkret im Vergleich zu Ampere darstellen wird, bleibt abzuwarten, jedoch werden die durchaus Mittel und Wege ergreifen müssen, um das Ziel zu realisieren und hier darf man gespannt sein, wie konkret die aussehen werden, denn über den Fertigungsprozess selbst werden sie wenig hinzugewinnen können, da sie mit RDNA bereits den N7P nutzen. Es müssen also weitestgehend architektonische Verbesserungen genutzt werden, was natürlich auch die Art und Weise wie sie den Prozess nutzen, einbeziehen kann, also u. a. auch mit welcher Logikdichte sie arbeiten werden. Zu klein bereitet Probleme bei der Wärmedichte, zu grob verschwendet Wafer-Fläche und verteuert die Fertigung ...

Da nVidia vermutlich ein gewisses Leistungsniveau für den GA100 anvisiert hatte und die neuen Funktionseinheiten in der Art auslegte, wie sie nun aussehen, ergab sich dadurch voraussichtlich eine benötigte Transistoranzahl und mit der maximal belichtbaren Chipgröße war man hier möglicherweise gezwungen mit im Mittel 65 MTr/mm2 zu implementieren, da man damit bereits relativ nahe an der maximalen Chipfläche lag. Hinzu kommt, dass der GA100 "nur" den N7 nutzt.
AMDs Chips werden bzgl. der Transistorzahlen zweifelsfrei kleiner ausfallen, ebeso wie nVidia's Consumer-Chips, sodass man gespannt sein darf, wie hier die Fertigungsparameter ausfallen werden. Denkbar wäre, dass man bei denen durchaus eine geringere Dichte in Kauf nimmt und dafür etwas Wafer-Fläche opfert ...
 
Zuletzt bearbeitet:
Nein, nur nicht: Das sind SRAM-Werte.
Beleg? Ich habe nichts von einer cell area geschrieben und meine das genauso wie es da steht, die übrigens anders angegeben wird (um²).

Man wie dumm. Ich schreibe "RDNA" und du blubberst irgendwas über RDNA2. Lies bitte endlich mal vernünftig, statt irgendwelchen Unfug zu plappern, weil du nicht in der Lage bist, das Vorposting zu verstehen :rolleyes:
Was bitte sollte RDNA noch mit Ampere zu tun haben? RDNA2 dürfte demnächst erscheinen und dann werden wirs sehen, man sprach aber von bis zu +67% was der Packdichte vom GA100 gleichkommt, sollte EUV dabei sein nochmals +18%. Dumm ist was ganz anderes und nein, Nv hat das Potential damit längst nicht ausgenutzt. Es bleibt also dabei, dass man mehr Waferfläche für eine höhere Effizienz opfert.

Den Rest hat gerx7a gut zusammengefasst.
 
Zuletzt bearbeitet von einem Moderator:
...da sie mit RDNA bereits den N7P nutzen.
Da wäre ich vorsichtig. Eigentlich geht es um 7FF (N7) und 7FFP (N7P) wobei 7FFP theoretisch bei bis zu 113.9 läge. Also 7nm+ ist jedenfalls nicht N7P oder 7FFP (was vermutlich EUV ist), siehe density von 96.5 zu 113.9. Vermuten kann man das AMD und Nv ein eigens angepasste Node nutzen. So kann man das überteure EUV erst mal aussen vor lassen. Jedenfalls was Bigchips angeht.
 
Eine hochgetakteter RDNA2 Desktop GPU wird logischerweise genauso wenig eine Transtor Density von 65MTr/mm2 sehen wie ein hochgetakteter Ampere.
Oder wollt ihr lieber analog zum Tesla A100 eine RDNA2 mit 80 CU's oder ein Ampere 84 SM mit 1410 MHz haben?

Die kommenden Desktop-Ableger werden sich +/- in einem Taktbereich von 2GHz bewegen und dementsprechend wird auch die Density analog zu den in N7P ( performance-enhanced) gefertigten RDNA1 Derivaten bei ca. 40MTr/mm2 liegen.

Falls anstatt N7P doch N7+ (EUV) zum Einsatz kommen sollte, können bei der Density nochmals einige % oben drauf gelegt werden.
Aber auch hier gilt wieder das nicht die x 1.2 logic density 1:1 umgerechnet werden dürfen, sonder auch hier kommt am Ende uniform (logic, sram und I/O) über den gesamten Chip betrachtet lediglich eine Steigerung von <=1.1 dabei raus. bzw. ca. 44MTr/mm2

Daher wird z.B eine Ampere mit seinen spekulierten 5376 auch nicht nur ca. 310-360mm2 sondern min. 550mm2 groß werden.
 
Zuletzt bearbeitet:
Zu teuer, das war sie. Aber das ist doch die Krux, das ist doch der Kern dessen was einige mit "ist halt Kapitalismus" immer hier absondern.
Eine 5700XT bekommt keinen MSRP von 449$ wenn die 2070 keine 499$ MSRP hat. Ganz einfach.

Beide waren zu teuer, aber die Preisgestaltung hat Nvidia zu verantworten, die haben den ersten Pflock eingeschlagen der fortan zur Orientierung da war.




Das wäre wünschenswert, aber wie so oft hofft man da wohl vergebens. Dass Big Navi Ampere angreifen wird, also ich weiß ja nicht. Ich würds mir wünschen, der CPU Markt hat doch gezeigt wohin vernünftige Konkurrenz führt.
Nur wenn AMD nicht in der Lage ist zu kontern, dann müsste der Kunde vllt mal Signale senden, dass man nicht jeden Preis mitgeht. Warum das von einigen kategorisch abgelehnt wird versteh ich nicht, tut doch jedem gut wenn GPUs weniger Geld kosten.



Soviel zum Thema toxische User...

Für mich sind wir eher Opfer dessen, das AMD keine Leistung bringen konnte. Was eine Feststellung ist und kein Vorwurf), als das Nvidia den Preis verdorben hat. Wenn sich heute das Blatt zu 100% wenden würde, zischen AMD und Nvidia, da hätte morgen AMD die "absurden" Preise. Was dann auch nur eine Folge der Situation wäre. Das ist Kapitalismus. Das sehe ich genau so, wie andere auch hier.

Von den spekulierten Specs her, haben beide erstmal das gleiche theoretische Potential. Beide Gerüchte - Specs könnte für bis zu 64% vor einer RTX2080TI (Ref Takt / Laut Nvidia 1635MHz Boost) sorgen.

Die Krux ist eher, dass der Großteil vermutl. Nv-Aktien im Depot hält um sich sein Hobby zu finanzieren (mal gut mal weniger gut...:)) und jede schlechte Bewertung in Foren als Feedback auf den Kurs wirkt. Da wird halt viel Unsinn gelabert...um die eignen Gewinne zu maximieren. Verständlich...:D.


Eine 5700xt bekommt man derzeit von GB für 399. Eine 2060s kannst du für den Preis als Minivariante schießen. Rein vom Rendern her, ist die AMD schneller. Ich würde sie eher mit Navi10 Pro also der 5700 ohne xt vergleichen.

Die 5700xt kann sich auch mit der 2070s anlegen und wenn man den Flächenaufwand rein in Waferfläche pro mm² vergleicht, ist klar warum Nv dort deutlich mehr kostet. Marge liegt bei AMD bei knapp 45-49%, bei Nv wohl um die 60-64%. Macht also keinen eklatanten Unterschied aus.

In jedem Test, der ein breiteres Spektrum an Spielen auffährt, ist die 2070S schneller, als die 5700XT, wenn auch im Schnitt nur 10%. Dazu kommt noch RT und DLSS, das rechtfertigt den Mehrpreis sehr gut.
Das man bei 400 Euro Budget lieber zur 5700XT greift, als zur 2060S kann ich gut verstehen. ISt die 2060S nicht schon etwa so schnell, wie eine 2070 war?

Und das ist der große Irrtum.

Wir reden von einer alten Generation (1080ti für 800 €) zu einer neuen Generation (2080ti). Neue Features wie Raytracing sollen ein Kaufanreiz sein um evtl. jemanden von der alten Generation auf die neue zu locken.
Wir reden also nicht von 300 € Aufpreis, sondern von 1.100 € Investition. Du weißt ja nicht, von welcher Grafikkarte der Käufer kommt.

Ich lese hier immer: Mehr Leistung, mehr Geld. Das ist doch aber nur die halbe Wahrheit und aktuell auch totaler Humbug.

Wenn ich in 2017 eine 1080 für 500 € gekauft habe und nun für 500 € eine neue Grafikkarte kaufen möchte, bekomme ich aktuell gerade mal 20% Mehrleistung. In 3 Jahren! Lächerlich.
Fakt ist, die Preise müssen sinken oder die Leistung massiv steigen. Ich bleibe bei der Aussage: 75-100% mehr Leistung als die 1080 für 500 € und ich bin dabei. Alles andere lohnt sich schlichtweg nicht.

Genau so ist es und das wird sich erst ändern, wenn AMD und Nvidia wieder stärker Konkurrieren, in der Leistungsspitze, denke ich.

Wenn Big Navi RDNA2 richtig einschlagen sollte, dann wird Nvidia auch kaum schneller sein und man bekommt deutlich mehr Leistung fürs Geld. Das dann auch in allen Preisbereichen.

Werden sie nicht, was mathematisch einfach lösbar ist. Bei deutlicher Preissteigerung und fast gleichem Gewinn (der Absatz im dGPU ist eher gesunken), verkauft man deutlich weniger Stückzahlen.

Das hat nichts damit zu tun, wie viele Boards Partner ausliefern, man muss sie nämlich erstmal verkaufen und die Händlerregale liegen voll! Mit 2060 und bis zur 2070s kannst du dich t*twerfen.

Eher hat AMD mit der 5700 Serie deutlich zugelegt und Nv knapp 10% Marktanteil abgenommen. Wenn die ein vollständiges Portfolie hätten, sähe das sicher noch schlimmer aus. Ich sah vor kurzem im MM eine 5700xt für 379, die weg ging wie warme Semmeln. War natürlich nur eine örtlich begrenzte Aktion, wahrscheinlich covid19 geschuldet.

Nv sollte sich also nochmal deren eigene Preisgestaltung ansehen.

Sollte das Nvidia, wenn es für Nvidia funktioniert?
Wir wissen auch nicht wie viel Stückzahlen, Nvidia absetzen wollte. Außerdem kaufen natürlichmehr Leute eine 5700XT für 400Euro, als eine 2070S für 520 Euro. Ist doch normal und ja, natürlich wäre es schön gewesen, wenn AMD ein ganzes Portfolio hätte aufweisen können. Was mich stört, die 5700XT ist deutlich kleiner, nutzt die modernere Fertigung und ein wenig mehr, bei ein wenig weniger Leistung. Das sollte sich AMD nochmal anschauen!

AMD muss bei RDNA 2 wirklich noch etwas nachlegen, den eigentlich müsste AMD mit RDNA und 7nm deutlich vor Turing liegen. NV ist den Weg gegangen eine neue Technik zu bringen, denen war vorher klar, das die KArten durch diesen Aufpreis etwas weniger gekauft wernde, weil es ja günstiger ohne diese Technik geht. Aber das ist ein erster Schritt in eine neue Technik eben.

Wir werden sehen, wie sich AMD bei RDNA2 mit RT schlagen wird, auch im Vergleich zu Nvidia RTX3000 dann.

Nicht das es wie bei Tessellation läuft und AMD Jahre hinterher hinkt.

Das wird mit Silizium niemals passsieren, außer du kaufst gebraucht.

Verstehe ich die Aussage falsch ? ;)

Warum sollte das nicht gehen. Nvidia selbst hat angekündigt, das es günstiger werden soll. Dann könnte eine 3070 zum Beispiel bei Start das kosten, was eine 2070S kostet, knapp 500 Euro (ab 510Euro). Die Specs die herumgeistern kann man einschätzen und da kommt eine 3070 knapp auf 2080TI Niveau (hier bezieht man sich auf die Spezifikationen von Nvidia, die lauten Boosttakt bis zu 1635MHz), vielleicht bis zu minus 5%. Damit wäre man ja schon bei rund 75% Mehrleistung für etwa 500 Euro.

Yes. Das predige ich seit dem Turing-Launch.

Es ist einerseits lächerlich was uns an Mehrleistung geboten wird und andererseits ist es auch lächerlich wie so viele Leute auf NVIDIA und den "it just works"-Hype reingefallen sind.
RTX für die Neugierigen in allen Ehren, aber bisher war das maximal ne selten eingesetzte Spielerei, die mit dramatischen Kompromissen einhergeht, wenn man nicht gerade ne RTX2080Ti oder die RTX-Titan benutzt.

Und die Leute feier(te)n sich für ne 889€ RTX2080 ab, während die GTX1080Ti-Besitzer mit ihrer alten Karte und den 11GB nur müde lächeln können.
Selbst RayTracing läuft auf einer RTX2080 eher mäh, jedenfalls deutlich schlechter als auf der Ti.

Ich freu mich schon auf die nächste Generation.
Wird sicher wieder nett anzusehen, wie die Schaf(f)e für ein paar Prozent Mehrleistung, und einen besser klingenden Namen, erneut 20% draufpacken.
Bestimmt wird dann diesmal auch nicht nur die "Ti" direkt gelauncht, sondern auch die Super-Modelle, wo NVIDIA dann noch mehr Geld abmelken kann.
Zuzutrauen wäre es der Lederjacke jedenfalls. :ugly:

Jaja... lasst euch mal verarschen.
Wer schlau ist verharrt auf Pascal und nimmt ne ernstzunehmende Generation an GPUs mit.
Vielleicht isses ja Ampere, bleibt abzuwarten. Ich gehe aber erstmal davon aus, dass noch ordentlich abgemolken wird.

Hängt am Blickwinkel.
Von der Pascal aus kommend, könnte man das so sehen, das Turing zu wenig bietet, aber viele kommen von älterer Hardware.
Wenn ich jetzt meine 1070 ersetzen wollte, würde ich aktuell die 2070s kaufen. Bietet mir mit RT einen Mehrwert und ist schneller und sparsamer, als die 5700XT, wenn auchalles in Grenzen. Auch wenn ich persönlich auch denke, die 2070s sollte etwas günstiger sein. Für mich der richtige Preis wäre etwa 490 Euro. Die ist eben 10% schneller, ref vs. ref und etwas sparsamer und bietet RT. Dieser Preis ist aber schon dicht an der Realität.

Da jetzt aber schon RTX3000 und RDNA 2 am Horizont zu sehen sind, warte ich ab.

Du benutzt ihn ja auch und willst die CPU nicht als Spekulationsobjekt wieder mit Gewinn verkaufen, oder? :D

Was bei einer RTX2080 nicht anders ist, oder war.
 
Zurück