AMD Big Navi: Angeblich nur Konkurrenz zur RTX 3070 - bei 275 Watt

Wieviel Strom sollen denn dann die Konsolen verbrauchen. Ich gehe von etwas mehr aus als die letzte Generation aber das passt doch dann alles nicht zusammen?

Da man bekanntermaßen echte Probleme hat, die Wärme ohne zu lauten Lüfter in den Griff zu bekommen und deswegen die Gehäuse quasi um dieses Problem herum designed hat, würde ich davon ausgehen, dass die neuen Konsolen 20-50% mehr Leistung aufnehmen wie die Pro Versionen der Vorgängergeneration.
 
Also derjenige der diese Überschrift zu dem Artikel geschrieben hat gehört unbezahlt Beurlaubt.

Das passt ja mal null zu dem Video von Igor, und ist mal wieder Clickbait erhaschen von PCGH.
 
Ja genau, das klingt superplausibel und ist zweifellos eine geniale Marketing-Strategie, nur dass ihnen anderthalb Wochen später die Presse mit ihren eigenen Benchmarks diese Aussagen um die Ohren hauen würden und gewonnen hätte nVidia in der Zwischenzeit nichts, denn die RTX 3080 wird erst nach dem Fall des NDAs überhaupt verfügbar werden.
An dir ist echt ein Sales/Marketing-Mensch verloren gegangen ... :wall:
NVIDIA GeForce RTX 3080: 168% of RTX 2080 SUPER performance in CUDA and OpenCL benchmarks - VideoCardz.com

Cudaleistung ist ein verdammt guter Indikator, wo die Karten bei der Spieleleistung stehen. Demnach ist eine RTX 3080 nur um 41% schneller als eine RTX 2080 Ti.
Es ist ganz dringend empfohlen die Tests abzuwarten, bevor man voreilige Schlüsse aus irgendwelchen Folien zieht.

@Igor
Er hat fairerweise gesagt, dass er spekuliert. Ich spekuliere auch mal:
Was, wenn AMD mehr als 80 cus bei BigNavi vorsieht?
Grund: Sie nutzen diesmal TSMC 7nm performance node, welcher eine um 7% höhere Logikdichte erlaubt. D.h. die verdoppelte BigNavi Fläche könnte mehr als das Doppelte an Logikeinheiten von RX5700XT beherbergen. Es wären bis zu 112 CUs möglich (unwahrscheinlicher Vollausbau). 90-104 aktive CUs wären realistisch.
 
Zuletzt bearbeitet von einem Moderator:
Die Frage ist, ob es sich für AMD überhaupt lohnt eine Karte zu entwickeln, die mit der RTX3090 oder 3080 mithalten kann. AMD muss aufgrund seines Rufes zB im Bereich Treiber (ich persönlich hatte noch nie Probleme) im High-Endbereich seine Karten günstiger anbieten als Nvidia bei gleicher Leistung. Die Entwicklung für die Highendkarten ist teuer und die absatzzahlen sind gering. Also glaube ich, würde AMD mit den High-Endkarten keinen großen Gewinn machen, wenn sie es nciht schaffen einen deutlich kleineren Chip als Nvidia mit gleicher Leistung zu entwerfen. Die Karten im Preisbereich der 3070 und darunter werden in deutlich größere Absatzzahlen aufweisen. Ich glaube nicht, dass AMD Lust hat zig Millionen in ein reines Prestigeobjekt zu stecken, denn die großen Gamingkarten sollen ja auch eine eigenen Architektur erhalten als die Profikarten und sind somit nicht nur abgespeckte Varianten dieser Katen.
 
Wenn sie in ähnlichen Regionen unterwegs sind wie die 3070 und vielleicht sogar Freesync bis in die 3080 Leistungsregion pushen ist doch alles bestens.
 
Naja, die RTX 3070 soll ja angeblich so schnell werden wie die RTX 2080 Ti.
Wenn AMD das schafft ist das doch auch ok.
Die absolute Leistungkrone wird dann eben Nvidia weiter behalten. Mir macht das nichts aus.
 
Die Frage ist, ob es sich für AMD überhaupt lohnt eine Karte zu entwickeln, die mit der RTX3090 oder 3080 mithalten kann. AMD muss aufgrund seines Rufes zB im Bereich Treiber (ich persönlich hatte noch nie Probleme) im High-Endbereich seine Karten günstiger anbieten als Nvidia bei gleicher Leistung. Die Entwicklung für die Highendkarten ist teuer und die absatzzahlen sind gering. Also glaube ich, würde AMD mit den High-Endkarten keinen großen Gewinn machen, wenn sie es nciht schaffen einen deutlich kleineren Chip als Nvidia mit gleicher Leistung zu entwerfen. Die Karten im Preisbereich der 3070 und darunter werden in deutlich größere Absatzzahlen aufweisen. Ich glaube nicht, dass AMD Lust hat zig Millionen in ein reines Prestigeobjekt zu stecken, denn die großen Gamingkarten sollen ja auch eine eigenen Architektur erhalten als die Profikarten und sind somit nicht nur abgespeckte Varianten dieser Katen.
Wenn AMD nicht entwickelt dann hat Nvidia das Monopol.

Da die Preise der rtx3000 so niedrig sind wird AMD mit Big Navi was haben.

Nicht umsonst macht Nvidia diese Strategie.

Jedes Lager hat ihre Spitzel um infos zu bekommen.

Nvidia lässt noch Platz um ti's nach zu schieben.

Wie mit den Super Grafikkarten bei Rtx2000.

So schlecht wird big Navi wohl nicht sein wenn es in den neuen konsolen steckt.

Auch AMD lernt dazu und entwickelt.

AMD muss mit geringerem Budget die Leistung von fast Nvidia bringen und das ist schon beachtlich.

Naja die Treiber sind ein wenig ein Problem aber sonst kann man nur Hut ab zu AMD sagen.

Auch in Bereich Cpu's wird AMD richtig gut.

Gesendet von meinem SM-A520F mit Tapatalk
 
Die haben das doch zumindest halbwegs gut ausgewiesen. Bspw. Control haben sie ohne Raytracing und DLSS und dann später mit RTX High und DLSS im Perf Mode gezeigt und in beiden Fällen war die 3080 jeweils 70 - 80 % schneller als die 2080.



Wenn du mir zeigen kannst, wo ich so etwas geschrieben habe ... ansonsten war das eine dumme Frage, insbesondere, da ich schon zuvor geschrieben habe, dass die 90 % Effizienzgewinn zwar nicht gelogen, aber schöngerechnet/gut ausgesucht waren, denn hier hat man die Leistung bei Iso-Performance gewählt. Kann man durchaus machen, da die Kunden aber primär Leistung interessiert, wäre wohl eher die Leistung bei Iso-Power die richtige Wahl für die Demonstration gewesen.

Zudem, macht man es sich hier einfach und verwendet nVidia's eigenen Graphen und zeichnet zwei Linien ein, kommt man für Ampere (hier wohl die 3080) auf eine +50 % höhere Effizienz bei Iso-Power (90 Fps ggü. vormals 60 Fps), in Control in 4K auf einem i9 (mehr wurde hier als Rahmenbedingungen nicht angegeben). Ein durchaus ordenticher Sprung.

Wo Du was geschrieben hast, weißt Du imho selbst. Und nein, performancenormierte Verbrauchsvergleiche sind nicht "gut rausgesucht" . Das ist einfach Bullshit und versuchte Kundenveralberung und in der gleichen Liga wie 3,5+0,5=4.
Der von Dir angestrengte verbrauchsnormierten Performancevergleich sieht dann auch
1. schon ganz anders aus (1,9 --> 1,5) und spielt
2. immer noch vermutlich im Bestcaseszenario für Ampere (FP vs INT, SM-Auslastung allgemein, etc.) so dass
die real über alles verbleibende zu erwartende, ohnehin noch zu gutem Teil auf die Herstellungsprozessverbesserung zurück zu führende Steigerung imho dann ganz und gar nicht mehr bahnbrechend sein dürfte. Aber warten wir Tests ab, vorher bleibt ohnehin alles heiße (Marketing- oder Fanboy-) Luft.
 
Zuletzt bearbeitet:
Wir könnten natürlich auch alle erstmal die Benchmarks zu den neuen nvidia Karten am 14.09. abwarten, um zumindest eine Seite vernünftig beurteilen zu können. Aber das wäre natürlich zu einfach und zu langweilig... :D

Ach was, der Hypetrain braucht Kohle.

Moores Law is Dead hat auch jede Menge behauptet, dass Nvidia in Schwierigkeiten wäre weil man nur Samsungs 8NM Process nutzen könne und nicht den von TSMC, dass RDNA2 toll wird etc.
Leaks bleiben leaks und bis PCGH die Tests zu den jeweiligen Karten veröffentlicht hat ist alles nur Mutmaßung.
 

Erstens stellt sich die Frage, was mein Post mit deinem Post zu tun haben soll? Oldtekkno hat unmissverständlich dargerlegt, dass er die geteaserten Leistungswerte für Fakes (bzw. Lügen) hält. Ich habe ihm erklärt, dass das marketingtechnischer Selbstmord wäre (da er von dem Thema ja anscheinend keine Ahnung zu haben scheint).

Darüber hinaus sind CUDA-Werte keinesfalls direkt auf Fps abbildbar, weil hier komplett andere Recheneinheiten in anderer Art und Weise gefordert werden, d. h. die Workloads weichen beträchtlich voneinander; es bleibt nur eine grobe Indikation mehr nicht, was auch der Grund ist, dass man von TFlops nur bedingt auf die Renderleistung schließen kann. Zudem hat sich mit Ampere die Architektur umfangreich geändert. Und schlussendlich zeigt die Tabelle auch gar keine offensichtlichen Diskprepanzen auf, denn die DF-Videos zeigten um die 60 - 80 % mehr Fps i. V. z. einer 2080 und videocardz zeigt hier im Mittel +68 % mehr CUDA und +68 % mehr OpenCL-Leistung auf. Grob betrachtet durchaus deckungsgleich und stimmig ...
Und schlussendlich waren die Videos von DF für Gamer wohl weitaus relevanter, denn hier liefen echte Games durch und noch dazu ohne optimierte Ampere-Treiber, denn der erste sollte laut Igor erst am 4.9. bereitgestellt werden. Also blewibt am Ende nur eine handfeste Manipulation zu unterstellen ... oder das Ganze als halbwegs plausibel hinzunehmen. In einer Woche werden wir mehr wissen ...
 
Ach was, der Hypetrain braucht Kohle.

Moores Law is Dead hat auch jede Menge behauptet, dass Nvidia in Schwierigkeiten wäre weil man nur Samsungs 8NM Process nutzen könne und nicht den von TSMC, dass RDNA2 toll wird etc.
Leaks bleiben leaks und bis PCGH die Tests zu den jeweiligen Karten veröffentlicht hat ist alles nur Mutmaßung.

Und die prognostizierten Schwierigkeiten sind nicht zu erkennen bei GX102 statt 104@>300W bei UVP ab 699,- ?

:hmm:

Na gut, zumindest mit dem Preispunkt bin ich schonmal nicht gaaaanz unzufrieden. :-)

Edit:
@gerX7a:
Also doch 1,9 und (knapp, mit finalen Treiber dann) +100%. :lol:
Du wirkst in dem Punkt doch noch etwas hin und her gerissen...
14.09., 15:00 Uhr MEZ sagt RAFF. Öhmmm, d.h. er "vermutet" es.
 
Zuletzt bearbeitet:
Wir könnten natürlich auch alle erstmal die Benchmarks zu den neuen nvidia Karten am 14.09. abwarten, um zumindest eine Seite vernünftig beurteilen zu können. Aber das wäre natürlich zu einfach und zu langweilig... :D

Nein, es mach doch viel mehr Spaß erst mal eine Runde rumzuhaten und dem bösen, grünen Kobold Manipulation und Betrug vorzuwerfen ... ;-)

NDA wird fallen. Tests werden kommen. Annahmen werden durch Wissen ersetzt
smiley.gif

Bezüglich letzterem bist du aber überaus optimistisch ... ich würde eher sagen, dass diesbezüglich nicht selten eher das Gegenteil der Fall ist. ;-)
 
Bezüglich letzterem bist du aber überaus optimistisch ... ich würde eher sagen, dass diesbezüglich nicht selten eher das Gegenteil der Fall ist. ;-)

Naja, also wenn ich PCGH Tests lese kann ich danach schon gut feststellen welche Gerüchte nun wahr gewesen sind und welche nicht.
Diejenigen bei denen das nicht eintritt, naja sagen wir so, die könnten sich den Test sowieso schenken. Oder auch die Gerüchte.
 
Warum sind bei AMD die 300 Watt eventuell eine Brechstange für 3080 Leistung und bei Nvidia sind die 320 Watt der 3080 was... keine Brechstange?

Es bleibt beim Abwarten, da AMD mal wieder mit Abwesenheit, nix sagen und später dran sein glänzt. Ich drück die Daumen, dass da was gutes kommt und nicht nur ein Angriff auf die Mittelklasse ist :hail:
 
Erstens stellt sich die Frage, was mein Post mit deinem Post zu tun haben soll? Oldtekkno hat unmissverständlich dargerlegt, dass er die geteaserten Leistungswerte für Fakes (bzw. Lügen) hält. Ich habe ihm erklärt, dass das marketingtechnischer Selbstmord wäre (da er von dem Thema ja anscheinend keine Ahnung zu haben scheint).

Darüber hinaus sind CUDA-Werte keinesfalls direkt auf Fps abbildbar, weil hier komplett andere Recheneinheiten in anderer Art und Weise gefordert werden, d. h. die Workloads weichen beträchtlich voneinander; es bleibt nur eine grobe Indikation mehr nicht, was auch der Grund ist, dass man von TFlops nur bedingt auf die Renderleistung schließen kann. Zudem hat sich mit Ampere die Architektur umfangreich geändert. Und schlussendlich zeigt die Tabelle auch gar keine offensichtlichen Diskprepanzen auf, denn die DF-Videos zeigten um die 60 - 80 % mehr Fps i. V. z. einer 2080 und videocardz zeigt hier im Mittel +68 % mehr CUDA und +68 % mehr OpenCL-Leistung auf. Grob betrachtet durchaus deckungsgleich und stimmig ...
Und schlussendlich waren die Videos von DF für Gamer wohl weitaus relevanter, denn hier liefen echte Games durch und noch dazu ohne optimierte Ampere-Treiber, denn der erste sollte laut Igor erst am 4.9. bereitgestellt werden. Also blewibt am Ende nur eine handfeste Manipulation zu unterstellen ... oder das Ganze als halbwegs plausibel hinzunehmen. In einer Woche werden wir mehr wissen ...

40% Mehrleistung zwischen 3080 und 2080ti. Erkauft durch fast 30% Mehrverbrauch.
Sieht nach Brechstange aus.
 
Zurück