News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Im Vergleich Ryzen gegen Intel sehen wir jedes Jahr wieder und wieder, dass die CPU die mit dem besseren (kleineren) Prozess gefertigt wurde bei Hitze und Verbrauch besser abschneidet.

Exakt das gleiche sehen wir bei Nvidia und AMD hier. Nvidia fertigt auf TSMC 4N, was ein 5nm Prozess ist. AMD fertigt den Compute Teil auf N5 (5nm) und den Memory Cache auf N6, einem 7nm Prozess. Wer hier mehr Strom verbraucht ist klar, keine Sorge, es sind nur die Gesetze der Physik an dieser Stelle. Solange Teile vom AMD Chip 7nm sind und Nvidia 100% 5nm, wird immer Nvidia die Nase vorne haben.

Was man auch bedenken sollte ist AMD's Aussage, dass der Memory Cache deswegen in 7nm gefertigt wird, weil es keine Leistungsvorteile bringt diesen Teil in 6nm zu fertigen. Das mag richtig sein und man sieht, dass die Karte von der Leistung her kein problem hat mit der Nvidia mitzuhalten, aber 7nm wird halt immer mehr Strom verbrauchen, den Nachteil nimmt AMD bewusst hin.

Auch ist es wichtig zu wissen, dass viel vom Strom den eine Karte verbraucht nicht durch Rechenleistung entsteht, sondern das meiste durch hin und her kopieren. Entweder Vorbereiten von Daten damit etwas ausgerechnet werden kann, oder hin und herschieben von Ergebnissen, dass eine Folgeoperation stattfinden kann. Was wir umgangssprachlich als "die GPU rechnet" bezeichnen ist in Wirklichkeit eine GPU die viel kopiert und rechnet. Weil wirklich viel Kopiert wird, kommen schnell diese bis zu 100W zustande die eine AMD mehr braucht.

Allerdings ist in einem normalen Nutzungsszenario eines SpielePCs dieser Mehrverbrauch kein Thema. Im Schnitt werden seit Corona 10h pro Woche gezockt, damit kostet die AMD 40Cent in der Woche mehr als die Nvidia. Im Jahr sind das 20€ auf der Stromrechnung, oder umgerechnet einmal weniger auf ein Early Access Spiel das das Blaue vom Himmel verspricht reinfallen.

Der andere Vorteil ist freilich, dass AMD eine gute Ausbeute und billigere Kosten haben wird, sobald sie den Prozess im Griff haben und mit der Verlässlichkeit Multi-Die GPU fertigen, wie das bei Ryzen schon der Fall ist. Natürlich macht das die Karten nicht billiger, die Kohle steckt AMD schön selbst ein. Aber ich halte es schon für möglich, dass AMD noch locker 100€ Spielraum hat, um Nvidia unter Druck zu setzen mit der 7800XT. Allein ich glaube nicht daran, dass das passiert sondern, dass es weiter dieses stillschweigende Kartell gibt bei dem niemand dem anderen mit dem Preis wirklich weh tut.
 
Unsere aktuellen Rasterizing-Ausführungen zeigen, dass RX 7900 XT(X), RX 7800 XT und RX 6600 in ihrer jeweiligen Klasse beim Preis-Leistungs-Verhältnis besser abschneiden als vergleichbare Geforces:


Beim Raytracing ist das aber umgekehrt. DLSS, Frame Gen und Konsorten muss jeder für sich "einpreisen", das ist nicht objektiv möglich.

MfG
Raff


Schön gesagt .

Heist also auf gut Deutsch , würde PCGH alle von Nvidia und Amd angebotenen Features samt Stromverbrauch usw... einpreisen wäre Amd auch noch im Preisleistungsvergleich hinter Nvidia .

Möglich wäre dies schon , aber eben von PCGH offensichtlich nicht gewollt , mit der Ausrede dann nicht objektiv zu sein ??

Äh ja ist klar . :D


Aber andererseits sind für PCGH ja auch die Amd vs Nvidia GraKa Verkaufszahlen von nur einem einzigen Online Händler ( Mindfactory ) für ganz Deutschland repräsentativ .:ugly:

Man stellt es eben so dar wie es ( politisch ? ) gewollt ist .
 
Zuletzt bearbeitet:
Ne vorm Pc sitzen würde ich jetzt nicht unbedingt als richtiges Hobby bezeichnen
Ist alles Ansichtssache. Was wäre, wenn ich dein Hobby (wenn du eines hast) nicht als "richtiges" Hobby bezeichne?

Wer bist du bitteschön, das du dich über andere und ihre Zeitvertreibe stellst:schief:

Sorry, aber dieser Kommentar ist das arroganteste/überheblichste, was ich hier seit langem gelesen habe:nene:

Gruß
 
Zuletzt bearbeitet:
Im Vergleich Ryzen gegen Intel sehen wir jedes Jahr wieder und wieder, dass die CPU die mit dem besseren (kleineren) Prozess gefertigt wurde bei Hitze und Verbrauch besser abschneidet.

Exakt das gleiche sehen wir bei Nvidia und AMD hier. Nvidia fertigt auf TSMC 4N, was ein 5nm Prozess ist. AMD fertigt den Compute Teil auf N5 (5nm) und den Memory Cache auf N6, einem 7nm Prozess. Wer hier mehr Strom verbraucht ist klar, keine Sorge, es sind nur die Gesetze der Physik an dieser Stelle. Solange Teile vom AMD Chip 7nm sind und Nvidia 100% 5nm, wird immer Nvidia die Nase vorne haben.

Was man auch bedenken sollte ist AMD's Aussage, dass der Memory Cache deswegen in 7nm gefertigt wird, weil es keine Leistungsvorteile bringt diesen Teil in 6nm zu fertigen. Das mag richtig sein und man sieht, dass die Karte von der Leistung her kein problem hat mit der Nvidia mitzuhalten, aber 7nm wird halt immer mehr Strom verbrauchen, den Nachteil nimmt AMD bewusst hin.

Auch ist es wichtig zu wissen, dass viel vom Strom den eine Karte verbraucht nicht durch Rechenleistung entsteht, sondern das meiste durch hin und her kopieren. Entweder Vorbereiten von Daten damit etwas ausgerechnet werden kann, oder hin und herschieben von Ergebnissen, dass eine Folgeoperation stattfinden kann. Was wir umgangssprachlich als "die GPU rechnet" bezeichnen ist in Wirklichkeit eine GPU die viel kopiert und rechnet. Weil wirklich viel Kopiert wird, kommen schnell diese bis zu 100W zustande die eine AMD mehr braucht.

Allerdings ist in einem normalen Nutzungsszenario eines SpielePCs dieser Mehrverbrauch kein Thema. Im Schnitt werden seit Corona 10h pro Woche gezockt, damit kostet die AMD 40Cent in der Woche mehr als die Nvidia. Im Jahr sind das 20€ auf der Stromrechnung, oder umgerechnet einmal weniger auf ein Early Access Spiel das das Blaue vom Himmel verspricht reinfallen.

Der andere Vorteil ist freilich, dass AMD eine gute Ausbeute und billigere Kosten haben wird, sobald sie den Prozess im Griff haben und mit der Verlässlichkeit Multi-Die GPU fertigen, wie das bei Ryzen schon der Fall ist. Natürlich macht das die Karten nicht billiger, die Kohle steckt AMD schön selbst ein. Aber ich halte es schon für möglich, dass AMD noch locker 100€ Spielraum hat, um Nvidia unter Druck zu setzen mit der 7800XT. Allein ich glaube nicht daran, dass das passiert sondern, dass es weiter dieses stillschweigende Kartell gibt bei dem niemand dem anderen mit dem Preis wirklich weh tut.
Warum kopiert den AMD mehr hin und her? Keine Ahnung was du sagen möchtest. Aber der Interposer in 7nm wird sicherlich keine 100 Watt fressen
 
Naja, es gibt schon noch einen Unterschied zwischen weggucken und in Kauf nehmen.

Beim Kauf ist der Stromverbrauch ja nur einer von vielen Faktoren, und für die meisten auch ein eher nachrangiger.

In der Summe aller Faktoren abseits des Stromverbrauchs scheint die Mehrheit der Leute nun mal ziemlich klar Nvidia zu bevorzugen. Von daher ist es wenig überraschend, dass der Makel eines höheren Stromverbrauchs als die Konkurrenz, bei Nvidia eher in Kauf genommen wird, während er bei AMD eher zum endgültigen Deal Breaker wird, weil es dann in der Liste der Vorteile um den größeren VRAM ziemlich einsam wird. Hat aber nichts mit weggucken zu tun, sondern einfach nur mit der Gewichtung einer Vielzahl von Faktoren, die beim Kauf relevant sind.
Ich denke nach wie vor das diese Argumentation generell ziemliche Augenwäscherrei ist.

Die Nvidia Karten sind doch deutlich teurer oder liefern gesamt weniger - !das meine ich bei Leistung per €!. (Mit Ausnahme von Raytracing Leistung die aber generell bei beiden Grafikkartenherstellern zu niedrig ist wenn man es richtig aufdreht und ohne DLSS/FSR spielt)

Ich denke nach wie vor den meisten Spielern würde es gar nicht auffallen ob eine AMD oder Nvidia Karte im Rechner ist, wenn sie blind einen Rechner anschalten und los zocken müssten.
Ich hab z.B. früher auch immer Gedacht die Leistung ist so niedrig ich brauch das beste was möglich ist. Aber das ist Blödsinn, klar benötigt man relativ viel Leistung für bestimmte Settings aber ob da nun 20% mehr Fps bei rumkommen interessiert nicht wirklich. Leider sagen das die meisten Leistungsbalken aus - vorausgesetzt du setzt gleich teure Grafikkarten gegeneinander.
Da macht dann das warten auf die nächste Generation in Gänze mehr Sinn (Effizienz, Boost, Kompatibilität und Support) als sich auf die paar % zu versteifen.

Da schone ich wirklich lieber meinen Geldbeutel und kauf später noch mal neu - die Blockbuster Games schwächeln eh zur Zeit ziemlich.
 
Die Nvidia Karten sind doch deutlich teurer oder liefern gesamt weniger - !das meine ich bei Leistung per €!. (Mit Ausnahme von Raytracing Leistung die aber generell bei beiden Grafikkartenherstellern zu niedrig ist wenn man es richtig aufdreht und ohne DLSS/FSR spielt)
Das sind aber viele Einschränkungen :D
Wenn man es auf die Raster Rohleistung beschränkt könnte man das so sehen, aber zu einer Grafikkarte gehört dann doch noch etwas mehr ^^
 

Anhänge

  • Screenshot_20231222_093254_Firefox.jpg
    Screenshot_20231222_093254_Firefox.jpg
    289,1 KB · Aufrufe: 9
Was die rtx4060ti angeht die sku hat nen gewaltiges problem.
TBP ist gut perf theoretisch auch aber die sku hat viel zu langsame vram Blöcke nötig wäre 24gbps ,dran sind 18gbps.Da helfen die 16gb vram auch nicht
vom preis ganz abgesehen
Derzeit P/L die rx7702xt aber bei viel zu hohen 245w tbp
 
Warum kopiert den AMD mehr hin und her? Keine Ahnung was du sagen möchtest. Aber der Interposer in 7nm wird sicherlich keine 100 Watt fressen
Der wird einen großen Anteil an den 100W tragen.

Nvidia stellt Werkzeuge wie das Power Capture Analysis Tool zur Verfügung und hatte vor langer Zeit mal einen Vortrag online mit dem Tenor: rechnen ist billig, kopieren ist teuer. Soll heißen, dass wenn ein Programm eine einzelnes Ergebnis ausrechnet, dann ist das billig und verbraucht wenig Energie. Was aber auch Energie und schaltenden Transistoren erfordert ist, dass Rechenaufgabe vom PCIe Bus entgegengenommen wird, bis zum Cuda Core gelangt und dann zurück an den PCIe Bus gegeben wird. Dieser "Kopiervorgang" bei dem eigentlich nichts berechnet wird ist "teuer", in dem Sinne, dass er bis zu 80% der Energie verbrauchen kann die der Gesamtprozess benötigt. Das wiederum ist ein Argument und der Hauptgrund, warum jede CPU und GPU diverse Formen von Cache haben, die so nahe wie möglich an den Rechenkernen ist. Mit Anylsetools gehen dann die Programmierer auf die Jagd ihren Code so zu optimieren, dass Vorgänge bei denen Daten kopiert werden so weit es geht beschränkt werden. Ein 50:50 Split für ein Spiel bei dem ständig Daten von der CPU über den PCIe Bus kommen ist als gutes Ergebnis zu betrachten. Wenn deine Nvidia also 250W frisst, dann gehen 125W in die Frames, der Rest geht an irgendwelche Kopiervorgänge.

Angenommen Nvidia und AMD hätten beide ein Multichipdesign bei dem alles in 5nm gefertigt wäre, dann wäre alles sehr ähnlich. Eine 200W Karte hätte 100W für rechnen und 100W für kopieren.

AMD hat jedoch einerseits einen Teil des Chips in 7nm gefertigt. Gerechnet wird immer noch mit 100W, aber anstatt 100W zum kopieren zu brauchen, benötigt der 7nm Chip des Designs keine 100W wie bei Nvidia, sondern 130W. Einfach nur weil er in 7nm gefertigt ist. Anschließend hat AMD sich gedacht: Infinitycache, wir brauchen mehr Speicher. Postiiv, weniger Kopiervorgänge über PCIe, Negativ trotzdem mehr Kopiervorgänge. Ohne AMD Entwicklerkit werden wir nur Schätzen könenn was das ausmacht. Zum Schluss drehen wir die Taktrate hoch und schon haben wir 100W mehr auf der Karte verbraucht. Weil nicht nur ist ein Teil unseres Chips in 7nm, sondern wir befeuern den auch noch extrahart, weil wir den Cache größer gemacht haben (schließlich ist 7nm auch billiger zu produzuieren).

Wenn man wissen will wie schnell die reine Karte ist, dann nimmt man am Besten Benchmarks mit CPU Minimallast wie Returnal. Das ist ein Spiel das total durchoptimiert ist, so gut es geht nur auf der GPU zu laufen. Da würde wirklich die Architektur gegeneinander antreten, Die Gegenprobe ist ein Spiel das viel CPU frisst, daran würde man sehen ob das generelle Chipdesign Flaschenhälse hat und ob die Kopiervorgänge eine AMD Karte ins TDP Limit treiben können. Imemr daran denken, wenn die Karte sagt bei 200W ist Schluss, dann ist bei 200W Schluss, wenn das Spiel so schlecht optimiert ist, dass 190W in Kopiervorgänge gehen, dann Pech gehabt.

Am besten sieht man den Unterschied bei Raytracing. Nvidia hat spezialisierte RT Kerne am Ende der Cudapipeline, da ist der Output vom Cuda gleich dem Input vom RT Core, was lästiges Kopieren spart. AMD macht das nicht, da gibt es nur allgemeine Kerne und der Otput von einem Kern muss erst wieder zurück in den Input, damit ein anderer Kern die nächste (RT) Operation mit dem Ergebnis ausführt.
 
Das sind aber viele Einschränkungen :D
So wird doch immer argumentiert.
Wenn man nur auf das oder das achtet, dann gilt das oder das.
Fragt sich nur wer heute noch auf Upscaler, FSR/DLSS und FSR FMF bzw. FG verzichten möchte? Die AMDler waren trotz starker Probleme von AFMF und FMF total begeistert, trotz FSR Zwang und jetzt wieder kein Upscaling nutzen?

Ganz schön wie ein Fähnchen im Wind.
Wenn man es auf die Raster Rohleistung beschränkt könnte man das so sehen, aber zu einer Grafikkarte gehört dann doch noch etwas mehr ^^
Nur noch der Vram. Alles andere überbewertet.
Ich denke nach wie vor den meisten Spielern würde es gar nicht auffallen ob eine AMD oder Nvidia Karte im Rechner ist, wenn sie blind einen Rechner anschalten und los zocken müssten.
Wenn wundert das schon, wenn sie keinen Vergleich haben?
Hat man beide Systeme nimmt man natürlich DLSS.
Ich hab z.B. früher auch immer Gedacht die Leistung ist so niedrig ich brauch das beste was möglich ist.
Für die höchsten Settings braucht man das beste. Logisch.
Aber das ist Blödsinn, klar benötigt man relativ viel Leistung für bestimmte Settings aber ob da nun 20% mehr Fps bei rumkommen interessiert nicht wirklich.
Vielleicht dann doch mal Upscaling nutzen?
Da macht dann das warten auf die nächste Generation in Gänze mehr Sinn (Effizienz, Boost, Kompatibilität und Support) als sich auf die paar % zu versteifen.
Sind 30 bis 80% in 4K +DLSS/FSR zwischen 7900XTX und 4090.
Das ist eine komplette Gen, oder nicht?
Wieso paar Prozent?
Da schone ich wirklich lieber meinen Geldbeutel und kauf später noch mal neu
Kann man machen, oder auch nicht. Das Leben ist kurz.
 
Sind 30 bis 80% in 4K +DLSS/FSR zwischen 7900XTX und 4090.
Das ist eine komplette Gen, oder nicht?
Wieso paar Prozent?
Bitte lese noch mal was ich geschrieben habe?

Seit wann ist eine RTX 4090 genau so teuer wie eine 7900XTX?

Ich habe mich ausschließlich auf das gleiche Preisgefüge bezogen, es macht keinen Sinn Grafikkarten zu vergleichen die 1000€ Preisdifferenz haben. Somit ist die RTX 4090 aus dem Vergleich raus - bei der gilt nur wer mehr haben will muss mehr bezahlen.
Kann man machen, oder auch nicht. Das Leben ist kurz.
Stimmt, daher gibts ja auch noch andere Dinge als nur Grafikkarten.
 
Zurück