News Radeon vs. Geforce: AMD stellt den Grafikspeicher in den Fokus und sieht sich gegenüber Nvidia klar im Vorteil

Wenn man die Steamumfrage durchgeht erkennt man dass die Leute großteils Liebhaber von verwaschenen Texturen sein müssen, und nVidia bedient diese Käuferschicht mit Karten mit sparsam verlöteten VRam, damit nichts dem Grafikgenuss stört. - Sonst würden sie ja AMD-Karten mit mehr Speicher kaufen, die mtiunter sogar billiger sind, aber scharfe Texturen trüben wohl deren Spielgenuss und das wollen die 6, 8, 10GB-VRam-User nicht. :ugly:
 
Also bei der XSX kann man es etwas besser beurteilen, denn die hat extra 10 GiB schnellen und 6 GiB langsameren (V)RAM. Da erkennt man wenigstens schon deutlich wieviel man für was bereitstellen will/wollte/kann.
Als eigene Innovation würde ich vorschlagen externen Speicher an den Thunderbolt Anschluss der Grafikkarte an-zustöpseln.

Bisher schafft Thunderbolt 5 120 Gbit/s. Das ist mehr als jeder Arbeitsspeicher im Moment schafft. Wenn dann Thunderbolt 6,7 oder 8 kommt, dann wären schnell Datenraten von <300 Gbit/s. Das reicht.

Dann gebe es wie bei der XBOX schnellen internen Speicher und etwas langsameren VRAM.
 
Als eigene Innovation würde ich vorschlagen externen Speicher an den Thunderbolt Anschluss der Grafikkarte an-zustöpseln.

Bisher schafft Thunderbolt 5 120 Gbit/s. Das ist mehr als jeder Arbeitsspeicher im Moment schafft. Wenn dann Thunderbolt 6,7 oder 8 kommt, dann wären schnell Datenraten von <300 Gbit/s. Das reicht.

Dann gebe es wie bei der XBOX schnellen internen Speicher und etwas langsameren VRAM.
300Gbits mit Thunderbolt 8 im jahre 2033 dann oder wie ?
Nur so als info so eine 4090 hat jetzt 1000Gbits die Transferrate zum VRAM.
Mit weniger als der Hälfte würdest du also Massiv an Performance verlieren.
 
300Gbits mit Thunderbolt 8 im jahre 2033 dann oder wie ?
Nur so als info so eine 4090 hat jetzt 1000Gbits die Transferrate zum VRAM.
Mit weniger als der Hälfte würdest du also Massiv an Performance verlieren.
Die 4090 ist kein Maßstab. Ich denke da eher an Grafikkarten die sowieso beschnitten sind. Mid Range etwa.

Ich glaube, dass wenn der Wille da ist, eine solche Entwicklung möglich wäre.
Es ist sogar noch übler. Die 4090 hat 1008G Gigabyte/s Bandbreite und nicht Gigabit.
Nach einer kurzen Recherche werden 21 Gigabyte pro second angezeigt.

Kurz um: Wer glaubt an meine Idee ?
 
Naja, eine 3070 ist mit den kümmerlichen 8GB in neuen Games schon enorm im Nachteil gegenüber einer 6800, obwohl der Chip selbst noch nicht zu langsam ist. Gleiches wird in 2 Jahren die 4070er ereilen. Da bringt es auch nichts, wenn nvidia weniger säuft.
Die Argumentation kann ich so auch für die alte 3070 nicht ganz nachvollziehen.
Der effektive Nachteil von 8GB findet sich heute meist nur bei ultra Details in hoher Auflösung ohne DLSS/FSR, es ist also kein großes Ärgernis das zu beheben.

Es wird ja von den AMD Nutzern auch oft gesagt man könne RT abschalten und habe trotzdem eine vernünftige Qualität. Das gilt natürlich auch für 8GB Karten, also für Käufer einer 5700XT, 2080 oder 3070.
Da hört man aber grundsätzlich nie etwas davon. Es wird Panik geschoben, bei alten, relativ schwachen Karten.

Und da nvidia die neuesten Features welche Vram sparen immer nur für aktuelle Karten bringt ist es umso schlimmer für User deren Hardware schon 2-4 Jahre alt ist.
Das da wäre?

Der Vergleich von Hardware Unboxed in TLoU mit 3070/6800 sagt alles und es wird immer enger in Zukunft.
Das Video zeigt doch auch, dass es problemlos möglich ist mit etwas geringeren Details auch noch in hoher Qualität zu spielen.

schon mitbekommen das die Konsolen 12 GB GPU Speicher besitzen?
Welche Konsole besitzt 12GB V-RAM? Das sind doch schon wieder Falschdarstellungen.
Die XboX könnte bis zu 10GB nutzen, da der Rest viel langsamer angebunden ist und die PS5 teilt sich 16GB mit dem RAM.

Auch wenn hier tatsächlich was wahres dran ist... AMD muss UNBEDINGT dieses Marketing-Team loswerden. Die reiten sich als weiter in die Schei*e rein mit ihrem Bockmist.
Sie machen sich damit komplett lächerlich. Wenn ich damit werbe, dass ein Kooperationstitel wie Resident Evil 4 17,5GB mit mäßiger Grafik belegt, dann ist das Anti-Marketing.
 
Zuletzt bearbeitet:
Naja hat AMD ja auch recht, ohne wenn und aber. Im Jahr 2023, 10 oder 12GB Karten mit einem Preis von 6~900€ auf den Markt zu hauen ist ne frechheit. Ab einer Mittelklasse Karte sollte das minimum im Jahr 2023 16GB sein. Das ist meine Meinung. Aber muss jeder selber wissen ob er eauf eine 4070 reinfällt oder eben nicht.
 
Wenn Du nur einen einzelnen Monitor nutzt liegt der Verbrauch der AMD Karten bei YT und im Idle Bereich wenn überhaupt nur unwesentlich höher. Erst beim Einsatz von 2 Monitoren gehts los. Bei 2 Monitoren mit unterschiedlichen Hz Werten steigt der Verbrauch leider schon sehr spürbar an. Unangenehm wirds dann bei 2 Monitoren mit 120Hz und sollten sie noch schneller sein 144+Hz dann läufts leider ziemlich aus dem Ruder.

Aber auch bei NV steigt der Verbrauch beim Einsatz von 2 Monitoren überproportional wenn auch nicht im selben Außmas.
Danke für die Info. Tatsächlich habe ich aktuell nur einen Monitor, aber möchte ja einen neuen WQHD Monitor kaufen und hatte schon geplant den bisherigen Monitor dann als Zweitmonitor zu nutzen. Ja er hat 60 Hz, trotzdem ....

Und wenn ich nachfragen dürfte, neulich kam mal ne Meldung, das es häufiger vorkommt das nach einem Spiel der Treiber den VRAM nicht runtertaktet und dann verheizt die Massig Strom ... ist das noch so?
 
Die 4090 ist kein Maßstab. Ich denke da eher an Grafikkarten die sowieso beschnitten sind. Mid Range etwa.

Ich glaube, dass wenn der Wille da ist, eine solche Entwicklung möglich wäre.

Nach einer kurzen Recherche werden 21 Gigabyte pro second angezeigt.

Kurz um: Wer glaubt an meine Idee ?

Als eigene Innovation würde ich vorschlagen externen Speicher an den Thunderbolt Anschluss der Grafikkarte an-zustöpseln.

Bisher schafft Thunderbolt 5 120 Gbit/s. Das ist mehr als jeder Arbeitsspeicher im Moment schafft. Wenn dann Thunderbolt 6,7 oder 8 kommt, dann wären schnell Datenraten von <300 Gbit/s. Das reicht.

Dann gebe es wie bei der XBOX schnellen internen Speicher und etwas langsameren VRAM.
120 GBit/s bedeutet 15GB/s

PCIEe4 x16 hat ~31,5GB/s

DDR5 RAM 5600MHz dual Channel hat 89.6GB/s

Der VRAM einer RTX 4090 hat 1008GB/s


Und der VRAM der Xbox ist sehr viel schneller als der interne Speicher
 
Zuletzt bearbeitet:
NV vs AMD: da gibt's aktuell nur 2 Karten die man vergleichen kann da diese preislich in der gleichen Liga spielen. Rx7900xt mit der Rtx4070ti.
Die AMD gewinnt dabei in 2 wichtigen Kategorien: mehr RAM, mehr Leistung.
NV gewinnt bei: DLSS, bessere RT Leistung, G-sync, weniger Stromverbrauch, bessere Treiber (hab ich nur öfters gelesen, kann ich jedoch nicht bestätigen da ich keine AMD habe).
Denke ist ein enges Kopf an Kopf Rennen. Ich persöblich würde da jedoch eher zu AMD greifen da ich in 5120x1440 zocke wo RT zu viel Leistung kostet und mein Lieblingsspiel kein dlss unterstützt.
 
Als eigene Innovation würde ich vorschlagen externen Speicher an den Thunderbolt Anschluss der Grafikkarte an-zustöpseln.

Bisher schafft Thunderbolt 5 120 Gbit/s. Das ist mehr als jeder Arbeitsspeicher im Moment schafft. Wenn dann Thunderbolt 6,7 oder 8 kommt, dann wären schnell Datenraten von <300 Gbit/s. Das reicht.

Dann gebe es wie bei der XBOX schnellen internen Speicher und etwas langsameren VRAM.
Du benötigst aber eine schnelle Anbindung und keine Breitbandige Daten Trasse.

Schön das Thunderbolt 120GBit/s schafft ich wage aber zu bezweifeln das man eine gute Latenz damit hinbekommt wenn es über ein USB Kabel nach außen geht.
 
Naja hat AMD ja auch recht, ohne wenn und aber. Im Jahr 2023, 10 oder 12GB Karten mit einem Preis von 6~900€ auf den Markt zu hauen ist ne frechheit. Ab einer Mittelklasse Karte sollte das minimum im Jahr 2023 16GB sein.
Leistung einer 3080 mit ca 200 Watt ist also Mittelklasse. Was mag wohl die gehobene Klasse sein? 3090TI?
Tja, die Premiumklasse von gestern ist heute nur noch gehobene Mittelklasse. Wollen wir hoffen, dass man in ein paar Jahren mit einer 4070 noch Tetris spielen kann.

Ernsthaft:
Ja klar, 16GB wären besser, aber 12GB wird wohl noch bis Ende dieser Konsolengengeration halten (nicht in 4k natürlich!). Man kann natürlich auf die 5000er Karten von Nvidia hoffen. Aber keiner sollte sich einreden, dass die nicht doch teurer werden als die jetzige 4000er Generation.
Der technologische Sprung ist dem Wechsel von PS4 auf PS5 geschuldet und wird in den nächsten Jahren von ihr gebremst. Man entwickelt nun mal keine Spiele für Konsolen, die nicht darauf laufen (siehe Performance von Cyberpunk 2077 beim Release auf der PS4).
 
Jetzt noch eine für die 4090 und AMD wäre interessant. Aber dann bringt Nvidia die Titan oder 4090ti raus und wir sind wieder beim Ausgangspunkt. Auch wenn AMD bei Preis Leistung Punktet . Macht Nvidea im hi end Bereich einfach die besseren Karten. Mir ist egal ob AMD oder Nvidea.. wer die schnellere Karte baut bekommt mein Geld. In diesem Falle Nvidea für die 4090. Früher hat AMD gut mitgehalten. Aber heute kommt nichts mehr..
DAs interessiert nur 98% der Gamer nicht. Die Greifen iwo zwischen 300-800€ zu. Daher wird sich das meiste Marktgeschehen dort abspielen… Dort muss man punkten. Schön das NV die Formel 1 für sich entscheiden kann, aber das Volk brauch Alltagsautos!
 
weil es keine infos zur UVP senkung gab abgesehen davon ist die 7900xt noxch keine 2Jahre und auch 50USD günstiger
Zahl ich die UVP oder den Realpreis?
Beim Autokauf interessiert mich am Ende auch nicht, was am "Preisschild" steht, sondern was ich aushandle.

Bis zu dem dämlichen Crypto-Boom vor 3 Jahren waren UVPs sowieso nicht ernst zu nehmen und 1-2 Monate nach Produkt-Release obsolet. Ist doch schön, wenn das endlich wieder der Fall ist.

Dass sich sowohl AMD als auch Nvidia bei der Preisgestaltung lächerlich aufführen sei dahingestellt.
 
oder legst halt nochmals 600€ drauf und holst dir eine 4080 mit genügend VRam, alles nur Kalkül bei Niewidia

*edit*
und kann man sich auch nur erlauben aufgrund knapp 90% Marktanteil, alles nur Kausalität -
Die Marktanteile stimmen ja nichtmal...
Nvidia meldet all units shipped - also alles von Laptop über PC zu Server.
AMD meldet PC only. Die klammern selbst den Laptop Teil aus.

Die Statista Zahlen basieren auf JPR... und hier ein dekonstruieren dieser Zahlen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Frage an die RX 7900er Käufer: Hat AMD den Stromverbrauch im Idle/Twitch/Youtube in den Griff bekommen inzwischen?
Aus den letzten Release Notes:
Known Issues:
High idle power has situationally been observed when using select high-resolution and high refresh rate displays on Radeon™ RX 7000 series GPUs.
Stichwort sind hier high resolution und refresh rate. Zweitmonitor mit FHD und 60Hz ist wohl kein Problem. Mehrere 4k/140+Hz Monitore sind merkbar.
Es hat sich vermeintlich schon etwas gebessert, ist aber eben noch nicht behoben. Intel hat übrigens ähnliche Probleme. Nvidia ist hier scheinbar merklich besser unterwegs, dafür haben sie aber andere Probleme mit Multi-Monitor-Setups (Monitorerkennung, per default 60Hz, etc.)
Allerdings muss AMD sich da auch vorhalten lassen, dass sie mit manchen Karten wie der 6400 dann genauso geizig sind.
Alles unterhalb der 6600 war ein frecher Cash-Grab
Und wenn ich nachfragen dürfte, neulich kam mal ne Meldung, das es häufiger vorkommt das nach einem Spiel der Treiber den VRAM nicht runtertaktet und dann verheizt die Massig Strom ... ist das noch so?
Meinst du die zusätzliche Prozessorlast bei Nvidia? Für AMD hätte ich jetzt nichts vergleichbares gehört.
DAs interessiert nur 98% der Gamer nicht. Die Greifen iwo zwischen 300-800€ zu. Daher wird sich das meiste Marktgeschehen dort abspielen… Dort muss man punkten. Schön das NV die Formel 1 für sich entscheiden kann, aber das Volk brauch Alltagsautos!
Naja, das Halo-Produkt (derzeit in Form der 4090) hat durchaus auch Einfluss auf die niedrigeren Segmente. Leute denken in dem Schema: "Die haben das beste Produkt am Markt, das in meiner Preiskategorie muss auch am besten sein". Darum ist Samsung im Handymarkt auch so stark, dank den Galaxy S-Handys.
 
Auch eine 8GB 3070 weiß sich zu behaupten gegen AMDs Best (zumindest bei CP 2077 und dem heutigen Pathtracing Update XD Hoffen wir mal, dass nicht noch mehr solcher Games demnächst erscheinen.

Screenshot_76.jpg
 
Zurück