News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Ob er übertaktet oder nicht spielt keine Rolle. Das Argument des Stromverbrauchs ist trotzdem valide. Ad hominem Argumentationen sind was für Dummies, also lassen wir das, ok.
Du solltest vielleicht mal googlen, was ad hominem bedeutet :)

Klar ist das Stromverbrauchsargument valide - das habe ich nie bestritten. AMD ist bei GPUs aktuell (bzw. seit einer Weile) ineffizienter.
Nur ist es ironisch, bei GPUs den Stromverbrauch bzw. die Effizienz als Argument zu nutzen, während man sie bei CPUs ignoriert (bzw, die Effizienz durch Übertaktung sogar aktiv verschlechtert).
 
Nvidia hat mal wieder den Markt verschlafen. Die 4070 wäre interessant wenn der Preis bei 500€ liegt aber so kommt mir die RAM Gurke nicht ins Gehäuse.

AMD hat mal wieder alles richtig gemacht, Raytracing funktioniert scheint aber auch bei der Allgemeinheit schlichtweg kein Interesse zu wecken.

DLSS ist nett aber weder in Elden Ring noch in World of Tanks habe ich dadurch Vorteile.

Auf dem KI Markt rudern auch gerade alle zurück, interessant interessant....

Bleibt dabei warten auf die nächste Generation. :(
 
Unsere aktuellen Rasterizing-Ausführungen zeigen, dass RX 7900 XT(X), RX 7800 XT und RX 6600 in ihrer jeweiligen Klasse beim Preis-Leistungs-Verhältnis besser abschneiden als vergleichbare Geforces
Hat wenig Aussagekraft, weil sich das P/L-Verhältnis durch den Stromverbrauch mit jeder Sekunde Nutzung mehr in Richtung Nvidia verschiebt.
 
Nvidia hat mal wieder den Markt verschlafen. Die 4070 wäre interessant wenn der Preis bei 500€ liegt aber so kommt mir die RAM Gurke nicht ins Gehäuse.

AMD hat mal wieder alles richtig gemacht, Raytracing funktioniert scheint aber auch bei der Allgemeinheit schlichtweg kein Interesse zu wecken.

DLSS ist nett aber weder in Elden Ring noch in World of Tanks habe ich dadurch Vorteile.

Auf dem KI Markt rudern auch gerade alle zurück, interessant interessant....

Bleibt dabei warten auf die nächste Generation. :(
WoT mit dem netcode von vor 2010 und 25% rng um das auszugleichen ist nicht unbedingt das top beispiel. Und Elden Ring hat auch RT bekommen da das ja niemanden interessiert . Ein feature das AMD bemüht ist es besser hinzubekommen.
 
Zuletzt bearbeitet:
Auch wenn deine anderen Punkte mal mehr oder mal weniger zutreffend sind(...)
So? Was ist denn nicht zutreffend? Wenn du hier schon ein Wort zitierst um die neutrale Nennung von allgemeinen Pros und Cons, mit einem ad Hominem anzugreifen, scheine ich ja recht zu haben.

Stromverbrauch kann jeder für sich gewichten.
dass jemand mit Stromverbrauch argumentiert, der einen 14900K *ÜBERTAKTET* im Profil stehen hat ist schon n bisschen ironisch, oder?
?! Die paar Stunden die ich zum Spielen komme, spielt der Stromverbrauch h bei maximaler Performance keine große Rolle, weil das System genau darauf getrimmt ist.
 
Zuletzt bearbeitet:
So? Was ist denn nicht zutreffend? Wenn du hier schon ein Wort zitierst um die neutrale Nennung von allgemeinen Pros und Cons, mit einem ad Hominem anzugreifen, scheine ich ja recht zu haben.

Stromverbrauch kann jeder für sich gewichten.

?!
Deine Lesekompetenz war auch schon einmal besser <- Das ist ein ad hominem.

Ich habe nicht gesagt, dass auch nur einer der Punkte falsch bzw. nicht zutreffend ist. Nur sind manche halt subjektiver dargestellt als andere (was sie nicht falsch macht - sie aber anders gewichtet). So ist FSR 3 nicht "2 Stufen schlechter" als DLSS. Schlechter? Ja. Teilweise sichtbar schlechter? Auch ja. Aber nicht 2 Stufen bzw. je nach Implementierung.

Zumal du in dem von mir zitierten Teil ja auch von der "Bildqualität" sprichst, die schlechter sein soll als bei Nvidia, was sogar tatsächlich faktisch falsch ist - außer wir beziehen Upscaler mit ein. Was du in dem Absatz nicht gemacht hast.

Stromverbrauch kann jeder für sich gewichten.
Das ist korrekt. Nur scheint dir Effizienz bei GPUs ungemein wichtig zu sein, bei CPUs wiederum völlig unwichtig. Und das ist - wie ich bereits erwähnte - ironisch. Falls du das nicht siehst, ist das schade.
 
Zumal du in dem von mir zitierten Teil ja auch von der "Bildqualität" sprichst, die schlechter sein soll als bei Nvidia, was sogar tatsächlich faktisch falsch ist - außer wir beziehen Upscaler mit ein. Was du in dem Absatz nicht gemacht hast.
Es gibt jetzt schon Spiele, sogar AAA-Titel wie Starfield, wo Upscaling die Standardeinstellung ist. Ich gehe (leider) davon aus, dass wir uns in naher Zukunft in vielen oder den meisten Spielen von "nativ" als Option verabschieden können. Spart einfach ne Menge Optimierungsarbeit für die Entwickler.

Von daher heißt es sehr bald Bildqualität = Upscalingqualität. Nvidia kann auch genug Masrktdruck erzeugen um das zu beschleunigen, vor allem solange sie das bessere Upscaling haben. An der Stelle von AMD würde ich es zur top Priorität machen da aufzuholen.
 
Das mag sein. Aber "sehr bald =/= jetzt". Sehr bald sind auch 24GB VRAM zuwenig für FullHD. Jetzt natürlich noch nicht (außer man brute forced es) - aber es hat daher aktuell keine Relevanz.
Du scheinst wirklich alles sehr genau nehmen zu wollen. Können wir gerne machen. Starfield ist nicht sehr bald, sondern jetzt released, genauer gesagt seit drei Monaten. Also ist es im Gegensatz zu deinem verzweifelten, komplett schwachsinnigen 24GB-VRAM-1080p-Vergleich sehr wohl schon relevant.
 
Du scheinst wirklich alles sehr genau nehmen zu wollen. Können wir gerne machen. Starfield ist nicht sehr bald, sondern jetzt released, genauer gesagt seit drei Monaten. Also ist es im Gegensatz zu deinem verzweifelten, komplett schwachsinnigen 24GB-VRAM-1080p-Vergleich sehr wohl schon relevant.
Oha, da hab ich aber einen Beißreflex losgetreten, wenn man jetzt schon allgemeingültige Aussagen anhand eines einzigen Spieles lostritt. Merke ich mir für die Zukunft - dass das also deine Beweisführung ist. In 99.99999999% aller Fälle ist die Bildqualität von Nvidia nativ nicht besser als die von AMD. In einem Spiel (deiner Meinung nach) schon. Also ist die Aussage, Nvidia hat die bessere Bildqualität DEINER Argumentation nach völlig schlüssig und korrekt.

Merkste selbst? Ne? Doch? Oh?
 
Oha, da hab ich aber einen Beißreflex losgetreten, wenn man jetzt schon allgemeingültige Aussagen anhand eines einzigen Spieles lostritt. Merke ich mir für die Zukunft - dass das also deine Beweisführung ist. In 99.99999999% aller Fälle ist die Bildqualität von Nvidia nativ nicht besser als die von AMD. In einem Spiel (deiner Meinung nach) schon. Also ist die Aussage, Nvidia hat die bessere Bildqualität DEINER Argumentation nach völlig schlüssig und korrekt.

Merkste selbst? Ne? Doch? Oh?
Du kannst gerne mit deiner 99,999999% Faselei kommen, aber Fakt ist, dass die Quote mit Starfield (und anderen Spielen, die ich jetzt nicht raussuche) über 0% liegt, und deine Aussage es habe "keine Relevanz" damit eindeutig falsch ist. Punkt.

Schon blöd Diskussionen mit so einer Korinthenkackerei zu führen, was? Da kannst du dir ja vorstellen, wie es deinen Diskussionspartnern geht.
 
Du kannst gerne mit deiner 99,999999% Faselei kommen, aber Fakt ist, dass die Quote mit Starfield (und anderen Spielen, die ich jetzt nicht raussuche) über 0% liegt, und deine Aussage es habe "keine Relevanz" damit eindeutig falsch ist. Punkt.

Schon blöd Diskussionen mit so einer Korinthenkackerei zu führen, was? Da kannst du dir ja vorstellen, wie es deinen Diskussionspartnern geht.
0,000001% aller Fälle = keine Relevanz. Niemand optimiert auf diesen Fall. Niemand kauft etwas nur für diesen Fall.

Und während du dich mal wieder mit Aussagen wie
Also ist es im Gegensatz zu deinem verzweifelten, komplett schwachsinnigen 24GB-VRAM-1080p-Vergleich sehr wohl schon relevant.
blamierst, drösel ich dir das mal auf:

Eine der Aussagen wird rein technisch irgendwann zutreffen, die Wahrscheinlichkeit dafür ist annähernd 100%
Die andere Aussage wird mit an Sicherheit grenzender Wahrscheinlichkeit NICHT so eintreffen.

Lösung: Meine Aussage, dass 24GB irgendwann (!) zuwenig sein wird für FHD hat eine sehr hohe Wahrscheinlichkeit. Dafür brauchts keine Glaskugel sondern einfach nur ein wenig Nachdenken und ein Blick in die Vergangenheit.

Deine Aussage, dass die These "Nvidia macht schönere Bilder als AMD weil es 1(!!!!!!!!!!!!!!!) Spiel gibt, welches per Default mit Upscalern ausgestattet ist" korrekt ist, da es in Zukunft immer so sein wird ist sehr unwahrscheinlich, da 80% der Games auch heute keine Upscaler brauchen um mit 100+ FPS zu laufen. Ich sage nicht, unmöglich, und natürlich kann ich mich irren. Aber wie man es dreht und wendet, du benutzt Glaskugeln, die falsch kalibriert sind.
 
Kann es immer nur aus meiner Sicht sagen. Für mich ist ne 4070 Super, sollte sie bei 650€ landen, deutlich sinniger als eine 7800XT.

Muss von einer 2070S upgraden und wie viele hab ich ein 550W NT. Für ne 4070 (Super) brauch ich nur die Karte. Für ne 7800XT müsste noch nen 650 oder 750 Watt NT her. Nen gutes (momentan hab ich das BQ Straight Power Platinum) kostet auch 100-120€.

So würde ich aktuell für ne 7800XT dann auch 650€ bis 670€ hinlegen, wenn ich das günstigste Modell nehmen würde.
 
Kann es immer nur aus meiner Sicht sagen. Für mich ist ne 4070 Super, sollte sie bei 650€ landen, deutlich sinniger als eine 7800XT.

Muss von einer 2070S upgraden und wie viele hab ich ein 550W NT. Für ne 4070 (Super) brauch ich nur die Karte. Für ne 7800XT müsste noch nen 650 oder 750 Watt NT her. Nen gutes (momentan hab ich das BQ Straight Power Platinum) kostet auch 100-120€.

So würde ich aktuell für ne 7800XT dann auch 650€ bis 670€ hinlegen, wenn ich das günstigste Modell nehmen würde.
Abgesehen davon, dass ich auch ne 4070 Super kaufen würde statt einer 7800XT, wenn ich in diesem Preisbereich aufrüsten würde - ich hab ne 3080ti mit nem 550W BQ Dark Power Pro betrieben - ums Netzteil müsstest du dir keine Gedanken machen :ugly:
 
Neukundenpreis liegt beschönigt bei 29,xx Cent die kwh. Das aber auch nur durch reduzierten Preis mit Neukundenbonis, die idR. im zweiten Jahr wieder wegfallen. Der Durchschnittspreis liegt bei knapp 42 Cent je kwh.
Der aktuelle Strompreis für Neukunden liegt - und das ganz ohne irgendwelche Boni - bei 28 Cent:


Das ist auch der einzig sinnvolle Maßstab für die Strompreisentwicklung. Deine 42 Cent sind der Betrag, der aktuell durchschnittlich gezahlt wird, und zwar inklusive des Drittels der Bevölkerung, das bereits seit ewigen Jahren in überteuerten Grundtarifen festhängt, und des weiteren Drittels, das niemals den Anbieter wechselt. Von daher hat das wenig Aussagekraft.
 
DLSS, Frame Gen und Konsorten muss jeder für sich "einpreisen", das ist nicht objektiv möglich.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

:ka:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bei FG stimme ich zu aber nicht beim upsacaling/frame reconstruction

wenn dem nicht so wäre woher kommt dann der Tenor das DLSS besser ist? Haben sich das die User ausgedacht?

Warum haben sonst soviele Leute die DLSS Starfield Mod gezogen ? Weil DLSS besser ist und zwar Objektiv betrachtet. Woher nimmst du dir diesen Quatsch das es nicht so wäre?

Es sagt ja auch niemand Mittlere Settings sehen besser aus als Ultra weil es objektiv falsch ist.

Muss man nicht verstehen aber von journalisten im jahr 2023 erwate ichs chon lange nix mehr.

In (nicht test)Videos darfst du Nvidia kritisieren in Test aber nur mit Maulkorb. Die Diskrepanz merkt man auch deutlich. Oder Artikel.
 
Deine Lesekompetenz war auch schon einmal besser <- Das ist ein ad hominem.
Gut, dann darf ich nie wieder über Stromverbrauch als sachlichen Vorteil sprechen, weil ich meine CPU übertaktet habe. Und jeder der ein Auto fährt das mehr als 4 Liter verbraucht, darf zu Hause nicht mehr mit Öl heizen. Haha!

Unter einem argumentum ad hominem wird ein Scheinargument verstanden, in dem die Position oder These eines Streitgegners durch Angriff auf dessen persönliche Umstände oder Eigenschaften angefochten wird.
Klar, kein ad Hominem. xD

Ich habe nicht gesagt, dass auch nur einer der Punkte falsch bzw. nicht zutreffend ist.
Doch das hast du auch gesagt. Wenn du streiten willst, such dir jemand anderen, keine Zeit.
 
Doch das hast du auch gesagt. Wenn du streiten willst, such dir jemand anderen, keine Zeit.
Nachweis? Ich habe "mal mehr oder weniger zutreffend" geschrieben. Und habe dies sogar begründet mit einer subjektiven Gewichtung. Nie habe ich geschrieben, dass du grundsätzlich Unrecht hast.
Klar, kein ad Hominem. xD
Natürlich nicht. Da ich nicht dich oder deine "Umstände" angegriffen, sondern dein Argument des "Stromverbrauchs" bzw. der "Effizienz", die dir in deinem Rechner doch eigentlich egal ist.
Gut, dann darf ich nie wieder über Stromverbrauch als sachlichen Vorteil sprechen, weil ich meine CPU übertaktet habe. Und jeder der ein Auto fährt das mehr als 4 Liter verbraucht, darf zu Hause nicht mehr mit Öl heizen. Haha!
Ad absurdum?

Wenn du Effizienz bei Autos hoch gewichtest in einem Argument, privat aber ein 78er Oldsmobile fährst, DANN wäre das eine ähnliche Ausgangslage.
 
Sorry aber wenn ich soviel geld ausgebe, wir reden ja schon von bis zu 600 eu, aber dann will ich eine Grafikkarte die nicht nur rund 1 Jahr die optimierten spiele butterweich schafft, sondern dann hat der Speicher 3 Jahre plus auszureichen ...
Ps die Käufer der 3080 die genannt wurden haben jetzt mit 10 gb sicher Spass in Vergleich zur AMD Fraktion.

Das Problem ist doch das gerade die RT Leistung einen gewissen speicher Vorraussetzt. Muss ja aber jeder selber wissen...

Ich kann es nicht mehr hören...

Ja, ich habe weiterhin Spaß mit meiner 3080 10GB und keine Probleme. Ich zocke in WQHD, selbst CP2077 mit PT und DLSS Balanced reizt da nicht den VRAM aus und läuft bei 50-60 FPS. Kann das eine 6800XT auch? Ich denke nicht...

Vor 3 Jahren habe ich die 3080 gekauft, was war da los hier im Forum, "VRAM Krüppel", "nächstes Jahr wird da nix mehr laufen", etc etc. Nichts davon ist eingetroffen in meinem Fall. Hogwarts Legacy, The Ascent, Guardians of the Galaxy, Metro Exodus Enhanced, liefen alle einwandfrei mit RT. Und nun? Wo ist mein "fehlender Spaß aufgrund des VRAMs"?

Natives 4k oder mit DLSS/FSR ? Das ist sehr wichtig weil in 4k Nativ haben die Karten sowieso nicht genug bumms da ist der Vram dann auch egal. :ka: ich mein Nativ schafft das auch die 4090 nicht. Wovon reden wir hier also?

Da könnt man auch irgendein Spiel nehmen 8k einstellen und sagen Karte ist kacke weil vram nicht reicht unabhängig davon das wir bei 8 fps stehen gerade.

Wie kann man das sehen? Kann man nicht. Avatsr belegt soviel vram wie es nehmen kann läuft aber in jeder auflösung mit 8gb flüssig ohne probs.

Was wir sehen ist der reservierte platz und das was hin un her geht was aber tatsächlich gebraucht wird wissen nur die Entwickler und wir wenn wir den Vram überlaufen lassen dann wissen wir ungefähr wann es eintritt.

in der unreal engine kann man es anzeigen lassen wenn ich mich nicht irre was der popobrenner sagt ist müll.

Ich hatte schon vram limit überschritten da hat der afterburner noch brav 2gb unter dem angezeigt was die Karte hatte an vram lol

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

aufs stichwort ;)

Man kann sich den tatsächlichen VRAM Bedarf einblenden lassen per Afterburner + RTSS:

1703157986571.png


Oben rechts "VRAM allocated", unten links "VRAM usage".

Naja, Upscaling spart gar nicht wirklich viel VRAM. Jedenfalls nicht so viel, dass dafür FG und RT voll reingehauen werden kann. Die neuen Effekten und Texturen und die feine Gemotrie ist halt nicht kostenlos. Das scheint irgendwie bei vielen gar nicht anzukommen. Es wird immer nur auf die FPS geschaut oder Texturen. Dabei sind Texturen eigentlich gar nicht mehr so ausschlaggebend für den VRAM Verbrauch, genauso wenig wie Auflösung generell. Sich da nur auf Texturen zu konzentrieren ist nicht mehr zeiggemäß weil Spiele heute viel komplexer sind.

Wir haben eben keine Texturtapeten mehr wie in Half Life 1 oder so. Heute haben wir tesselation, Details und Anzahl der Assents in der Spielwelt, einfaches 1 Ray per Pixel Raytracing und zunehmend sicher auch Pathtracing und die vielen anderen Techniken um da zu tricksen die ne mischung aus allem sind, sie Alan Wake 2.

Das kostet eben alles Leistung, aber eben auch Speicher.

Also Usage war bei mir eher immer so bei 11-13 GB. Allocated dann 15,x GB. Und das mit vollen Details und FSR3 Performance.

CP2077, WQHD, maxed out mit RT Psycho, nativ:
1703158061195.png


CP2077, WQHD, maxed out mit RT Psycho, DLSS Quality:
1703158097889.png


Bereits DLSS Quality spart fast 1 GB an VRAM ein.

komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,

Hier im Forum war DIE HÖLLE los weil Ampere 20-50 Watt mehr TDP hatte (bei vergleichbaren Karten) als RDNA2. Und das ging einseitig und ausschließlich von Team Red aus.

Jetzt bei RDNA3 vs Ada ist das natürlich ALLES nicht mehr so wichtig. Schon witzig wie sich die Fähnchen im Wind drehen...

wobei der Verbrauch der 4070Ti sowie der 4080 gar nicht soweit auseinander liegt zur 7900XT/X, aber die 4070 gegenüber der 7800XT reißt es dann wieder raus, einfach nur stumpfes Stammtischgehabe mehr nicht

Stimmt, ist ungefähr derselbe Abstand wie vorher bei Ampere vs RDNA2. Nur liefert die 4070ti dazu eben deutlich bessere RT Performance was damals umgekehrt nicht der Fall war. Heißt man hat jetzt geringeren Stromverbrauch bei mehr Leistung in allen Szenarien...
 
Zurück