News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Naja, Upscaling spart gar nicht wirklich viel VRAM. Jedenfalls nicht so viel, dass dafür FG und RT voll reingehauen werden kann.
Die kann ich aber bei Nvidia heute voll reinhauen und bei AMD halt nicht.
Zudem sieht's mit DLSS Performance immer noch gut aus während FSR Performance deutlich schlechter aussieht.
Also Usage war bei mir eher immer so bei 11-13 GB. Allocated dann 15,x GB. Und das mit vollen Details und FSR3 Performance.
Auf Ner Radeon..
 
Keine Ahnung warum du dich jetzt auf meine HW beziehst,
Du hast dich auf meine bezogen, erinnerst du dich nicht?
Ich gebe angeblich viel Geld aus, aber du nicht? Gab's die 7900XTX und den 7950X3D bei Motatos zum Sonderrabatt oder wie? Was soll dein Argument sein?
außerdem interessieren mich die Benches zwischen AMD und NV überhaupt nicht.
Das merkt man. Welche Kriterien also? Na keine. Klasse Beitrag.
 
AMD ist für mich schlicht nicht konkurrenzfähig. Wesentlich höherer Verbrauch, im Vergleich mieses Upscaling und RT-Features/Performance. Die nehmen wie meistens in den letzten 10 Jahren mal wieder die Watt-Brechstange, um mithalten zu können.

Und dann gibt es Leute, die sich ne AMD kaufen weil sie ja "etwas schneller im Raster" ist. :lol: Einfach mal den Verbrauch angleichen und dann gucken was schneller ist, oder sich selbst weiter belügen.
Oder einfach auf den ganzen Quark verzichten, da in den Spielen die man spielt ohnehin nicht implementiert ist oder auf Grund der hohen Leistung nicht gebraucht wird. Der Verbrauch juckt mich da auch nicht die Bohne, wenn ich schon derart viel Geld ausgebe für so eine Karte. Und die Kohle die ich dann über die Zeit mit einer Nvidia einspare, lege ich am Anfang erst einmal oben drauf. Bis das dann ausgeglichen ist, ist schon die nächste Generation auf dem Markt. Und nein, AMD nimmt nicht die Watt-Brechstange, sie haben einfach nur das schlechtere Fertigungsverfahren bei TSMC erwischt. Das kann nächste Generation schon wieder ganz anders aussehen...siehe Entwicklung im CPU Bereich, wo Intel gegen die Effizienz von AMD kein Land sieht. Vor allem weil sie mit ihrem Chiplet-Design auch im GPU-Markt entsprechend Punkten könnten. Ganz abschreiben sollte man AMD hier nicht, das durfte Intel am eigenen Leib erfahren wie so etwas enden kann.

Aber jetzt mal im Ernst...Ihr macht euch alle so einen Harten hier, bekriegt euch gegenseitig als sei das eine Religion... wie wäre es ihr zockt einfach damit und gut ist?
 
komischerweise war der Verbrauch bei Ampere kein Problem für viele,
Ampere und die Radeons lagen was Effizienz angeht nahe beieinander.
Ampere hatte durch den DLSS und RT Vorteil sogar mehr Effizienz, im Raster lag man etwas hinten, aber nicht mehr als 10 bis 15%.
auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,
Bei RT ist die Effizienz 70 bis 80% höher.
wobei der Verbrauch der 4070Ti sowie der 4080 gar nicht soweit auseinander liegt zur 7900XT/X, aber die 4070 gegenüber der 7800XT reißt es dann wieder raus, einfach nur stumpfes Stammtischgehabe mehr nicht
Es ist ein Vorteil. Nicht weltbewegend. Aber die Effizienz ist in Kombi mit DLSS und RT bei gleicher BQ etwa doppelt so hoch.
Geh in den CPU Thread da wird die AMD Effizienz immer hervorgehoben.
 
Jetzt ist Ihre Meinung gefragt zu Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]
???

Warum dann nicht schon ein paar Weniger schon vor Weihnachten anbieten?
Viel hilft Viel geht voll in die Hose wenns zu spät verfügbar ist.(x)
... und in nem 1/2 Jahr gibts RDNA4 und Battlemage !?

btw.
Und beim Preis wird VIEL auch net helfen, .... the more you buy, the more you save
(499€ = kaum wahrscheinlich, ... eher so 699+)

(x) die 4090D für China soll wohl schon am 28.Dezember kommen
(könnte dann Ihr Geld wert sein, weil länger up to date, bis 2025 Nachfolger kommen)
 
Zuletzt bearbeitet:
komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre
Verbrauch ist seit 12 Jahren ein Problem bei AMD. RDNA2 vs Ampere war das einzige Mal seit sehr langer Zeit, dass AMD vorne war. Kann niemand abstreiten. Aber es war eben eine Ausnahme.
Und die Kohle die ich dann über die Zeit mit einer Nvidia einspare, lege ich am Anfang erst einmal oben drauf. Bis das dann ausgeglichen ist, ist schon die nächste Generation auf dem Markt.
Ändert ja nix. Am Ende kosten beide dasselbe auf die Lebenszeit der Karte, und Nvidia bietet dann letzlich einfach mehr fürs Geld. So sehr ich Nvidia auch verachte.. Es ist halt einfach Fakt.
Ganz abschreiben sollte man AMD hier nicht, das durfte Intel am eigenen Leib erfahren wie so etwas enden kann.
Intel hat jahrelang fast gar nichts getan. Immer nur Mini-Verbesserungen, und dann kam Ryzen (2) und hat aufgeräumt. Aber Nvidia ist nicht so faul. Und AMD hat meines Wissens keine neue GPU in der Pipeline, an der Jim Keller gearbeitet hat. :ugly:
 
".... vermeintlichen Nvidia-Pläne ein?" Ich wollte mich ja zu diesem NV-Affentheater nicht mehr äussern. Aber meine Abneigung gegen dieses Chaosmanagement erreicht langsam meine persönliche Schmerzgrenze. Auch wegen der Zeitverschwendung die durch dieses schamlose Dummmurksen entsteht.

- erst ist der Grakamarkt am Ende
- dann wird doch wieder produziert
- oder nächste Woche dann doch wieder nicht
- dann wird wieder "rumgeschnitten"
- dann wird der Quatsch als "Super" verscheuert
- und dann soll ich als Kunden diesen hirnlosen Quatsch noch mitmachen?

Das ist ja schlimmer als sado-maso-Spielchen unterm Tannenbaum. :wall:

Man/frau sollte sich mal verstellen sich ein paar Schuhe kaufen zu wollen. Zu teuer, dann gibts keine mehr, dann passt die Größe nicht, dann nur ohne Schnürsenkel und dann werden die Absätze beschnitten. Und wenn mal was passt dann kostet der Schuh 2000,00 Flocken. Aber es gibts nicht genug Schuhe für alle. Und dann quasselt der Anbieter permanent Blödsinn. Und dann geht man/frau aus dem Laden und die Schuhe brennen ab.

Und diesen Sülz schreib ich schon seit 1999 oder so: NV geh mir nicht dauernd aufn Keks! :stupid:

Resultat: Um so besser es für AMD läuft - umso eher kriegt man dieses Geschäftgebaren abgestellt! Deswegen sage ich ja immer "strategisch" denken und auch kaufen! Und nicht jeden Dummscheiss mitmachen.

Das "Superzeugs" kann er behalten. Ich kauf AMD. Jetzt erst recht! Hab schon 2 RX 6700 XT für die Officerechner gekauft! Super! :daumen: Fortsetzung folgt!
 
komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,

wobei der Verbrauch der 4070Ti sowie der 4080 gar nicht soweit auseinander liegt zur 7900XT/X, aber die 4070 gegenüber der 7800XT reißt es dann wieder raus, einfach nur stumpfes Stammtischgehabe mehr nicht
Warum? Ampere ist effizineter als RDNA 2.

RTX 3090 350 Watt - RX 6900XT 300 Watt
RTX 3080 320 Watt - Rx 6800XT 300 Watt
RTX 3070 220 WAtt - RX 6800 230-250 Watt
RTX 3060TI 200 Watt Rx 6700XT 230 Watt
RTX 3060 175 Watt - RX 6600XT 160 Watt

Nun machst du mal Rt an und rechnst es aus und sieht was aus der Effizienz wird. Da sind die paar Watt was 20 Watt? Unterschied ein Witz. Zumal manche Ampere karten auch in Raster Effizienter sind wie die 3060TI.

Heute 4070 190 Watt - Rx7800XT sag ma 250 Watt Trotzdem real in spielen oft knapp 100 Watt unterschied was glaubst du wo die effizienz hier landet wenn man RT anmacht und DLSS? :lol: Amd ist nicht eine Generation zurück sondern mehrere.

Was für ne Witzshow mit den amd clowns in jedem Forum. Man würde meinen die teilen sich 1 Gehirnzelle gemeinsam.
 
Verbrauch ist seit 12 Jahren ein Problem bei AMD. RDNA2 vs Ampere war das einzige Mal seit sehr langer Zeit, dass AMD vorne war. Kann niemand abstreiten. Aber es war eben eine Ausnahme.

Ändert ja nix. Am Ende kosten beide dasselbe auf die Lebenszeit der Karte, und Nvidia bietet dann letzlich einfach mehr fürs Geld. So sehr ich Nvidia auch verachte.. Es ist halt einfach Fakt.

Intel hat jahrelang fast gar nichts getan. Immer nur Mini-Verbesserungen, und dann kam Ryzen (2) und hat aufgeräumt. Aber Nvidia ist nicht so faul. Und AMD hat meines Wissens keine neue GPU in der Pipeline, an der Jim Keller gearbeitet hat. :ugly:
Aber lag AMD nicht auch im CPU Markt jahrelang bei der Effizienz hinter Intel? Kann sich alles ändern wie wir heute wissen.

Und bei den Features die Nvidia bietet, kommt es halt auch darauf an, ob man die tatsächlich nutzt. Es gibt so viele Spiele die DLSS nicht haben oder wo RT nicht dabei ist, die Rohleistung auch so hoch ist das man garkeinen Upscaler benötigt. Schon sind die Vorteile nichtig. Bis auf 1 Spiel (Cyberpunk) musste ich bisher kein FSR einschalten oder hätte RT vermisst (weils einfach nicht dabei ist). Bei dem Game ist es dringend nötig, da sind Nvidias klar die besseren Karten.

Und wem der Stromverbrauch tatsächlich so wichtig ist, der kauft halt eine Nvidia oder schaltet FPS Cap / VSync ein, spart in vielen Fällen deutlich Strom und ändert nichts am Spielgefühl. GSync/FreeSync sei Dank :)
 
Die PCGH User sind halt immer überzeugt, dass PLV bei AMD so gut wäre, obwohl das nicht mal die PCGH Indizes zeigen und DLSS gar nicht eingepreist ist.
Es wird alles ignoriert und nur mit dem Vram argumentiert, aber 4K Nativ, wenn schon denn schon.
Unsere aktuellen Rasterizing-Ausführungen zeigen, dass RX 7900 XT(X), RX 7800 XT und RX 6600 in ihrer jeweiligen Klasse beim Preis-Leistungs-Verhältnis besser abschneiden als vergleichbare Geforces:


Beim Raytracing ist das aber umgekehrt. DLSS, Frame Gen und Konsorten muss jeder für sich "einpreisen", das ist nicht objektiv möglich.

MfG
Raff
 
Beim Raytracing ist das aber umgekehrt. DLSS, Frame Gen und Konsorten muss jeder für sich "einpreisen", das ist nicht objektiv möglich.
Frame Gen würde ja nur bei ner gebrauchten 3090 fehlen
RDNA2+3 sind da net soo knauserig

btw.
Für Viele wird wohl auch das Gamebundle ne Rolle spielen.
AW2 für 1- 2 Tage Spieldauer vs. wochenlang Spass auf Pandora
(ne 7800xt gabs schon für 519€, ... abzgl. Avatar= 450€ effektiv)
 
also Laut PCGH wird die GPU soviel kosten wie 4070 aber wird die Leistung von RTX 4070 TI( RTX3090TI) haben . ehrlich gesagt ich versuche mich zu beherrschen und pflanze mir ein dass ich die GPU für meine Spiele und Monitor gar nicht nötig hab
 
....btw.
Für Viele wird wohl auch das Gamebundle ne Rolle spielen.
AW2 für 1- 2 Tage Spieldauer vs. wochenlang Spass auf Pandora
(ne 7800xt gabs schon für 519€, ... abzgl. Avatar= 450€ effektiv)
Du kaufst Spiele Grafikkarte doch nicht nach der beilage?

Ein Spiel auf das man keine lust hat ist nichts wert.
Habe zb AW2 code dazu bekommen darauf habe ich lust.
Die 450€ musste ich aber trotzdem bezahlen.
 
Zuletzt bearbeitet:
Die allermeisten Neukunden zahlen derzeit 27 Cent für ihren Strom. Keine Ahnung, warum der Preis im Laufe des nächsten Jahres derart explodieren sollte.

Neukundenpreis liegt beschönigt bei 29,xx Cent die kwh. Das aber auch nur durch reduzierten Preis mit Neukundenbonis, die idR. im zweiten Jahr wieder wegfallen. Der Durchschnittspreis liegt bei knapp 42 Cent je kwh.

1703138528165.png


Gut, je mehr man verbraucht umso weniger bezahlt man scheinbar, was irgendwie keinen Sinn macht. So versuche ich doch nicht unter 2500kwh zu bleiben, wenn ich für 3000kwh hiernach gehend das gleiche Geld bezahle..... :ugly: Wer hat sich denn das bitte ausgedacht und hat es für eine gute Idee gehalten.

Arbeiter: "Hey Chef, unsere Netze können das nicht und genug Energie haben wir auch nicht,! Was machen wir mit denen, die mehr verbrauchen, also Besserverdiener potentiell? " Chef: "Mach es billiger, dann können wir mehr absetzen! Wenn Probleme auftauchen überlegen wir uns dann eine Ausrede!":devil:

1703138730176.png

Es wird alles ignoriert und nur mit dem Vram argumentiert, aber 4K Nativ, wenn schon denn schon.

Das stimmt nicht. AMD hat auch DP 2.1 und kann 8K bei 120 Fps darstellen (oder waren es 240?). Ganz egal, ob die Karte dann nur 2 Frames schafft, sie könnte es machen...das ist die Hauptsache. :ugly:
???

Warum dann nicht schon ein paar Weniger schon vor Weihnachten anbieten?
Viel hilft Viel geht voll in die Hose wenns zu spät verfügbar ist.(x)

Genau genommen ist es das nicht. Die Leute bekommen viele Geldgeschenke und Gutscheine, die erst einmal bei Seite gelegt werden. Der größte Verkaufseffekt kommt erst in der zweiten Januarwoche zum Tragen.
 
Zuletzt bearbeitet:
Auch wenn deine anderen Punkte mal mehr oder mal weniger zutreffend sind, dass jemand mit Stromverbrauch argumentiert, der einen 14900K *ÜBERTAKTET* im Profil stehen hat ist schon n bisschen ironisch, oder?
Ob er übertaktet oder nicht spielt keine Rolle. Das Argument des Stromverbrauchs ist trotzdem valide. Ad hominem Argumentationen sind was für Dummies, also lassen wir das, ok.
 
Zurück