News AMD auf der Gamescom: Neue Radeon, aber was ist mit FSR 3 und HYPR-RX?

Na da sagt der Jensi aber seit Jahren ganz was anderes.
Die haben es auch eingesehen und es bei der RTX4000 gelassen...
Aber AMD hat mit 8k in dieser Generation beworben, also haben sie aktuell den Buh-Mann.
Die AMD Karten sind ja auch ohne FSR3 gut. Ein gut funktionierendes FSR3 wäre hier ja die "cherry on top" während ein Großteil des Nvidia Lineups ohne DLSS und co. schlechter wären und die Features schon einen guten Teil des Preises ausmachen.
Das einzige Problem das man über Nvidia sagen kann ist, das sie DLSS3, bzw die bessere RT Leistung in den Kaufprei mit einfließen lässen. Das macht sie aber nicht schlecher in der Leistung, nur unattaktiver im Preis.

Aktuell hat Nvidia aber auch in der Effizienz bei derselben Leistung die Nase vorne. Vor allem, wenn man ne Karte tuned.

Bevor ich jemanden etwas empfehle, frage ich was er will und bohre für Deteils.
AMD ist günstig, aber nicht schlecht, doch Nvidia kann aktuell manches besser als AMD...
Wer viel Geld auszugeben hat, greift sowieso zu einer 4090 und hier hat AMD "versagt". In der letzten Gen war die 6900XT wenigstens der 3090 ebenbürtig.

Günstigste 7900XTX: 950€

Günstigste 4080: 1150€
Ja AMD drückt aktuell wieder, aber eine Nummer niedriger ist interessanter:
Günstigste 7900XT: 799€
Günstigste 4070Ti: 799€..ja aber mit 12GB VRAM. Da hat Nvidia sich den Pfeil ins Knie geschossen...

7900GRE: ca 600€ (bei fertig PCs wenn man die anderen Teile abzieht)
4070: 599€
6800XT: 540€

Ich meine 60€ Unterschied ist jetzt nicht viel dafür das die 4070 besser RT kann und deutlich weniger verbraucht..zudem will nicht jeder eine "alte" Karte kaufen. Und DLSS3 und so...
Wegen den 12GB VRAM würde ich HIER nicht rummeckern, weil die Karten im 1440p Bereich sind. Im 4k Bereich, wie die 4070Ti sind mind 16GB Pflicht.
Aber dennoch will ich ja einen Fortschritt im Preis nach einer Generation...und da bekleckert sich keiner von den beiden mit Ruhm...

Ich bin SEHR gespannt, wie AMD den Preis der 7800XT und der 7700XT ansetzt und natürlich deren Leistung...
Allerdings gibt mir die OEM only 7900GRE, die keine UVP hat ein mieses Gefühl... Ich meine damit, das ich die 7800XT in der Nähe von 550-600€ sehe...
 
Wie du bereits richtig erkannt hast, war es so auch nicht gemeint ;)


Das ist ja auch richtig und steht auch nicht im Konflikt zu dem was ich schrieb.


Du missverstehst mich. Ich kritisiere nicht, dass sie es kopieren. Ich kritisiere, dass sie nur noch kopieren und keine eigenen Innovationen mehr bringen.
Ich erinnere dich an Mantle oder TressFX. Wann hat AMD zuletzt mal was eigenes gebracht, was man nicht von der Konkurrenz kopiert hat?
FSR ist gut und richtig, aber mir fehlen zusätzlich die eigenen Entwicklungen von AMD.
Ja, dann habe ich dich wirklich missverstanden. Für mich las sich das wie Kritik an der fehlenden Kopie. Dann Schwamm drüber.
 
Für wen Software Features ein Kaufargument für Hardware ist... nunja.
Das ist im Moment sogar ein ziemlich großes Kaufargument..

AMDs GPU Hardware ist auf dem Papier nicht schlecht.. und es gibt durchaus gute Punkte wie mehr VRAM in einigen Leistungsklassen..
Aber die Software ist einfach das Problem

- FSR ist qualitativ der schlechteste Upscaler auch wenn er überall funktioniert.
-Keine brauchbare Reflex alternative (hypr-RX ist schon ein Witz aufgrund der Komponenten aus denen es besteht)
- Aktuell kein FG mit fragwürdigen veröffentlichzeitpunkt und Qualität
- Freesync Premium Pro HDR problematik
- Der Treiber ist zwar schön anzusehen.. bringt nur nix wenn die hälfte davon Buggy ist oder nicht funktioniert.


Da tut man sich schon schwer im Moment AMD ne Kaufempfehlung auszusprechen. Auch wenn die anvisierte Leistungsklasse mehr Vram hat oder günstiger ist.
 
Es ist aber nunmal so wie es ist. AMD zu "kritisieren", sie sollen mal zu sehen, klingt irgendwie kindlich naiv.
Warte, Du hast doch angefangen mit "aber schau wie viel weniger Geld AMD hat und in wie vielen Bereichen sie tätig sind". Ich hab nur gesagt dass Nvidia auch viele Bereiche abdeckt und nichts für den Umsatz von AMD kann.

Ich kritisiere AMD doch gar nicht dafür? Wobei ich schon sagen muss dass die Ankündigung für FSR3 ziemlich daneben war.
 
Günstigste 7900XTX: 950€
https://geizhals.de/powercolor-rade...nd-rx-7900-xtx-24g-l-oc-a2864124.html?hloc=de

Günstigste 4080: 1150€
https://geizhals.de/palit-geforce-rtx-4080-gamingpro-ned4080019t2-1032a-a2864392.html?hloc=de

200€ Aufpreis für deutlich bessere RT Leistung, besseres Upscaling (DLSS > FSR 2) und Frame Generation (FSR 3 fehlt ja weiterhin). Die Rasterleistung ist ungefähr gleich, dafür verbraucht die 4080 weniger Strom und ist somit ein gutes Stück effizienter (spart also auf die Nutzungsdauer wieder Geld ein).

So viel besser ist die 4080 nicht wirklich. Klar, besseres Feature-Set und etwa 35 W effizienter (wie lange muss ich da mit der 4080 zocken, damit sich die Preisdifferenz über die Stromersparnis amortisiert? 2-3 Jahre bei ungefähr 3-4h spielen täglich?)

Aber naja, ohne die grüne Brille siehts halt so aus:

mit der 7900XTX habe ich 8 GB mehr VRAM, der schneller angebunden ist und dadurch auch höhere Speicherbandbreite und ungefähr 12 TFlops mehr Leistung.

Fairerweise muss man also entscheiden, was man möchte: etwas mehr Effizienz, FG und schnelleres RT, dann grün. Mehr VRAM und eine günstigere Karte mit mehr Rohleistung, dann rot. FSR 3 wird ja noch kommen - hoffentlich bald.
 
So viel besser ist die 4080 nicht wirklich. Klar, besseres Feature-Set und etwa 35 W effizienter (wie lange muss ich da mit der 4080 zocken, damit sich die Preisdifferenz über die Stromersparnis amortisiert? 2-3 Jahre bei ungefähr 3-4h spielen täglich?)
Und wenn es in 2-3 Jahren erst amortisiert? Ich mein, immerhin amortisiert die sich überhaupt und ist irgendwann "gleich günstig" gewesen. Das war vorher bei Ampere vs RDNA2 nicht der Fall.


Aber naja, ohne die grüne Brille siehts halt so aus:

mit der 7900XTX habe ich 8 GB mehr VRAM, der schneller angebunden ist und dadurch auch höhere Speicherbandbreite und ungefähr 12 TFlops mehr Leistung.

Fairerweise muss man also entscheiden, was man möchte: etwas mehr Effizienz, FG und schnelleres RT, dann grün. Mehr VRAM und eine günstigere Karte mit mehr Rohleistung, dann rot. FSR 3 wird ja noch kommen - hoffentlich bald.
Jaja, da wird wieder Fanboyism unterstellt. Ist auch einfacher...

Die 8GB mehr VRAM braucht wer? 16GB reichen nicht für 4K?
Was genau bringt jetzt die höhere Speicherbandbreite? Die Karten liegen extrem nah beieinander:

1692334440744.png


Und dann wiederholst Du alle Vorteile ich die schon genannt habe!? Ich sagte doch Wort für Wort genau das!
 
Das einzige Problem das man über Nvidia sagen kann ist, das sie DLSS3, bzw die bessere RT Leistung in den Kaufprei mit einfließen lässen. Das macht sie aber nicht schlecher in der Leistung, nur unattaktiver im Preis.
Das könnte man so erstmal im Raum stehen lassen.

Aktuell hat Nvidia aber auch in der Effizienz bei derselben Leistung die Nase vorne. Vor allem, wenn man ne Karte tuned.
Ja, das konnte ich jetzt deutlich merken.

Meine 4070ti läuft aktuell bei 228W schneller als Stock, bei 285W.
Bevor ich jemanden etwas empfehle, frage ich was er will und bohre für Deteils.
Bester Ansatz!
AMD ist günstig, aber nicht schlecht, doch Nvidia kann aktuell manches besser als AMD...
Ist AMD wirklich günstiger, oder bietet man einfach ein anderes Paket?

Ich meine, wenn nur Raster Leistung gewichtet wird ok, wenn aber zusätzlich die Leistung in VR, oder in Ray Tracing Titeln gewichtet wird, dann auch noch inkl. der DLSS Funktionalitäten, dann hat eine 4070ti sicher kein schlechteres P/L Verhältnis.

Bezüglich des VRams ist wieder die Frage, nach den von dir genannten Punkten. Was will der Käufer. Wer sowieso bei RTX5000 und RX8000 wieder aufrüsten möchte, der kann sicher bis 2025 mit 12GB mehr als super auskommen.

Außerdem wenn man die Release Gurken Zustände der Spiele raus nimmt und erst die ersten Patches abwartet, dann erledigt sich auch der imense VRam Hunger. PCGH hat dazu ja schon Tests gemacht.

Dann ist eher die Frage an den Käufer, was darf es eher sein. Mehr Sicherheit beim VRam, oder mehr beim RT/VR.
Wer viel Geld auszugeben hat, greift sowieso zu einer 4090 und hier hat AMD "versagt". In der letzten Gen war die 6900XT wenigstens der 3090 ebenbürtig.
Ist die Situation nicht eher die selbe.
Oft ist die 7900XTX im Raster, zwischen 4080 und 4090 und bei RT halt nicht ;). Das war doch bei 6900XT auch so.
Ja AMD drückt aktuell wieder, aber eine Nummer niedriger ist interessanter:
Günstigste 7900XT: 799€
Günstigste 4070Ti: 799€..ja aber mit 12GB VRAM. Da hat Nvidia sich den Pfeil ins Knie geschossen...
Wie gesagt, finde ich diese Betrachtung sehr einseitig.
7900GRE: ca 600€ (bei fertig PCs wenn man die anderen Teile abzieht)
4070: 599€
6800XT: 540€

Ich meine 60€ Unterschied ist jetzt nicht viel dafür das die 4070 besser RT kann und deutlich weniger verbraucht..zudem will nicht jeder eine "alte" Karte kaufen. Und DLSS3 und so...
Wegen den 12GB VRAM würde ich HIER nicht rummeckern, weil die Karten im 1440p Bereich sind. Im 4k Bereich, wie die 4070Ti sind mind 16GB Pflicht.

Erstens ist die 4070ti für mich keine 4k Karte, aber dennoch reichen die 12GB dafür bisher sehr gut und auch was man bisher zur UE5 abschätzen kann sieht so aus, das die 4070ti da noch sehr gut klar kommen wird.

Für mich handelt es sich eher um das Premium Modell für 1440p, wenn RT allways on sein soll und so. Aber das hängt wieder vom Käufer ab.
Aber dennoch will ich ja einen Fortschritt im Preis nach einer Generation...und da bekleckert sich keiner von den beiden mit Ruhm...
Das meine ich auch immer wieder.
Da kann man aktuell nicht sagen, böses Nvidia. Dafür bieten beide zusehr das selbe pro Euro.
Ich bin SEHR gespannt, wie AMD den Preis der 7800XT und der 7700XT ansetzt und natürlich deren Leistung...
Allerdings gibt mir die OEM only 7900GRE, die keine UVP hat ein mieses Gefühl... Ich meine damit, das ich die 7800XT in der Nähe von 550-600€ sehe...
Ich warte großer Hoffnung auf RTX5000 und RX8000. Bis dahin stelle ich hoffentlich mal ein Mini Projekt fertig, für das ich ggfs. auf eine 4080 frostbite, oder 4090 frostbite umsatteln werde. je nachdem wie weit ich komme. Ansonsten direkt bei den nachfolgern die kleinste mit Wakü.
So viel besser ist die 4080 nicht wirklich. Klar, besseres Feature-Set und etwa 35 W effizienter (wie lange muss ich da mit der 4080 zocken, damit sich die Preisdifferenz über die Stromersparnis amortisiert? 2-3 Jahre bei ungefähr 3-4h spielen täglich?)
Naja, ganz neutral tut sich da nicht viel im P/L.
Aber naja, ohne die grüne Brille siehts halt so aus:
Absolut neutral siehst du das ;)
mit der 7900XTX habe ich 8 GB mehr VRAM
Das stimmt
, der schneller angebunden ist und dadurch auch höhere Speicherbandbreite
bringt dir als Kunden erstmal rein gar nichts, wenn da nicht auch entsprechend auf dem Bildschirm was bei raus kommt.
und ungefähr 12 TFlops mehr Leistung.
Genau das selbe.

Wenn ich schnell fahren will, hat zwar auch ein LKW zum Teil mehr Rohleistung, wird aber dennoch nie schneller sein.
Fairerweise muss man also entscheiden, was man möchte: etwas mehr Effizienz, FG und schnelleres RT, dann grün. Mehr VRAM und eine günstigere Karte mit mehr Rohleistung, dann rot. FSR 3 wird ja noch kommen - hoffentlich bald.

Fair ist,

1. Die RTX4080 zeiht nur in Ausnahmen die 320W. Zum Großteil sieht es so aus, rund 260-290W zu 350W. Also deultich effizienter.

2. DLSS sieht fast immer etwas besser aus und dann kommt noch DLSS3.

3. Zwar hat die 7900XTX 8GB mehr, aber 3.1 sind die 16GB der 4080 besser genutzt, 3.2 ist etwas sher weit hergeholt das die 16GB der 4080 in den nächsten Jahren nicht mehr reichen werden.

4. je nach Test sind 7900XTX und 4080 im Raster gleich auf und im RT ist die 4080 einfach klar schneller.


Neutral wäre also, die 4080 bietet die bessere performance über alles, die deutlich bessere Effizienz, das bessere Featurepaket und ausreichend Speicher. Natürlich kostet die entsprechend mehr.
 
Zuletzt bearbeitet:
Erstens ist die 4070ti für mich keine 4k Karte
Dazu will ich nur fragen, ist für dich die 3080Ti oder gar 3090 eine 4k Karte?
Die 4070Ti ist etwa schneller als beide...ergo sie ist in der Leistungsklasse bei 4k, auch wenn die Bandbreite in 4k limitiert.
Für mich handelt es sich eher um das Premium Modell für 1440p, wenn RT allways on sein soll und so. Aber das hängt wieder vom Käufer ab.
Ist sie auch, Premium 1440p UND Einsteiger 4k. Aber beides wird in ein paar Fällen durch die 12GB VRAM ausgebremst.
Deswegen ist die 4070Ti mit 12GB mist. Man hätte die mit einen beschnittenen AD103 und 16GB machen sollen.

Klar du als 4070Ti Nutzer hast da mehr Erfahrungen, ich sehe nur sowas:

vram.png

1692340217948.png


Erstens ist die 4070ti für mich keine 4k Karte, aber dennoch reichen die 12GB dafür bisher sehr gut und auch was man bisher zur UE5 abschätzen kann sieht so aus, das die 4070ti da noch sehr gut klar kommen wird.
Also als Test habe ich hier z.b. Satisfactory, was nicht so gut optimiert ist und von UE4 auf UE5 geupdatet wurde...
Mit Lumen ist die Performance im Keller, mit einer 4090 in 4k, selbst ohne Lumen ist die nicht wirklich gut :D

Auch Remnant2 frisst sehr viel Performance:
1692340469029.png

1692340418994.png

Ohne DLSS3 könnte hier keine 100+FPS mit meiner 4090 in 4k erreichen.
Auch FSR3 wäre hier sehr Hilfreich für AMD Nutzer...

Weitere großen UE5 Spiele kommen noch, dann wird man sehen, wie ees wirklich läuft.
Bin gespannt auf Lords of the Fallen im Oktober.
 
Dazu will ich nur fragen, ist für dich die 3080Ti oder gar 3090 eine 4k Karte?
ZU Release der RTX3000 war die 3090 sicher eine gute 4k Karte, doch heute eben nicht mehr wirklich. Natürlich geht das noch, nur ahlt mit mehr oder weniger Abstrichen.
Die 4070Ti ist etwa schneller als beide...ergo sie ist in der Leistungsklasse bei 4k, auch wenn die Bandbreite in 4k limitiert.
Hängt stark am Spiel ob die Anbindung limitiert. Einige neuere Titel zeigen weniger Ausbremsen.
Ist sie auch, Premium 1440p UND Einsteiger 4k.
Ok
Aber beides wird in ein paar Fällen durch die 12GB VRAM ausgebremst.
Eher nein, wenn man mal die miesen Spielelunches raus nimmt. Am Releasetag vielleicht in seltenen Fällen, aber nach den ersten Patches laufen alle diese Spiele mit deutlich weniger VRam.
Deswegen ist die 4070Ti mit 12GB mist.
Sehe ich mittlerweile anders, dachte aber bis vor kurzen ähnlich und wollte eher zur 7900XTX greifen.3
Man hätte die mit einen beschnittenen AD103 und 16GB machen sollen.
Mehr ist immer besser.
Klar du als 4070Ti Nutzer hast da mehr Erfahrungen, ich sehe nur sowas:

Anhang anzeigen 1434543
Anhang anzeigen 1434544
Das ist leider ein Irrglaube das man anhand der Belegung einer 4090 auf den bedarf schließen kann. Das zeigt nur was das Spiel maximal belegen kann.
Also als Test habe ich hier z.b. Satisfactory, was nicht so gut optimiert ist und von UE4 auf UE5 geupdatet wurde...
Mit Lumen ist die Performance im Keller, mit einer 4090 in 4k, selbst ohne Lumen ist die nicht wirklich gut :D

Satisfactory, muss ich mal schauen... Kenne ich gar nicht. Aber wenn das mit einer 4090 in 4k nicht läuft, Lumen oder nicht Lumen egal, dann liegt der Fehler beim Spiel und so etwas wird es immer geben.

Gerade mal geschaut. Ein User von Satisfactory hat ein Video hochgeladen, wo er die Performance mit UE4 und UE5 vergleicht mit Lumen on. Gespielt in 1440p, auf einer RTX3070.

Hier erreicht der Herr noch rund 50-53 Fps in 1440p, Ultra Details mit Lumen on. Kann mir gar nicht vorstellen wie die 4090 dann in 4k so schlecht sein soll. VRam Belegung auf der 3070 ist bei 6,6GB mit Lumen und 5,7 ohne.

Was auffällt ist das egal ob Ultra, oder Medium Settings die Engine scheinbar nicht ganz rund läuft.

Sehe gerade auf der Hompage von denen das es noch im Early Acces ist und damit, ist mir auch Latte ob das mit Einschränkungnen läuft. Man kann bei Early Acces nicht erwarten, das es optimiert ist.

Wer natürlich viel Early Acces spielt sollte natürlich nicht unterhalb einer 4090 und einem 7800X3d zocken. ;)
Ich meine um die unoptimierte grütze flüssig zu machen.
Auch Remnant2 frisst sehr viel Performance:
Anhang anzeigen 1434546
Anhang anzeigen 1434545
Ohne DLSS3 könnte hier keine 100+FPS mit meiner 4090 in 4k erreichen.
Auch FSR3 wäre hier sehr Hilfreich für AMD Nutzer...

Remnant 2 scheint aber eher AMD Revier zu sein ;)
Weitere großen UE5 Spiele kommen noch, dann wird man sehen, wie ees wirklich läuft.
Genau das denke ich auch. Denke nächstes Jahr kann man mal drüber reden wie UE5 so läuft.
Bin gespannt auf Lords of the Fallen im Oktober.
Ich warte da erst auf große Produktionen von Platzhirschen... Mal schauen.

Das ist alles noch zu ungewiss, als das man erahnen kann in welche Richtung das geht.
 
Zuletzt bearbeitet:
Warte, Du hast doch angefangen mit "aber schau wie viel weniger Geld AMD hat und in wie vielen Bereichen sie tätig sind". Ich hab nur gesagt dass Nvidia auch viele Bereiche abdeckt und nichts für den Umsatz von AMD kann.

Ich kritisiere AMD doch gar nicht dafür? Wobei ich schon sagen muss dass die Ankündigung für FSR3 ziemlich daneben war.

Ich bezog mich auch ursprünglich nicht auf dich.
 
Und wenn es in 2-3 Jahren erst amortisiert? Ich mein, immerhin amortisiert die sich überhaupt und ist irgendwann "gleich günstig" gewesen. Das war vorher bei Ampere vs RDNA2 nicht der Fall.

Ich warf das als Frage in den Raum, weil das ja jeder für sich entscheiden muss mit der Effizienz. Das relativiert sich ja auch z.B., wenn man zwar eine effizientere Nvidia-Karte im PC hat, dafür aber einen stromhungrigeren Inte Prozessor verbaut hat. Fakt ist: unterm Strich wird nicht für jeden die gleiche Effizienz und somit Stromersparnis herauskommen. Im Idle ist zumindest die FE nicht gerade sparsam und die Customs kommen beim Spielen dann halt doch auf 315-330 W.

Es sind also immer 2 Seiten zu betrachten.

Jaja, da wird wieder Fanboyism unterstellt. Ist auch einfacher...

Die 8GB mehr VRAM braucht wer? 16GB reichen nicht für 4K?
Was genau bringt jetzt die höhere Speicherbandbreite? Die Karten liegen extrem nah beieinander:

Anhang anzeigen 1434540

Und dann wiederholst Du alle Vorteile ich die schon genannt habe!? Ich sagte doch Wort für Wort genau das!

Das mit dem Fanboyism liegt halt an den eigenen Formulierungen. Macht nix, passiert mir auch.

Noch mögen die 24 GB nicht viel bringen, aber wenn ein AAA-Titel mit UE 5 und RT kommt, dieser in 4k gespielt werden soll und dann auch noch mit vielen Mods gespielt wird, hat jemand mit den 24 GB VRAM und der höheren Bandbreite definitiv einen nutzen.

Naja, ganz neutral tut sich da nicht viel im P/L.

Absolut neutral siehst du das ;)

Das stimmt

bringt dir als Kunden erstmal rein gar nichts, wenn da nicht auch entsprechend auf dem Bildschirm was bei raus kommt.

Genau das selbe.

Wenn ich schnell fahren will, hat zwar auch ein LKW zum Teil mehr Rohleistung, wird aber dennoch nie schneller sein.

Einen LKW mit einer RX 7900 XTX zu vergleichen, halte ich allerdings auch ein bisschen weit hergeholt.

Fair ist,

1. Die RTX4080 zeiht nur in Ausnahmen die 320W. Zum Großteil sieht es so aus, rund 260-290W zu 350W. Also deultich effizienter.

S.O.

2. DLSS sieht fast immer etwas besser aus und dann kommt noch DLSS3.

Das liegt halt auch am Spiel und der Engine.

3. Zwar hat die 7900XTX 8GB mehr, aber 3.1 sind die 16GB der 4080 besser genutzt, 3.2 ist etwas sher weit hergeholt das die 16GB der 4080 in den nächsten Jahren nicht mehr reichen werden.

Das sie nicht reichen würden, habe ich ja auch nie gesagt. Es gibt allerdings schon Möglichkeiten, 24 GB VRAM zu nutzen - mit der UE 5 im Gamer-Alltag wird sich das sicher verstärken.

4. je nach Test sind 7900XTX und 4080 im Raster gleich auf und im RT ist die 4080 einfach klar schneller.

Ähm nein:


Viel Unterschied ist da nicht wirklich, egal in welcher Auflösung. Mit RT sieht das natürlich anders aus, das wissen wir ja.

Neutral wäre also, die 4080 bietet die bessere performance über alles, die deutlich bessere Effizienz, das bessere Featurepaket und ausreichend Speicher. Natürlich kostet die entsprechend mehr.

Sie ist keine schlechte Karte, aber meiner Ansicht nach für das Gebotene dennoch viel zu teuer. Für 1.000-1.100,- € würde ich noch sagen: ok. Aber die viel zu hohen Preise macht Nvidia einfach, weil sie Marktführer sind und die, die sagen, dass die Preise ok sind bzw. einfach kaufen, unterstützen leider die Preispolitik und Nvidia fühlt sich bestätigt.
 
Ich warf das als Frage in den Raum, weil das ja jeder für sich entscheiden muss mit der Effizienz.
Effizienz entscheidet nicht jeder für sich. FPS pro Watt ist ein fester Wert, keine "alternative Fakten" wie Du sie in Deinen Argumenten nutzt.

Bei Ampere vs RDNA2 wurde der Effizienzvorteil seitens der AMD-Fans mantra-artig wiederholt, jetzt ist es anders herum, also akzeptiert auch die Faktenlage...

Das relativiert sich ja auch z.B., wenn man zwar eine effizientere Nvidia-Karte im PC hat, dafür aber einen stromhungrigeren Inte Prozessor verbaut hat.
Wieso relativiert sich dadurch die Effizienz der Grafikkarte? Was ist das für ein Argument? Da kann ich auch sagen "Und wenn Du einmal im Jahr weniger in den Urlaub fliegst, dann ist es auch egal dass Deine Grafikkarte 1000W mehr schluckt!". Purer "whataboutism".

Noch dazu ist ein Intel Prozessor beim Gaming gar nicht schlechter als ein AMD Prozessor, informier Dich erst mal bevor Du solche Behauptungen aufstellst. Fun Fact:

1692356154789.png


Fakt ist: unterm Strich wird nicht für jeden die gleiche Effizienz und somit Stromersparnis herauskommen. Im Idle ist zumindest die FE nicht gerade sparsam und die Customs kommen beim Spielen dann halt doch auf 315-330 W.

Und wieder "whataboutism". Gibt's von der 7900XTX keine Customs die mehr Verbrauchen als die MBAs?

Dazu:

1692356274208.png


Und die AMD Karte:
1692356299769.png


Die 4080 verbraucht im Idle an einem Monitor 1 Watt mehr. Ist das für Dich "nicht gerade sparsam im Idle"? Denn alle anderen Messungen kannst du bei teilweise 100% mehr Verbrauch nicht meinen....

Es sind also immer 2 Seiten zu betrachten.
Du willst aber nur eine betrachten, offensichtlich.

Das mit dem Fanboyism liegt halt an den eigenen Formulierungen. Macht nix, passiert mir auch.

Noch mögen die 24 GB nicht viel bringen, aber wenn ein AAA-Titel mit UE 5 und RT kommt, dieser in 4k gespielt werden soll und dann auch noch mit vielen Mods gespielt wird, hat jemand mit den 24 GB VRAM und der höheren Bandbreite definitiv einen nutzen.

Wenn ein UE5 Titel mit RT kommt in dem Du 24GB benötigst, dann brauchst Du die 4090 damit er überhaupt spielbar ist. Denn die RT Leistung der 7900XTX wird da eher nicht reichen, ohne Frame Gen sieht es da auch düster aus.

Das sie nicht reichen würden, habe ich ja auch nie gesagt. Es gibt allerdings schon Möglichkeiten, 24 GB VRAM zu nutzen - mit der UE 5 im Gamer-Alltag wird sich das sicher verstärken.

Sind noch 2-3 Jahre hin, bis dahin haben wir schon RDNA4 und Blackwell zur Verfügung.

Ähm nein:


Viel Unterschied ist da nicht wirklich, egal in welcher Auflösung. Mit RT sieht das natürlich anders aus, das wissen wir ja.
Hast Du Dir den Link überhaupt vorher angeschaut!? Der Vorposter sagte "die Karten sind beim Rastern gleich auf", Du sagst "Ähm nein", und im verlinkten Artikel steht dann bezüglich Rasterleistung, ich zitiere:

Die Leistung war insgesamt identisch, wobei wiederum einige Ausreißer einen Unterschied ausmachen, falls ihr dieses Spiel häufig daddelt.

Und bezüglich Raytracing:

Die FPS-Unterschiede mit aktiviertem Raytracing liegen je nach Titel und Auflösung zwischen 20 und 50% zugunsten der RTX 4080.

Sie ist keine schlechte Karte, aber meiner Ansicht nach für das Gebotene dennoch viel zu teuer. Für 1.000-1.100,- € würde ich noch sagen: ok. Aber die viel zu hohen Preise macht Nvidia einfach, weil sie Marktführer sind und die, die sagen, dass die Preise ok sind bzw. einfach kaufen, unterstützen leider die Preispolitik und Nvidia fühlt sich bestätigt.

???

Die günstigste 4080 kostet 1150€. Ist das "viel zu teuer" obwohl Du selbst sagst "für 1000-1100€" würdest Du sie OK finden? Ich checks nicht, sorry.

1692356827179.png
 
Die Augenwischerei mit den künstlichen Frames geht mir am Popo vorbei, aber HYPR-RX hört sich interessant an.
Ganz im Gegensatz zu den neuen Grafikkarten.
DLSS war ja auch schon schwarze Magie.:P
Dieser FG Hatetrain ist einfach nur noch peinlich.
Das ist doch dasselbe als DLSS erschienen ist. Das sind nur Neider. Einfach ignorieren.
Könnte man mit einer Radeon schon lange nicht mehr vernünftig spielen, dort hat man trotz FG+Reflex in der Regel die höhere Latenz. :D
Wir hatten uns ja schon öfter hier auseinandergesetzt und da war es ich beispielsweise, der obwohl er in der Sig eine RX6950 hat, kein FSR braucht oder will und du, der geschrieben hat, dass wenn AMD nicht nachzieht und auch sowas bringt wie FG, sie keine Chance mehr am Markt haben.
Man sollte nicht von sich auf den ganzen Markt schließen. Nur weil du kein Upscaling brauchst, bedeutet das nicht, dass das für alle gilt. Wer bist du denn hör mal?:schief:

Hier geht es darum dass AMD diesem Marktdruck nachgibt und versucht sowas zu bringen, mit einem viel kleineren Team und noch viel kleinerem Budget und genau du, der es gefordert hat kommt nun mit dem Vorwurf der Kopie.
Der Markt will diese Features, weil das kostenlose Leistung oben drauf ist. Damit hängt man Konkurrenten gnadenlos ab. Es fehlen heute 30 bis 100% auf eine stark beschnittene 4090 und da kommt FG dann noch oben drauf.
AMD ist dermaßen abgehängt, das wird nächste Gen wahrscheinlich noch schlimmer werden.
Was soll das denn? Ich kann das absolut nicht nachvollziehen.
Der Vorwurf, dass AMD keine eigenen Features für deren Karten mehr entwickelt, sondern immer nur nachziehen muss, ist doch absolut zutreffend. AMD muss in eine andere Position kommen, wenn sie Marktanteile erzielen wollen. Etwas liefern was Nvidia so nicht hat. Das einzige was AMD momentan bietet, ist viel V-ram auf die Karten zu klatschen. 16GB hätten für die 7900XTX völlig ausgereicht.

Allgemein handhabe ich meine Kaufentscheidungen immer nach dem was am Markt ist und nicht was noch kommt.
Du holst dir seit Jahren immer ne AMD.
 
Zuletzt bearbeitet:
Noch dazu ist ein Intel Prozessor beim Gaming gar nicht schlechter als ein AMD Prozessor, informier Dich erst mal bevor Du solche Behauptungen aufstellst.
Stimmt, selbst der Verbrauch ist ähnlich, weil AMd aktuell genauso hoch außerhalb der Effizienz boostet als Intel.
Lediglich die CPUs ohne X laufen Stock effizient.
Aber die X3D CPUs setzen sich durchaus in allen Titeln, in denen der Cache was bringt, ab. Und da sie auch wie die non-X CPUs gedrosselt sind, laufen sie effizienter.
Klar kann man jede CPU tunen und sie effizient laufen lassen, ob AMD ODER Intel, aber das machen nur die wenigsten.
Bei den aktuellen CPUs könnte man alle um ca 10-15% drosseln, um den Verbrauch um ca 40-50% zu senken. Aus einer 100W-110W CPU wird dann eine 50-65W CPU.
Für mich persönlich boosten alle CPUs zu agressiv hoch. Die X3D und non-X AMD CPUs hingegen nicht. Bei Intel, ist das Powerlimit und der Boost auch bei den non-k CPUs recht hoch.

About GPUs, Eine 7900XTX kann man auch gut undervolten, schließlich ist es auch TSMC 5nm, nur wird darüber weniger berichtet.
 

Anhänge

  • 1692362876330.jpeg
    1692362876330.jpeg
    1,6 MB · Aufrufe: 8
Ich bin SEHR gespannt, wie AMD den Preis der 7800XT und der 7700XT ansetzt und natürlich deren Leistung...
Allerdings gibt mir die OEM only 7900GRE, die keine UVP hat ein mieses Gefühl... Ich meine damit, das ich die 7800XT in der Nähe von 550-600€ sehe...

Ganz genau DA wird es spannend: Hat der neue AMD-Krempel das Zeug dazu, sich mit der 4070, die denselben Preis aufruft, anzulegen?
Und tun sie es dann auch? Denn nicht nur ich hoffe darauf, dass die sich einen "Preiskampf" liefern, der am Ende in diesem Segment für faire Preise sorgt.
 
Effizienz entscheidet nicht jeder für sich. FPS pro Watt ist ein fester Wert, keine "alternative Fakten" wie Du sie in Deinen Argumenten nutzt.

Bei Ampere vs RDNA2 wurde der Effizienzvorteil seitens der AMD-Fans mantra-artig wiederholt, jetzt ist es anders herum, also akzeptiert auch die Faktenlage...

Tun wir.

Wieso relativiert sich dadurch die Effizienz der Grafikkarte? Was ist das für ein Argument? Da kann ich auch sagen "Und wenn Du einmal im Jahr weniger in den Urlaub fliegst, dann ist es auch egal dass Deine Grafikkarte 1000W mehr schluckt!". Purer "whataboutism".

Das Wort "whataboutism" kann ich, genau wie "woke" nicht mehr hören/lesen. Das tue ich nicht, sondern du scheinst in gewisser Weise Aussagen von mir nicht zu kapieren.

Noch dazu ist ein Intel Prozessor beim Gaming gar nicht schlechter als ein AMD Prozessor, informier Dich erst mal bevor Du solche Behauptungen aufstellst. Fun Fact:

Anhang anzeigen 1434558

Und wieder "whataboutism". Gibt's von der 7900XTX keine Customs die mehr Verbrauchen als die MBAs?

Sei doch bitte so seriös und vergleiche den 5800X3D mit dem 12900K(S) und dessen kleinere Brüder. Ich komme ja auch nicht mit einer älteren CPU, die nicht so hoch taktet und/oder weniger Kerne hat und/oder weniger Strom verbraucht.

Zudem gings hier ja um die Effizienz der RTX4080. Natürlich gibts 7900XTX-Customs, die mehr Strom verbrauchen. Aber da hast du leider das Thema/den Punkt verfehlt.

Wie gesagt, die Effizienz der Karte relativiert sich, wenn man andere Komponenten im System hat, die dafür umso mehr Strom verbrauchen und unterm Strich nach 1 Jahr die gleichen Stromkosten wie vorher auf dem Papier stehen. Oder meinst du, nur weil die GPU effizienter ist, ist bei jedem System, dass eine effizientere GPU hat, automatisch der Stromverbrauch niedriger? Komische Logik, wenn andere Komponenten dafür umso mehr verbrauchen. Jetzt kapiert?

Dazu:

Anhang anzeigen 1434559

Und die AMD Karte:
Anhang anzeigen 1434560

Die 4080 verbraucht im Idle an einem Monitor 1 Watt mehr. Ist das für Dich "nicht gerade sparsam im Idle"? Denn alle anderen Messungen kannst du bei teilweise 100% mehr Verbrauch nicht meinen....

Zur Kenntnis genommen.

Du willst aber nur eine betrachten, offensichtlich.

Ich bin dafür verantwortlich, was ich schreibe - nicht aber für das, was du verstehst oder interpretierst.

Wenn ein UE5 Titel mit RT kommt in dem Du 24GB benötigst, dann brauchst Du die 4090 damit er überhaupt spielbar ist. Denn die RT Leistung der 7900XTX wird da eher nicht reichen, ohne Frame Gen sieht es da auch düster aus.

Du brauchst mir nicht Worte im Mund legen, um zu versuchen, deinen Argumenten mehr Gewicht zu verleihen. Ich habe geschrieben, dass es Möglichkeiten gibt, 24 GB VRAM zu nutzen - aber mit keinem Wort, dass man 24 GB braucht.

Sind noch 2-3 Jahre hin, bis dahin haben wir schon RDNA4 und Blackwell zur Verfügung.

Ach du hast eine Glaskugel, na dann.

Hast Du Dir den Link überhaupt vorher angeschaut!? Der Vorposter sagte "die Karten sind beim Rastern gleich auf", Du sagst "Ähm nein", und im verlinkten Artikel steht dann bezüglich Rasterleistung, ich zitiere:

Ja, zitiere mal. Schau dir aber auch mal die Tabelle an und die FPS dort in den 3 Auflösungen. Ich schrieb bereits, dass die Karten sich da nicht viel nehmen. Wie oft muss ich das jetzt noch schreiben?

Und bezüglich Raytracing:

RT hab ich auch bereits geschrieben, dass es klar ist, dass da Nvidia vorne liegt und das wir das ja alle wissen. Deswegen weiß ich nicht, was du in dem Punkt von mir willst.

???

Die günstigste 4080 kostet 1150€. Ist das "viel zu teuer" obwohl Du selbst sagst "für 1000-1100€" würdest Du sie OK finden? Ich checks nicht, sorry.

Anhang anzeigen 1434561

Ich schrieb: noch ok, heißt also grenzwertig.
 
Einen LKW mit einer RX 7900 XTX zu vergleichen, halte ich allerdings auch ein bisschen weit hergeholt.
Habe ich nicht, war ein greifbares Beispiel. Das halt gut passt.
Soll in dem Kontext nicht siehe oben bedeuten, oder?
Das liegt halt auch am Spiel und der Engine.
Der Großteil entscheidet.
Das sie nicht reichen würden, habe ich ja auch nie gesagt. Es gibt allerdings schon Möglichkeiten, 24 GB VRAM zu nutzen - mit der UE 5 im Gamer-Alltag wird sich das sicher verstärken.
Die UE5 hat bisher eher gezeigt, das die VRam sehr effizient nutzen kann. Deswegen entspannen sich erstmal alle wieder.

Alles andere werden wir in ein, zwei Jahren sehen, wenn es große gute UE5 Umsetzungen git.

Ähm doch.
Siehe PCGH und CB und finden sich noch mehr.

Viel Unterschied ist da nicht wirklich, egal in welcher Auflösung. Mit RT sieht das natürlich anders aus, das wissen wir ja.



Sie ist keine schlechte Karte, aber meiner Ansicht nach für das Gebotene dennoch viel zu teuer. Für 1.000-1.100,- € würde ich noch sagen: ok. Aber die viel zu hohen Preise macht Nvidia einfach, weil sie Marktführer sind und die, die sagen, dass die Preise ok sind bzw. einfach kaufen, unterstützen leider die Preispolitik und Nvidia fühlt sich bestätigt.

Sorry, aber wenn ab 950 € für eine 7900XTX gerechtfertigt sind, sind auch ab 1100, oder 1150€ für die 4080 gerechtfertigt. Oh wunder, deswegen sind die Preise auch so ;)
 
Zurück