News Grafikkarten: Nvidia dominiert AMD und Intel nach Belieben

200-300% aus welcher Ausgangslage bitte?

10fps zu 30fps ?
Wir reden bei der normalen PS5 von RDNA2 und ner Leistung in Größenordnung einer 6600xt-6700xt die das ganze eh nur Rudimentär anzeigen kann...

Da liegt am PC dann auch noch die 7000er Gen dazwischen..und nun RDNA4..

Btw wenn man sich so die Pathtracing Benches von Cyberpunk ect anschaut ist Tatsache sogar die 7900xtx etwa 200-250% schneller als die RX6700 (14 zu 42 FPS)



Von 7800xt Raytracing Leistung +30-50% wäre schon n ungewöhnlich großer Generation Sprung für AMD...
Und würde immer noch im Bereich der 7900xtx landen.

Und selber wenn es minimal mehr ist.. die rtx4080 die in Raster etwa gleich schnell ist wie die 7900xtx outperformt diese in RT bei ca 200-250%

Du kannst nicht davon ausgehen das AMD innerhalb von einer Generation 300+% in RT/PT zulegt.. denn genau das müssten sie tun um mit Nvidia gleichzuziehen
Die die Aussage 200 bis 300% kommen von Sony..

Also wo ist deine Quelle das die bei RT nicht schneller ist als die 7900xtx
 
Die die Aussage 200 bis 300% kommen von Sony..

Also wo ist deine Quelle das die bei RT nicht schneller ist als die 7900xtx
Das ist schön für Sony. Von der PS5 aus gesehen mag es auch alles stimmen.

Es gibt keine Quelle..
aber du musst dir die geleakten Specs ansehen.. da ist die 8800xt mit 64CUs angegeben..
die 7800xt hat 60CUs..
Pack da 30-40% Leistung drauf und du bist wieder im Bereich einer 7900xt-7900xtx (wie die ganzen leaks auch angeben)


Die 7900xtx hat mit 96CUs ca 50% mehr Shader als die 7800xt..
Hätte AMD gewollt und RDNA auf 96CUs Basis gebaut hätten sie durchaus einen 24gb RAM Konkurrenten für die rtx4090/5080 Leistung.. ähnlich wie sie heute zur rtx4080 stehen...eventuell sogar für unter 1000€.
Man wollte halt nur nicht mehr.


Bis ich anderes in Form von Benches sehe ist die 8800xt für mich nur eine Sparsamere, Günstigere 7900xtx mit 8GB weniger Vram.
Vielleicht ist sie schneller als die 7900xtx in RT.. aber viel wird das nicht sein und in Relation zu Nvidia immer noch zu wenig
 
Von der ps5 aus gesehen ist das auch richtig
Jup ps5 rdna 2 zu rdna 4 (rt)

Also wie kommst du jetzt dazu...
Das ist schön für Sony. Von der PS5 aus gesehen mag es auch alles stimmen.

Es gibt keine Quelle..
aber du musst dir die geleakten Specs ansehen.. da ist die 8800xt mit 64CUs angegeben..
die 7800xt hat 60CUs..
Pack da 30-40% Leistung drauf und du bist wieder im Bereich einer 7900xt-7900xtx (wie die ganzen leaks auch angeben)


Die 7900xtx hat mit 96CUs ca 50% mehr Shader als die 7800xt..
Hätte AMD gewollt und RDNA auf 96CUs Basis gebaut hätten sie durchaus einen 24gb RAM Konkurrenten für die rtx4090/5080 Leistung.. ähnlich wie sie heute zur rtx4080 stehen.

Bis ich anderes in Form von Benches sehe ist die 8800xt für mich nur eine Sparsamere, Günstigere 7900xtx mit 8GB weniger Vram
Siehe oben
 
Hab selbst ne Nvidia Karte, lag ein bisschen mit daran, das ich mir 2017 ein 34"Uwqhd, IPS, 120hz, Curved, G-sync Pannel gekauft habe! Jetzt frag ich mich, wenn es soviele Nvidia Karten gibt, warum es so wenig Monitore mit G-sync gibt, ich meine jetzt keine Monitore unter 1000€, meistens sind die nur Kompatibel. Natürlich weiß ich, das Nvidia sich das teuer bezahlen lässt, aber in der Preisklasse sollte das bei Monitoren keine Rolle spielen! Die nächste Karte wird bei mir bestimmt wieder ne Nvidia Karte werden aber die kommende Generation setz ich aus! Das Nvidia die Nase vorn hat, liegt einfach daran, das AMD in der Oberklasse einfach keine Schnitte hat, und ja mir ist Raytracing und Pathtracing, wichtig! Und es ist schon irre, wenn man überlegt, wieviele Gaming Grafikkarten für 1000€ und mehr verkauft werden! Ich fand es auch irre, mehr als das doppelte vom Preis der 1080, für die 4080 bezahlt zu haben!
 
Also wie kommst du jetzt dazu...


Das sind so die Werte die im Moment im Internet rumgeistern
Navi 48 ("GFX1201")

  • 64 Compute Units ("CUs")
  • 128 Raster Operating Processors ("ROPs")
  • 4.096 Streaming Processors ("SMs")
  • 64 MiByte AMD Infinity Cache
  • 270 mm² Die-Size
  • 275 Watt
Navi 44 ("GFX1200")

Als Vergleich die 7800xt:

- 60 Compute Units
- 96 ROPs
- 3840 SMs
- 64MB Infinity Cache
- 256bit @16GB Vram
- 265 Watt


Und die 7900xtx
- 96 CUs
- 192 ROPs
- 6144 SMs
- 96MB Infinity Cache
- 384bit @24gb VRam

Die 7900xtx ist schon Mal ne ganz andere Hausnummer was die Anzahl an CUs, Shader ect angeht..
Allein um das auszugleichen müsste AMD hier schon 50+% leistungsfähiger pro CU, ROPs und Shader geworden sein..
und kastriert sich dann noch nachträglich selbst mit weniger Infinity Cache, Speicheranbindung und Vram

Was hast du den für Quellen die Hoffnung auf mehr machen? Also Mal von Sony und ihren PS5 zu PS5pro Vergleich abgesehen
 


Das sind so die Werte die im Moment im Internet rumgeistern
Navi 48 ("GFX1201")

  • 64 Compute Units ("CUs")
  • 128 Raster Operating Processors ("ROPs")
  • 4.096 Streaming Processors ("SMs")
  • 64 MiByte AMD Infinity Cache
  • 270 mm² Die-Size
  • 275 Watt
Navi 44 ("GFX1200")

Als Vergleich die 7800xt:

- 60 Compute Units
- 96 ROPs
- 3840 SMs
- 64MB Infinity Cache
- 256bit @16GB Vram
- 265 Watt


Und die 7900xtx
- 96 CUs
- 192 ROPs
- 6144 SMs
- 96MB Infinity Cache
- 384bit @24gb VRam

Die 7900xtx ist schon Mal ne ganz andere Hausnummer was die Anzahl an CUs, Shader ect angeht..
Allein um das auszugleichen müsste AMD hier schon 50+% leistungsfähiger pro CU, ROPs und Shader geworden sein..
und kastriert sich dann noch nachträglich selbst mit weniger Infinity Cache, Speicheranbindung und Vram

Was hast du den für Quellen die Hoffnung auf mehr machen? Also Mal von Sony und ihren PS5 zu PS5pro Vergleich abgesehen
Dann imm die Zahlen von Sony zum rt Wachstum von rdna 2 zu rdna 4

Amd hat angeblich komplett neuen Ansatz, doch ich glaube das ist möglich
 
Dann imm die Zahlen von Sony zum rt Wachstum von rdna 2 zu rdna 4

Amd hat angeblich komplett neuen Ansatz, doch ich glaube das ist möglich
Ist es auch, AMD wird die 4090 über und auch eine RTX 5080 im Raytracing einholen, nicht mit den Midklassengrafikkarten die jetzt kommen sondern mit dem Nachfolger von denen.

Aber so wie Nvidia abgeht wird das wohl vermutlich nicht für eine RTX 5090 reichen und wenn doch wird ne RTX 5090 TI oder Titan kommen. Zudem wird der Release von AMD mit den Grafikkarten die diese Performance bringen wieder so spät sein, das Nvidia vermutlich kurz vor der veröffentlichung der RTX 6000 Reihe steht. Sofern die Namensgebung so bleibt.

Also ja AMD hat nen neuen Ansatz, gebe dir recht und der wird auch ordentlich Power bringen, das ist dringend nötig. Aber er wird vorne und hinten nicht reichen da es mit der Releasezeit und der Dominanz von Nvidia nicht anders funktionieren kann!

Ich für meinen Teil wäre zufrieden mit einer Raytracingleistung von AMD auf dem Niveau der 4090 / 5080 in 2026.
 
sag mal was stimmt eigentlich mit dir nicht?
Soll ich jetzt auch irgendwelche Random-Beiträge holen und sagen "du hast nicht dagegen geredet"`?

a) Ich kenne die Beiträge hier nichtmal? Denkst du es ist mein Hobby hier allen Usern zu folgen? Ich klicke auf die Themen die mich interessieren und wenn mir danach ist steige ich in eine Diskussion dazu ein. Glaubst du ich laufe anderen Postern hinterher und schaue ob sie posten was mir passt oder nicht? Ich hab auch ein Leben abseits von PCGH Extreme...

b) Deine Behauptung war, dass ich Onkel Föhn keinen Gegenwind gebe. Keiner deiner Beiträge ist von einem User namens Onkel Föhn. Denn Föhn und ich sind durchaus früher in einigen Diskussionen mal aneinandergeraten.

c) du scheinst jetzt Beiträge gesucht zu haben die dich stören. Dabei ist doch offensichtlich, dass ich in diesen Threads nichtmal drinnen war. Was ist das für ein schräges Argument.

Soll ich jetzt auch in irgendwelche Foren gehen und schauen ob du da reagiert hast? Du hast ja auch nie widersprochen als Chatstar und Co ihren Stumpfsinn abgegeben haben oder als andere Forenleute ihre Rechten schwurblertheorien abgegeben haben... Kann ich jetzt genauso behaupten und finde wenn ich will auch irgendwelche Beiträge wo du eben nicht reagierst... WTF das ist ja echt unterstes Niveau wie du da deine Sache aufbaust...

Ist es MEINE Aufgabe dem Typen zu folgen und ihm zu widersprechen? Ist das tatsächlich dein Argument?
Scheint, dass er dich triggered, aber das hat mit mir nix zu tun. Dass ich ihm nicht widerspreche auch nicht. Also ic hweiß nicht was dei nPost soll. Willst du sagen "helft mir gegen diesen bösen Alderson Rapid - wer es nicht tut ist doof"?
 
@Rollora das ist er. Sein "Hauptaccount" ist gesperrt oder existiert nicht mehr.
Es ist einfach immer wieder faszinierend, wie der Beißreflex bei manchen kickt, wenn es um AMD geht, aber wenns um Intel oder Nvidia geht, schweigen diese Personen meist und du bist so jemand.
 
@Rollora das ist er. Sein "Hauptaccount" ist gesperrt oder existiert nicht mehr.
aha, und das soll ich wohl wissen..
Was ist dein Hauptaccount, du bist ja auc herst seit kurzem registriert. Don71?
Es ist einfach immer wieder faszinierend, wie der Beißreflex bei manchen kickt, wenn es um AMD geht, aber wenns um Intel oder Nvidia geht, schweigen diese Personen meist und du bist so jemand.
das ist einfach glatt gelogen. Wenn du meine Beiträge durchforstest siehst du genauso wie ich Intel kritisiere.
Nvidia wegen der hohen Preise, Intel wegen dem hohen Verbrauch und der Stabilitätsprobleme.
Und wie oft ich hier betone, dass ich die Ryzen X3D Modelle "geil" finde aufgrund der tollen Kombination aus Leistung und Effizienz.

Daran erkennt man einfach, dass du einfach nur lügst und dir etwas zurecht strickst. Weiß nicht, was dir das hilft, wenn du solche Lügen erfindest (sagt viel über dich aus und deinen Charakter), aber lass mich da raus.

Hier mal nur Aussagen von mir vonn den letzten paar Tagen rausgesucht:
Über Zen 5 X3D

Naja mal gucken. Bin schon ein wenig neugierig: da bei Zen 5 einiges neu gemacht wurde, hat sich in manchen SPielen die Performance ja auch nach Hinten entwickelt, eventuell kann hier aber der Cache helfen.
Auf die Aussage hin, dass der 9xxx X3D nur 2-5% schneller wird:

Warum sollte der Abstand zu den normalen 9xxxern ein anderer sein wie die X3D Modelle bei den 7xxxer Modellen zu den normalen 7xxxx Modellen?
Über Intel Arrow Lake

erwarte dir am besten nicht zu viel.
Arrow Lake wird etwas schneller bei deutlich weniger Verbrauch.
Aber wenn ich mir die TDP PL1 und 2 Werte anschaue die schon bekannt sind, wird man doch weiter deutlich hinter AMD herhinken was Effizienz betrifft und das ist eigentlich schon erstaunlich, wenn man bedenkt, dass Intel hier einen besseren Prozess verwendet.


Also wie kommt man bitte zu der LÜGE, dass ich bei AMD einen Beißreflex hätte und bei Intel und Co immer nur zustimme. WTF... immer diese sinnlosen Anfeindungen, bist du es Chatstar oder Don?

Es scheint schwierig zu sein das nachzuvollziehen, aber ich versuche das Ganze immer in Relation zu sehen:
Intels bestreben im GPU Sektor ist gut für uns Kunden und im Vergleich zu anderen (MTT80) ist ihr Erfolg eigentlich ganz ok. Kaufen würde ich sie nicht.

Ich drücke keinem bestimmten die Daumen, das scheinen manche einfach nicht zu kapieren. Wenn es was zu kritisieren gibt, wird das kritisiert. Verbrauch genauso wie Preis.
Ich kaufe keine zu teure GPU und auch keine zu heiße CPU. Und beides kritisiere ich.
 
Zuletzt bearbeitet:
Ist es auch, AMD wird die 4090 über und auch eine RTX 5080 im Raytracing einholen, nicht mit den Midklassengrafikkarten die jetzt kommen sondern mit dem Nachfolger von denen.

Aber so wie Nvidia abgeht wird das wohl vermutlich nicht für eine RTX 5090 reichen und wenn doch wird ne RTX 5090 TI oder Titan kommen. Zudem wird der Release von AMD mit den Grafikkarten die diese Performance bringen wieder so spät sein, das Nvidia vermutlich kurz vor der veröffentlichung der RTX 6000 Reihe steht. Sofern die Namensgebung so bleibt.

Also ja AMD hat nen neuen Ansatz, gebe dir recht und der wird auch ordentlich Power bringen, das ist dringend nötig. Aber er wird vorne und hinten nicht reichen da es mit der Releasezeit und der Dominanz von Nvidia nicht anders funktionieren kann!

Ich für meinen Teil wäre zufrieden mit einer Raytracingleistung von AMD auf dem Niveau der 4090 / 5080 in 2026.
Das kann alles sein, aber Blackfirehawk behauptet ja das AMD nie und nimmer bei rt die 7900xtx einholt... Auf jeden fall nicht überholt, da möchte ich seine Quelle wissen, da Sony, falls Sie nicht komplett lügen, was anderes sagt
 
Das kann alles sein, aber Blackfirehawk behauptet ja das AMD nie und nimmer bei rt die 7900xtx einholt... Auf jeden fall nicht überholt, da möchte ich seine Quelle wissen, da Sony, falls Sie nicht komplett lügen, was anderes sagt
Ich sage das die 8800xt in etwa auf 7900xtx Level performt...
Vielleicht was Langsamer.. vielleicht was schneller.. aber roundabout in dem bereich (+-10%)
Nicht "nie und nimmer"

Sony behauptet nur das die PS5 Pro ihre RT Leistung gegenüber der normalen PS5 um 200-300% gesteigert hat.

Punkt1..
war bei der Normalen PS5 so ziemlich keine RT Leistung vorhanden.. also werden aus 10fps mal schnell 30FPS.. ist auch ne Steigerung auf 300% RT Leistung..

Punkt2..
PS5= 36 CUs RDNA2 /2300 Shader RDNA2

PS5 Pro = 60CUs RDNA4/3840Shader RDNA2 (hybrid .. ka warum nicht beides RDNA4.. vielleicht Stromverbrauch)

Fast Doppelte Anzahl an CUs + 2 Generation Entwicklung = 200-300% Mehrleistung

10Fps + (2x30% pro Generation ) = 16 FPS und dann verdoppest du das wegen doppelter CUs bist bei 32FPS.. = 300% RT Leistung..
Sonys Aussage ist durchaus realistisch .. wenn man die Zusammenhänge dahinter sieht.

Vielleicht ist die PS5 Pro (60 CUs) in RT ca auf 8800xt (64 CUs RDNA4) Level... Bzw 7900xtx (96 CUs RDNA3) Level

Was allerdings immer noch Lachhaft ist im Vergleich zu Nvidia da wir hier immer noch von rtx 3070/4060/5050(ti) Level reden. (Wo die PS5 Pro auch ca eingeschätzt wird je nach Quelle)

Wie es aussieht bekommt die PS5Pro halt das maximale was AMD an RT kann..
Hier konnte sich die Konsole gegenüber einem AMD only PC sogar fast lohnen für RT lastige Spiele.
 
Zuletzt bearbeitet:
Da war die gleiche RT Leistung wie bei allen RDNA 2 Karten vorhanden
Ja..bei 36CUs für die PS5
irgendwo zwischen 6600xt (32CUs) und der 6700xt (40CUs)

Da reden wir dann mit zusammengekniffenen Augen irgendwo von rtx2060 Level Raytracing..
Wenn man überhaupt n Nvidia Gegenstück findet..

Das sind nach ner kurzen Google Suche ca 10-12FPS in cyberpunk PT auf 1080P

Das ist so das absolut minimalste was es an RT fähigen GPUs gibt..
Wenn das auf die 42FPS der 7900xtx ansteigt hast du deine +200-300% die Sony behauptet da drauf gelegt zu haben.

Ne RTX4060-8GB haut hier schon 47FPS raus


Klar es ist nur ein Spiel im Vergleich... aber bei Alam Wake, Wukong ect wiederholt sich das ganze Muster sobald viel Raytracing/PT zum Einsatz kommt.

Um Nvidia einzuholen müsste RDNA4 bei 64CUs (und rtx4080/5070 als Gegner) ihre RT Leistung mindestens verdreifachen gegenüber RDNA3
Und das wird nicht passieren..

So groß ist mittlerweile der Abstand in RT.. auch wenn sie in Raster sehr nah beieinander liegen könnten..
Das sind Mindestens 2.. eher 3 Generationen Rückstand
 
Zuletzt bearbeitet:
Ich hab auch wirklich letztens jemanden gesehn, der meinte, seine Intel Karte läuft super.

Die Karten laufen halt auch einfach. Viele merken auch leichte Ruckler o.Ä. nicht und spielen primär Spiele, die in den Treibern/Entwicklung ausoptimiert sind. Wir sind in solchen Foren mit unserem Balkenfetischismus in der Unterzahl.

Und darauf kommt's doch letztendlich an.

Viele in meinem Umfeld haben AMD Karten verbaut und sind absolute Noobs was PC Hardware angeht, es gibt keine Probleme, die Karten schnurren
 
Ja..bei 36CUs für die PS5
irgendwo zwischen 6600xt (32CUs) und der 6700xt (40CUs)

Da reden wir dann mit zusammengekniffenen Augen irgendwo von rtx2060 Level Raytracing..
Wenn man überhaupt n Nvidia Gegenstück findet..

Das sind nach ner kurzen Google Suche ca 10-12FPS in cyberpunk PT auf 1080P

Das ist so das absolut minimalste was es an RT fähigen GPUs gibt..
Wenn das auf die 42FPS der 7900xtx ansteigt hast du deine +200-300% die Sony behauptet da drauf gelegt zu haben.

Ne RTX4060-8GB haut hier schon 47FPS raus


Klar es ist nur ein Spiel im Vergleich... aber bei Alam Wake, Wukong ect wiederholt sich das ganze Muster sobald viel Raytracing/PT zum Einsatz kommt.

Um Nvidia einzuholen müsste RDNA4 bei 64CUs (und rtx4080/5070 als Gegner) ihre RT Leistung mindestens verdreifachen gegenüber RDNA3
Und das wird nicht passieren..

So groß ist mittlerweile der Abstand in RT.. auch wenn sie in Raster sehr nah beieinander liegen könnten..
Das sind Mindestens 2.. eher 3 Generationen Rückstand
Jetzt lass mal die Nvidia Bemchmark weg..
In allen anderen Spielen ist die 6700xt definitiv schneller

Immer diese 2, 3 Nvidia Benchmarks die so gestrickt sind das AMD völlig zerbricht

Also Warzen wir ab ob du recht hast das die neuen AMD Karten bei RT nicht schneller sind als die 7900xtx
 
Also Warzen wir ab ob du recht hast das die neuen AMD Karten bei RT nicht schneller sind als die 7900xtx
Ich weis halt nicht wie die Leute sich das vorstellen das die 8800xt die 7900xtx überholen soll..(Raster + RT)

Die 7900xtx hat
50% mehr CUs
50% mehr Shader
50% mehr Infinity Cache
50% mehr Speicherbandbreite
50% mehr Vram

Alles zusammen sind bedeutend mehr als 50% Performance uplift die da erreicht werden müssen.(Eigentlich fast 100% wegen dem RAM/Bandbreite/Cache)

Wenn AMD das wirklich kann/könnte dann Frage ich mich ernsthaft warum sie keine 8900xtx Bauen mit
96CUs RDNA4
6000+Shader RDNA4
384bit speicher/24GB Vram
96mb Infinity Cache
Bei ca 400-450Watt Verbrauch und ner Rasterleistung auf Niveau RTX4090 +10-30% (RT 4070S bis TIs) für um die 1000€
 
Zuletzt bearbeitet:
Zurück