News Radeon RX 9070 XT: Geforce RTX 4080 in Reichweite [Gerücht]

Würde man wie Blackfirehawk schreibt überall 50% mehr Einheiten auf das Board packen wäre man mit einem richtigen aktuellem Topmodell vermutlich irgendwo in RTX 4090 / RTX 5070 Reichweite gehe ich von aus. Aber das wie gesagt wird nicht gemacht,
Würde man ähnliche Specs anlegen wie die 7900xtx wäre man ja in etwa auf rtx4090 Niveau.. eventuell sogar 10% darüber und könnte sich mit der RTX5080 anlegen.. sogar vom Stromverbrauch noch Problemlos machbar der theoretisch ebenfalls auf RTX4090 Niveau wäre..

Und bei den hier fantasierten Preisen für die AMD9070 (550-600€) wäre das auch für unter 1000€ möglich gewesen.

Im Moment ist das ganze für mich bloß eine Produktpflege der 7800xt wo man roundabout 25-30% drauf gelegt hat in Raster und RT.

Ganz nett.. aber vorne und hinten zuviel Konkurrenz aus eigenem Hause und von Nvidia

3080TI/3090/4070S/4070ti-nonS/RX6950xt/7900GRE

Und im Zukunft dann noch RTX5060TI/5070

Das muss AMD wirklich über den Preis regeln..

Wobei mir bei Nvidia auch vieles im Moment nicht gefällt.. der Preis ist mir da noch relativ.. die Rambestückung empfinde ich für die gebotene Leistung einfach als zu schwach..
 
Zuletzt bearbeitet:
Jo, sieht so aus als würde die 7900XTX weiterhin das "alte" Topmodell bleiben und die RX9070 kommt knapp darunter als effizenteres und wesentlich günstigeres Modell.

Würde man wie Blackfirehawk schreibt überall 50% mehr Einheiten auf das Board packen wäre man mit einem richtigen aktuellem Topmodell vermutlich irgendwo in RTX 4090 / RTX 5070 Reichweite gehe ich von aus. Aber das wie gesagt wird nicht gemacht, vermutlich lohnt sich der Absatz zu wenig wegen dem zu starken Nvidia Auftritt oder diese stärkeren Chips gehen in Workstations für Firmen/KI.


Realistisch ist laut ersten Benchs wohl eher knapp oberhalb einer 7900GRE und ein Stückweit unter der Rx7900xt.

Also ausserhalb der Reichweite der Nvidia RTX4080

"Würde" und "Hätte" ist bei Amd leider zum Standart Programm geworden . :daumen2:
 
Rohleistung.. ok, aber viel wichtiger ist doch die Bildqualität beim upscalen. Da hoffe ich auf lange Sicht auf Intel als echte Nvidia Alternative.
 
Wenn AMD mit 64 RDNA4-CUs 80 RDNA3-CUs (7900XT) erreichen kann, bei gleichzeitig tendenziell weniger Stromverbrauch
die 64CU RDNA4-256Bit werden die 80CU-256Bit der GRE schlagen, die 84CU-320Bit der xt sind nicht wirklich realistisch, wenn dann mit einem Customs OC Model.
Das Wichtigste ist das AMD es schaft die 5070 zu toppen, Raster glaube ich wird das passen, bei RT wohl nur wenn Nvidia sich mal wieder der Marketing kiste bedient, durchaus möglich das eine 5070 nicht an eine 4070S in Standard Games ran kommt und diese dann nur mit FG und DLSS schlgen kann.
dann muss AMD nur FSR4 mit auch ordenlich neuen featchers bringen
 
Ich bin mal gespannt, ob AMD dann die Mittel- und obere Mittelklasse aufmischen kann.

Wichtig hier sind: Preis, RT-Leistung und FSR 4. Die Rasterized-Leistung ist momentan bei den meisten Karten schon ausreichend, da mache ich mir keine Gedanken und für mich persönlich sind da andere Faktoren (o.g.) interessanter.
 
die 64CU RDNA4-256Bit werden die 80CU-256Bit der GRE schlagen, die 84CU-320Bit der xt sind nicht wirklich realistisch, wenn dann mit einem Customs OC Model.
Das Wichtigste ist das AMD es schaft die 5070 zu toppen, Raster glaube ich wird das passen, bei RT wohl nur wenn Nvidia sich mal wieder der Marketing kiste bedient, durchaus möglich das eine 5070 nicht an eine 4070S in Standard Games ran kommt und diese dann nur mit FG und DLSS schlgen kann.
dann muss AMD nur FSR4 mit auch ordenlich neuen featchers bringen

Also ich glaube kaum, dass die Leistung der 5000er Reihe einfach so linear skalieren wird, das wäre sehr witzlos, würde keiner kaufen.
Die RT cores alleine werden vermutlich die doppelte Performance zur Vorgängerserie bringen, durch die neue Architektur und dem Fakt, dass mittlerweile viele Spiele RT und immer mehr mit PT gezockt wird.
 
Zuletzt bearbeitet:
Wahrscheinlich liegt die Wahrheit wieder mal ganz woanders... vielleicht gibt es tatsächlich die Leistung einer 4080 (Super) - aaaber nur mit FSR4 ! Ohne wird die Karte, wie erwartet, nur auf 7900GRE Niveau bleiben.
 
Wahrscheinlich liegt die Wahrheit wieder mal ganz woanders... vielleicht gibt es tatsächlich die Leistung einer 4080 (Super) - aaaber nur mit FSR4 ! Ohne wird die Karte, wie erwartet, nur auf 7900GRE Niveau bleiben.
Naja aber nur wenn hier upscaled vs nativ präsentiert wird in den Folien..
Und DLSS Muss auch erstmal erreicht werden..



Ich gehe eher davon aus das wir wochenlang nachher noch Artikel sehen werden warum AMD es nicht geschafft hat diese Gerüchte Leistung auf die Straße zu bringen... und warum sich die benches von den offiziellen Folien so unterscheiden.. gefolgt von Fix Treibern die irgend was kaputtes verbessern sollen für im Nachhinein 5% finewine..
Inkl Statements von Leakern, Twitter Ikonen ect PP und ausreden aus der Marketing abteilung
 
Aber die 5070 / 5070 super sollte sie eigentlich, anhand dieser Leistungsdaten gut in Schach halten
können.
da die 5070 schon im GB205 vollausbau kommen soll. bleibt für die Super dann eigentlich nur
noch schnellerer Speicher und durch die 3GB Module eben max 18GB Vram. Leistungsplus keine 10%.
und Nvidia würde ich sogar zutrauen das sie dann nur 4x3GB und 2x2GB verbauen da 3$ Einkauf spart.
oder sie müssen auf den GB203 hoch das Kostet Marge

Die Speicherbandbreite von nur 640 GB/s könnte bei höheren Auflösungen allerdings bereits limitieren.
so ergeht es der 5060ti und 5070 aber auch die haben zwar GDDR7 aber selbst die 5070 ist mit nur 192Bit nicht viel schneller wie AMD mit 256 Bit GDDR6.
und für mehr wie WUHD sind 16GB Karten eh nicht mehr zu Empfehlen.

bin gespannt wo AMD am ende liegt, und hoffe das sie die 5070 auch in RT nahe kommen, wem dem so ist, und der Markt die Karten gut annimmt, denkbar das AMD ende 25 noch eine 110-120CU mit 384Bit GDDR7 bringt, die dann auch einen GB203 Vollausbau locker in allen belangen schlägt.

bin sowieso gespannt wie gut sich die 5070ti und 5080 verkaufen, noch immer nur 16GB für eine Spitzenklassen GPU, was es 2020 schon gab, und auch bei Nvidia locker hätte geben können denn selbst eine 3060ti aus dem Jahr hatte ein 256bit SI wie eine 6800. selbst eine 3080 hätten Damals schon 20GB gehört. 16GB in UHD sind mMn die nächsten 12GB GB die nicht mehr reichen.
3090-24GB $1499 in 2020, 4090-24GB $1599 &7900xtx-24GB $999 in 2022 und 2025 wollen sie dann für 4CU mehr zur 3090, weniger SI und auch noch weniger Vram wohl minimum die $1199 der 4080 haben die dann wohl nicht mal mehr Vram hat wie eine 5060ti ? die nur die hälfte kostet.
Denke AMD steht gut da, eine 5060ti-16GB sollte locker 20% in RT geschlagen werden, wenn sie die 5070 zumindest im Raster schlagen und in verfügbaren RT Games nicht wieder ~30% hinten liegen.
 
Und schon wieder soll AMD nur dafür her halten, die Preise von Nvidia zu drücken, damit man billiger grün kaufen kann...
Es ist möglich, sich aktiv dagagen zu entscheiden, solche Preise zu zahlen.
Ich würde jederzeit eine AMD Karte kaufen. Aber wenn das Topmodell nicht mal 4080 Leistung erreicht, warum soltle ich das tun? Meine 3090 ist dann 15 bis 20% langsamer, hat mehr Speicher und FSR3 funktioniert damit auch. Also sehe ich keinen Grund eine 9070 zu kaufen. Würde mir AMD eine Karte bieten die annäherend 4090 Leistung erreicht, auch bei RT, und das alles für an die 1000 Euro würde ich zugreifen. So ist die Karte für mich persönlich nix. Andere User sehen das sicher anders.
 
Weil selbst die guten Sachen nicht gekauft werden! Selbst in Zeiten wo AMD absolut konkurrenzfähig war, griffen die Leute dennoch zu Nvidia. Ganz oft sogar bei Modellen die schlechter waren als ihr preisliches AMD-Pendant. Wie oft wurden 1050Ti oder 1060er verkauft, obwohl damals AMD die besseres Gegenprodukte mit mehr Ram hatte.?.

Bei CPUs genau das Gleiche. Normalerweise müssten Spieler seit einiger Zeit nur noch AMD kaufen, da deutlich effizienter bei gleicher oder besserer Leistung. Trotzdem ist der Marktanteil deutlich geringer.

Leute kaufen nicht rational! Selbst die, die es sich einreden immer rational zu kaufen, tun dies selten bis gar nicht.

Exakt das ist das Problem, selbst technologischer Überlegenheit oder Parität griffen die Leute immer und immer wieder zu teils merkbar teureren nVidia Produkten. Der Markt ist absolut kaputt und das kann nicht eine einzelne gute AMD GPU Generation retten. Die Käufer agieren teils absolut irrational. Das gleiche Problem hat Intel, es muss massiv gute PR betrieben werden, nVidia in bestimmten Bereichen gar nicht mehr empfohlen oder teils abgeraten werden, z.B. aufgrund mangelhafter Ausstattung wie viel zu wenig RAM, gefühlter Leistungsstagnation im Bereich der Otto-Normalo Karten sowie gerade außerhalb (unserer eh absolut weltfremden) des Internets und gerade in nVidia Hochburgen wie Twitch, YT und allerlei gesponsorten Contents durch Leute wie uns hier mit dem Know-How dagegen gehalten werden, wenn der Use-Case es ermöglicht. Quasi der größte Teil des Weltmarkts könnte mit aktuellen oder kommenden Karten auskommen, theoretisch wie praktisch. Allerdings hat nVidia Marketing durchgespielt und Geforce ist seit Jahren der Begriff des Gamings. Die Leute greifen blind zu bei schlechten oder schlechteren Produkten. Außerhalb von Leuten in Foren, Internetseiten und co sind Begriffe wie FSR, DLSS, Reflex, RT, AA, DLAA, FG und co nichts anderes als Wortsalat, weder beim Teenie beim ersten PC ein Begriff, noch bei vielen Konsoleros oder Mobile Spielern, Mainstream Kisten für Fortnite, LOL, DOTA und CS2 mit großer Menge ist sowas wirklich ein Argument.

Ein sehr guter Artikel vom 3D Center, der aufzeigt wieso der Markt eigentlich für diverse Jahre ge*ickt ist durch nVidias "Monopol" https://www.3dcenter.org/artikel/wieso-amd-grafikkarten-kaum-ueber-den-preis-gewinnen-koennen
Das andere Problem:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wird oftmals nichtmal thematisiert...
 
Ich fand die Einschätzung GRE bis XT Glaubwürdiger.

Die GRE Einschätzung ist maximal unglaubwürdig, wenn man die hohen geleakten Takraten mit einkalkuliert.
Einfach mal schauen wie die GRE und die XT performt und vor allem mal die Taktraten anschauen....

Die 9070 hat ähnlich viel CUs und Shader wie die 7800xt..
Davon ausgehend 25-30% Leistung drauf gelegt sind wir wieder knapp über der 7900GRE..

Eine 7900xtx kann die RX9070 gar nicht schlagen.
Weil diese hat Mal eben von allen 50% mehr..

50% mehr Shader
50% mehr CUs
50% mehr RAM
50% mehr Bandbreite
50% mehr Infinity Cache.

Was bedeutet das sich RDNA4 um bedeutend mehr als 50% gegenüber RDNA3 verbessert haben müsste.. vor allem bei ähnlichen Stromverbrauch.
Und das halte ich für sehr unwahrscheinlich.

Du unterschlägst in deiner Kalkulationen einen wesentlichen Faktor bzw. zwei.
Zum einen lässt du die Taktraten vollkommen außen vor.
Da haben wir bei bei der 7800XT 2100 bis 2400 MHz, bei der 7900 XTX bis 2600 MHz und scheinbar soll die 9700 bis zu 3100 MHz takten.
Alleine dadurch hätte man schon je nach Ausgangslage 20-30% Mehrleistung aufgrund des Taktes.
Dann sind die RDNA 3 Karten in der Chipletbauweise entstanden und die RDNA 4 ist ein Monolith, woraus sich auch ein kleiner Performancevorteil gibt.
Und zu guter letzt wären da noch die architektonischen Verbesserungen?
Welche Falschenhälse wurden angegangen?
Ich sehe generell noch sehr viele Fragezeichen.

Nimmt man das alles zusammen, kann man durchaus auf 7900 XTX/ GTX 4080 Performance kommen. Man wird aufjedenfall näher an den Karten dran sein, als an einer GRE, weil das macht bei den genannten Taktraten einfach keinerlei Sinn.

Anhand der Specs halte ich nach wie vor 7900GRE Rasterleistung und etwa 7900xt raytracing Leistung für realistisch.

Wenn man nur mit einem Auge hinschaut und nichtmal dann...
 
Raytracing ist letztlich nur Marketing. Ob es an oder aus ist, sieht man nur marginal, aber es kostet halt 50% der FPS. Und das ist meine Erfahrung von Metro bis Indy. Mich interessiert auch nur die Rasterleistung.
Genau solche Aussagen haben AMD nur mehr 10% Marktanteil gebracht. Jedes Game mit ue5 Lumen verwendet RT, wer stillsteht der rostet.
 
Zurück