News Radeon RX 8800 XT: Gegner zur RTX 4080 bei niedrigerem Verbrauch? [Gerücht]

Das ist es ja. Ich glaube nicht, das die Karte so viel schneller als eine 7800XT sein wird und gleichzeitig weniger kosten als dessen UVP zum Release.
???

50€ mehr = 599€, ... falls man tatsächlich nahe an die Rasterperf. der 4080 rankommt ist doch OK.
Wenns nur für die 4070TiS reicht dann evtl. so 579€.

Das man die 7900xt tatsächlich outperformt, wird hauptsächlich davon abhängen, ob man die FP32
besser auslasten kann. Hoffe mal, das sich AMD darüber Gedanken gemacht hat.
Dann lohnt sich die 8800xt vermutlich für highFps-Gaming in WQHD mehr als ne 7900xt@649€.
(die 20GB-7900xt hätte für UWQHD durchaus noch Ihre Liebhaber unter Moddern, ist/bleibt dann ne gute Ergänzung
im Portfolio, ... may be dann 2025 für 599€ ?)
 
Zuletzt bearbeitet:
Die angedachten Specs scheinen erstmal verführerisch für P-/L-Käuferinnen und -käufer (wie mich).
Das wird sich aber relativieren, sobald Nvidia ein paar Wochen später nachgezogen hat, denn dann gibt es die Daten der neuen Generation als Vergleich.
Preise um max. 600 Euro finde deshalb gar nicht sooo unwahrscheinlich für eine 8800 XT. Aber schauen wir mal!
 
Selbe Leistung bei deutlich weniger Verbrauch, mehr VRAM, günstiger und bessere Software, dazu bessere Linuxunterstützung

Sehe ich nicht. Woran machst du das fest?
Naja, was hat NV mit den Karten geschafft? Den bestehenden Vorsprung haben sie komplett eingebüßt und sind ähnlich wie beim Fön damals in die thermischen bzw. lasttechnischen Vollen gegangen und haben den Verbrauch der Karten einfach soweit erhöht, bis man irgendwie auf Augenhöhe war. Dazu hat man mit Marketinggetrolle erzählt wie toll das alles war.

Die Karte setzte sich rund 30% von der 2080Ti ab, bei einer um 23% höheren Leistungsaufnahme (lt. PCGH Release Artikel)

Die Leistung der RTX 3080 ist gegenüber der RTX 2080 Ti um rund 30 Prozent gestiegen, die Leistungsaufnahme um 23 Prozent.
Man hat also quasi nix wirklich gewonnen, sondern nur am Verbrauch gedreht und selbiges werden wir mit Blackwell erfahren!

Gegenüber FSR dann später aber immer.
Später ist etwas anderes und habe ich genauso geschrieben

Je nach Orientierung Käufers, was dem wichtig war, galt auch da schon. Es gibt gute Gründe für rot, oder grün und so einfach pauschal war das nicht.
Ja, je nachdem welche Farbe er mochte!

Mal ernsthaft, es gab zum Release ungefähr 1 Spiel was RT in ansehnlicher Optik auf den Schirm brachte, ansonsten waren es so "Techdemos". Bereits damals hat dieses Spiel aber soviel Performance gefressen, dass man auch mit NV aktiv die Auflösung reduzieren musste. Effektiv beinhalten die Releaseartikel nicht mal einen einzigen RT Benchmark und wenn man sich heute Spiele anschaut, schafft die 10GB Variante eigentlich keines mehr ohne interne Renderauflösungen aus den 80ern!

Rot war mit der 6er Serie einfach die deutlich stimmigere Karte zum Release, man bot eine gute Leistung bei moderartem Verbrauch mit hohem VRAM und ohne Spielerei. Ich hab ne 6900XT geschossen für UVP von 999 EUR und das war eine Karte die nicht weit weg war von einer 3090, die aber eben die Hälfte gesoffen hat! DLSS war später ein Grund eine der späteren RTX3er zu kaufen, auch wenn ich eigentlich immer davon abgeraten habe, da der VRAM abseits der 3090 einfach nicht deren Ernst sein kann. Heuer sehen wir, dass 10GB zu wenig sind und die Karten in den ersten Spielen schon richtig abkacken (gerade Percentile sehen oftmals richtig beschissen aus), 12GB kommen an die Grenze und 16GB? Richtig, die haben noch zwei Jahre vor sich.

P.S.
Aber, das sollte man dann eben auch in den Kontext setzen, die RTX4er Serie ist eben dann auch wie seinerzeit die GeForce 6er Serie, ein krachender Gegenschlag geworden.
 
Die angedachten Specs scheinen erstmal verführerisch für P-/L-Käuferinnen und -käufer (wie mich).
Das wird sich aber relativieren, sobald Nvidia ein paar Wochen später nachgezogen hat, ...
Ooh,
da muss man differenzieren zw.5070 und 5070Ti, weil die Ti den größeren teuren Chip + mehr Vram hat.
Nach m.E. wird die Ti dann wesentlich teurer als die 8800xt.
Schlimmstenfalls ist die Ti nur kurz verfügbar, weil NV mit der 5080 natürlich mehr Gewinn macht!

Wie sich späääter im Frühjahr dann ne 12GB-5070 vs. 16GB-8800nonXT schlägt, mal schauen.
(evtl. gibts da nen Preiskampf und G31 käme vermutlich auch dazu)
 
Zuletzt bearbeitet:
Hab jetzt mal gegoogelt, was ne 4080 so kostet. Ist bei weiten nicht mein Preisbereich. Aber wie kommt man darauf, das ne 8800 bei angenommener gleicher Leistung nur halb so viel kosten darf?
8800 also nur, damit die Preise bei Nvidia (wenn auch nur minimal) sinken?
Seltsames Volk hier
Gruß Yojinbo
AMD is doch (zumindest bei einigen hier) als "Samariter der Gamer" bekannt. Und deshalb wird AMD niemals, nie, nimmer solch hohen Preise aufrufen wie das pöhse Intel/Nvidia.

Klar, sieht man ja grade am 7800X3D/9800X3D:D Eine 7900XT/XTX war übrigens auch nie günstig...

Gruß
 
Selbe Leistung bei deutlich weniger Verbrauch, mehr VRAM, günstiger und bessere Software, dazu bessere Linuxunterstützung
Sehe in Tests nur mehr VRam und Linux.
Naja, was hat NV mit den Karten geschafft? Den bestehenden Vorsprung haben sie komplett eingebüßt und sind ähnlich wie beim Fön damals in die thermischen bzw. lasttechnischen Vollen gegangen und haben den Verbrauch der Karten einfach soweit erhöht, bis man irgendwie auf Augenhöhe war. Dazu hat man mit Marketinggetrolle erzählt wie toll das alles war.
Ich denke, hier läuft parallel schon deine eigene nicht objektive Wertung mit.
Die Karte setzte sich rund 30% von der 2080Ti ab, bei einer um 23% höheren Leistungsaufnahme (lt. PCGH Release Artikel)
Wieso RTX 2000? Reden wir gerade nicht von RX6000. Da war die größte zeitliche Überschneidung mit RTX3000.

Selbe Leistung bei deutlich weniger Verbrauch, mehr VRAM, günstiger und bessere Software, dazu bessere Linuxunterstützung


Naja, was hat NV mit den Karten geschafft? Den bestehenden Vorsprung haben sie komplett eingebüßt und sind ähnlich wie beim Fön damals in die thermischen bzw. lasttechnischen Vollen gegangen und haben den Verbrauch der Karten einfach soweit erhöht, bis man irgendwie auf Augenhöhe war. Dazu hat man mit Marketinggetrolle erzählt wie toll das alles war.

Die Karte setzte sich rund 30% von der 2080Ti ab, bei einer um 23% höheren Leistungsaufnahme (lt. PCGH Release Artikel)


Man hat also quasi nix wirklich gewonnen, sondern nur am Verbrauch gedreht und selbiges werden wir mit Blackwell erfahren!


Später ist etwas anderes und habe ich genauso geschrieben


Ja, je nachdem welche Farbe er mochte!

Mal ernsthaft, es gab zum Release ungefähr 1 Spiel was RT in ansehnlicher Optik auf den Schirm brachte, ansonsten waren es so "Techdemos". Bereits damals hat dieses Spiel aber soviel Performance gefressen, dass man auch mit NV aktiv die Auflösung reduzieren musste. Effektiv beinhalten die Releaseartikel nicht mal einen einzigen RT Benchmark und wenn man sich heute Spiele anschaut, schafft die 10GB Variante eigentlich keines mehr ohne interne Renderauflösungen aus den 80ern!

Rot war mit der 6er Serie einfach die deutlich stimmigere Karte zum Release, man bot eine gute Leistung bei moderartem Verbrauch mit hohem VRAM und ohne Spielerei. Ich hab ne 6900XT geschossen für UVP von 999 EUR und das war eine Karte die nicht weit weg war von einer 3090, die aber eben die Hälfte gesoffen hat! DLSS war später ein Grund eine der späteren RTX3er zu kaufen, auch wenn ich eigentlich immer davon abgeraten habe, da der VRAM abseits der 3090 einfach nicht deren Ernst sein kann. Heuer sehen wir, dass 10GB zu wenig sind und die Karten in den ersten Spielen schon richtig abkacken (gerade Percentile sehen oftmals richtig beschissen aus), 12GB kommen an die Grenze und 16GB? Richtig, die haben noch zwei Jahre vor sich.

P.S.
Aber, das sollte man dann eben auch in den Kontext setzen, die RTX4er Serie ist eben dann auch wie seinerzeit die GeForce 6er Serie, ein krachender Gegenschlag geworden.


Man hat also quasi nix wirklich gewonnen, sondern nur am Verbrauch gedreht und selbiges werden wir mit Blackwell erfahren!
WEn zitierst du gerade... Kam das von mir.
Später ist etwas anderes und habe ich genauso geschrieben
hmmm ;)
Ja, je nachdem welche Farbe er mochte!
Das mag für deine Wahrnehmung so gewesen sein. Halte ich aber für sehr wenig objektiv.
Mal ernsthaft, es gab zum Release
Welchen meinst du jetzt. Weil wenn du RX6000 meinst, dann wäre der Vergleich zur RTX3000 richtig.

Genau das meinte ich und da kann AMD nur bei VRam und Linux eindeutig punkten.
ungefähr 1 Spiel was RT in ansehnlicher Optik auf den Schirm brachte, ansonsten waren es so "Techdemos".
Vermutlich auch nur deine Wahrnehmung. Aber vorher sollten wir einmal klären welchen Zeitpunkt du meinst.
RX6000 Release, oder früher?
Bereits damals hat dieses Spiel aber soviel Performance gefressen, dass man auch mit NV aktiv die Auflösung reduzieren musste.
Naja, bei meiner RTX3060ti war ich auch schon froh, das die RT Performance so war, wie die war. Weniger hätte ich nicht haben wollen.
Effektiv beinhalten die Releaseartikel nicht mal einen einzigen RT Benchmark und wenn man sich heute Spiele anschaut, schafft die 10GB Variante eigentlich keines mehr ohne interne Renderauflösungen aus den 80ern!
Wann meinst du?
Weil in dem Release artikel den ich verlinkt habe, war die 3080 schon im Raster schneller, als die ähnlich teure RX6800XT.
Rot war mit der 6er Serie einfach die deutlich stimmigere Karte zum Release, man bot eine gute Leistung bei moderartem Verbrauch mit hohem VRAM und ohne Spielerei.
Nein, nicht pauschal. Aber dem wirst du warum widersprechen, weil grün nicht rot ist, oder wie?
Ich hab ne 6900XT geschossen für UVP von 999 EUR und das war eine Karte die nicht weit weg war von einer 3090, die aber eben die Hälfte gesoffen hat!

Nochmal, ich glaube du verwechselst da etwas. Hier schneidet die 6900XT nicht so ab, wie du sagst. Auch der Verbrauch...
Die 3090 leistet mehr und verbraucht dabei fast nur proportional mehr und absolut sind das 55W. Nichts hälfte, nichts 6900XT pauschal schneller als 3090.
DLSS war später ein Grund eine der späteren RTX3er zu kaufen, auch wenn ich eigentlich immer davon abgeraten habe, da der VRAM abseits der 3090 einfach nicht deren Ernst sein kann.
Nicht, späteren RTX3000.

RTX3090 war September 2020. RX6900 XT war Dezember 2020.

Bezüglich VRam, das ist deine Meinung aber praktisch gab es mehr Spiele bis heute die auf der 3080 besser liefen, als auf der 6800XT.

Klar zuletzt gibt es sicher öfter Spiele bei denen man an den Einstellungen bezogen auf VRam mehr justieren muss. Auf der anderen Seite gibt es auch öfter den Fall das bei AMD mehr justiert werden muss, weil zum Beispiel die RT Leistung noch geringer ist.

Das muss jeder für sich bewerten.

Ich selbst finde, das man die Kirche im Dorf lassen muss, da das auch schon vier Jahre her ist. Das ist alte Hardware und die längste Zeit, der Gebrauchsdauer konnte man mit der RTX3080 als Beispiel besser fahren, als mit der RX6800XT.
Heuer sehen wir, dass 10GB zu wenig sind und die Karten in den ersten Spielen schon richtig abkacken (gerade Percentile sehen oftmals richtig beschissen aus), 12GB kommen an die Grenze und 16GB? Richtig, die haben noch zwei Jahre vor sich.
Soll ich dir jetzt Beispiele aufzeigen, die aus anderen Gründen wie RT auf der RX6000 abkacken. D as muss jeder für sich bewerten was wichtiger ist und was auch öfter vorkommt.


P.S.
Aber, das sollte man dann eben auch in den Kontext setzen, die RTX4er Serie ist eben dann auch wie seinerzeit die GeForce 6er Serie, ein krachender Gegenschlag geworden.
Findest du, bzw. meinst du das jetzt eher positiv, oder negativ? Ich persönlich sehe in RTX4000 eine mittlere Entwicklung abseits der 4090 nichts besonders tolles.
Ooh,
da muss man differenzieren zw.5070 und 5070Ti, weil die Ti den größeren teuren Chip + mehr Vram hat.
Man wird abwarten müssen, was wirklich kommt.
Nach m.E. wird die Ti dann wesentlich teurer als die 8800xt.
Warum, wenn die ähnliches leisten, werden die auch ähnlich kosten.
Schlimmstenfalls ist die Ti nur kurz verfügbar, weil NV mit der 5080 natürlich mehr Gewinn macht!
Ganz wilde Spekulation. Da die 5080 am markt aber normal weniger gekauft wird, als die 5070ti dürfte der Gewinn eher ähnlich sein.
Wie sich späääter im Frühjahr dann ne 12GB-5070 vs. 16GB-8800nonXT schlägt, mal schauen.
(evtl. gibts da nen Preiskampf und G31 käme vermutlich auch dazu)
Eine 5070 12GB wäre mir da ehrlich völlig egal.
Ich denke bei der 8800XT das es eher 5070 Leistung mit etwas mehr VRam ist und dementsprechend die Preise eher um 600-700€ liegen.

Eine 5070ti sehe ich dann mit 16GB eher um 900-1000€
 
RX8800 als Gegenspieler zur 4080? Das fühlt sich nach einer Niederlage an, wenn nichtmal Blackwell als Konter geplant ist. Ich weiß nicht, aber trotz allen Gerüchten bin ich davon ausgegangen, das AMD zumindest 5070Ti / 5080 anpeilt, statt einer 4080.
Die 5080 ist doch schon High End und den Bereich möchte AMD mit den 8000er nicht angehen, das ist doch schon Monate bekannt.
Ich wäre mit 4080 (Super) Leistung zufrieden, wenn der Preis stimmt.
 
Die 5080 ist doch schon High End und den Bereich möchte AMD mit den 8000er nicht angehen, das ist doch schon Monate bekannt.
Ist bekannt, ja. Aber was ich hier meinte im speziellen ist hier Midrange Blackwell als Konter anzupeilen. Hier was von Current Gen als Ziel anzugeben hat halt einen faden Beigeschmack, denn RDNA3 war bereits das Gegenstück zur RTX4000 Serie.
 
Eine 7900XT/XTX war übrigens auch nie günstig...
???
definiere günstig

20GB-XT@649€
24GB-XTX@869€
habe ich so in Erinnerung, ... bevor der Euro abgekackt ist.

man wird ja sehen, wo ne 16GB-5080 dann preislich startet
glaube nicht, das man 999€ anbietet, bzw. ne 5070Ti für 799€
Letzteres evtl. aus ner Notlage heraus, wenn die 8800xt genausogut performt.
Da würde ich mich aber nicht bei NV bedanken sondern bei AMD.
 

Anhänge

  • 7900xt@649€.JPG
    7900xt@649€.JPG
    16,7 KB · Aufrufe: 2
  • 7900xtx@869€.JPG
    7900xtx@869€.JPG
    17,3 KB · Aufrufe: 2
Zuletzt bearbeitet:
Naja, bei meiner RTX3060ti war ich auch schon froh, das die RT Performance so war, wie die war. Weniger hätte ich nicht haben wollen.
Sorry, aber Thema durch. Die RT Performance der 3060Ti reicht für was? Minecraft RTX?


Findest du, bzw. meinst du das jetzt eher positiv, oder negativ? Ich persönlich sehe in RTX4000 eine mittlere Entwicklung abseits der 4090 nichts besonders tolles.
Ohh mein Gott!!!

Sag mal, was hast du denn von der RTX 3000er Serie im Kopf? Eine 3080 brauchte 350W um eine 300W AMD Karte halbwegs in Schach zu halten (effektiv war sie eigentlich sogar langsamer, wenn ein Spiel mal nicht massiv von Nvidia gesponsort war, lag AMD teilweise vor der 3090)

1733321497766.png

Das ist der Effizienzindex! Von 2080Ti auf 3080 hat sich quasi nix getan, auf 4080 ist es ein Quantensprung und die Effizeinz hat sich fast verdoppelt.
Soll ich dir jetzt Beispiele aufzeigen, die aus anderen Gründen wie RT auf der RX6000 abkacken. D as muss jeder für sich bewerten was wichtiger ist und was auch öfter vorkommt.
Naja, RT bietet mir auf 3000er keinen Mehrwert, damit brauchste nicht kommen. Das was man dort an "RT" bekommt, bringt niemandem (hab schon Blindtests mit absoluten RT Junkies gemacht) etwas, die optische Qualität schon gar nicht, da man dann schon soweit runterdrehen muss. DLSS Quality ist mit RT (Brauchbar; also bspw. Cyberpunk Ultra RT) in normalen Auflösungen schon unsinnig und unbrauchbar und wer in niedrigeren Auflösungen spielt, bekommt ziemlich sicher nicht die FPS die er haben will oder nutzt alles, nur keine High End Karte. 48 fps im 1% Low (lt. CB) in 2560x1440 (schon am unteren Ende der Zielgruppe einer 3080) mit DLSS Quality bedeuten dann irgendwas unter 40fps im 0,1% Low und das ist alles andere als schön.
 
Sollte eine 8800XT wirklich auf 4080 Niveau sein wird die 800€ kosten. Was imo immer noch ein okayer Preis ist. Von den gewünschten 500€ kann man sich aber so oder so verabschieden.
AMD braucht zwar Marktanteile muss aber trotzdem Geld verdienen. Der N3 Node von tsmc kostet auch ne Stange Geld und die Produktionskosten sind insgesamt gestiegen.
 
man wird ja sehen, wo ne 16GB-5080 dann preislich startet
glaube nicht, das man 999€ anbietet, bzw. ne 5070Ti für 799€
Deutet derzeit nur wenig drauf hin! Wenn ich mich nicht täusche lag schon die 4080 bei 1.199 USD und 1.469 EUR (später bei einem mit aktuellen Kursen vergleichbaren Dollar; lag sie bei 1.329 EUR); die 5er Serie wird wohl nochmal einen guten Schwung teurer. Tippe auf 1.299 USD und damit dann in Richtung 1.450 EUR!
AMD braucht zwar Marktanteile muss aber trotzdem Geld verdienen.
Naja, so wie es angekündigt ist, kann AMD den Chip aber extrem klein halten und ohne teuren GDDR7 Speicher bauen, was ziemlich sicher preislichen Gestalungsspielraum bietet.
 
Zuletzt bearbeitet:
AMD braucht zwar Marktanteile muss aber trotzdem Geld verdienen. Der N3 Node von tsmc kostet auch ne Stange Geld und die Produktionskosten sind insgesamt gestiegen.
???
N4P ist nur ein modifizierter N5.
sehe da keinen Grund für übermäßige Preissteigerungen beim $-UVP, weil weniger Fläche gebraucht wird,
sprich pro Wafer mehr Chips möglich sind, bei ähnlichem Aufwand/Technolgie
(der schwache Euro ist ne ganz andere Geschichte)

vllt. kann ja mal Jemand ausrechnen wieviel N48 auf so nem Wafer sind und was so ein Wafer kostet
müsste auch herauszufinden sein
der GDDR6 sollte evtl. sogar preiswerter werden, ... PCB+Kühler ungefähr so wie bei der 7800xt
In Summe wirds schon vernünftig/preiswert herstellbar sein.
 
Zuletzt bearbeitet:
???
N4P ist nur ein modifizierter N5.
sehe da keinen Grund für übermäßige Preissteigerungen beim $-UVP, weil weniger Fläche gebraucht wird,
sprich pro Wafer mehr Chips möglich sind, bei ähnlichem Aufwand/Technolgie
(der schwache Euro ist ne ganz andere Geschichte)

vllt. kann ja mal Jemand ausrechnen wieviel N48 auf so nem Wafer sind und was so ein Wafer kostet
müsste auch herauszufinden sein
der GDDR6 sollte evtl. sogar preiswerter werden, ... PCB+Kühler ungefähr so wie bei der 7800xt
In Summe wirds schon vernünftig/preiswert herstellbar sein.
Hatte N3 im Kopf.
Nur weil es AMD könnte heißt das nicht, dass es auch so kommt. Müssen schließlich auch Geld verdienen. Wenn eine 8800XT die Leistung einer 7900XTX erreicht und das bei weniger Verbraucht und mehr RT Leistung warum sollte die Karte dann um 500$ kosten?
 
Sorry, aber Thema durch. Die RT Performance der 3060Ti reicht für was? Minecraft RTX?
Guadians of the Galaxy als Beispiel, aber du weist es besser...
Ich glaube du krampfst.
Sag mal, was hast du denn von der RTX 3000er Serie im Kopf? Eine 3080 brauchte 350W
Fake News.

Also https://www.pcgameshardware.de/Gefo...-Hashrate-vs-Radeon-RX-6800-XT-1387114/2/#a25

Ein Jahr nach Release der RX6800XT und der 3080. Waren beide wie hier im Test zu sehen gleich auf.
Bei 330W für die RTX3080 und 302W für die 6800XT.

um eine 300W AMD Karte halbwegs in Schach zu halten (effektiv war sie eigentlich sogar langsamer, wenn ein Spiel mal nicht massiv von Nvidia gesponsort war, lag AMD teilweise vor der 3090)
Quelle?
Die normale 6900XT war eher nicht so oft vor der 3090.
Aber es ging auch da schon nicht um nur noch Raster.
Anhang anzeigen 1476920
Das ist der Effizienzindex! Von 2080Ti auf 3080 hat sich quasi nix getan, auf 4080 ist es ein Quantensprung und die Effizeinz hat sich fast verdoppelt.
Ja, die Effizienz ist gut gestiegen.
Naja, RT bietet mir auf 3000er keinen Mehrwert, damit brauchste nicht kommen.
Doch das tut es und du bestimmst nicht, was für wen wichtig ist.
Das was man dort an "RT" bekommt, bringt niemandem (hab schon Blindtests mit absoluten RT Junkies gemacht) etwas, die optische Qualität schon gar nicht, da man dann schon soweit runterdrehen muss.
Nein.
DLSS Quality ist mit RT (Brauchbar; also bspw. Cyberpunk Ultra RT) in normalen Auflösungen schon unsinnig und unbrauchbar und wer in niedrigeren Auflösungen spielt, bekommt ziemlich sicher nicht die FPS die er haben will oder nutzt alles, nur keine High End Karte.
Du laberst...
Habe übrigens auch Cyberpunk sehr gut mit der 3060ti gespielt. Mit Ray Tracing.
48 fps im 1% Low (lt. CB) in 2560x1440 (schon am unteren Ende der Zielgruppe einer 3080) mit DLSS Quality bedeuten dann irgendwas unter 40fps im 0,1% Low und das ist alles andere als schön.
Deine Wahrnehmung ist ein bunter Ort.

Bei PCGH war ein Jahr nach Release die 6800XT 1% schneller als die 3080 und die 6900XT 6%, wahre Wunder. Dafür konnten die aber RT quasi sehr schlecht.

Auch wenn du das nicht wahr haben willst, so gab es einige Spiele bei denen ich wegen der schwachen RT Leistung von RX6000 hätte die Regler runter drehen müssen, was so nicht in der Form nötig war.

Aber es zählt sowieso nur deine Sichtweise.
Hatte N3 im Kopf.
Nur weil es AMD könnte heißt das nicht, dass es auch so kommt. Müssen schließlich auch Geld verdienen. Wenn eine 8800XT die Leistung einer 7900XTX erreicht und das bei weniger Verbraucht und mehr RT Leistung warum sollte die Karte dann um 500$ kosten?
Wenn man diese Leistung erreicht, wird die auch entsprechend kosten.
Denke je nach spekulierter Leistung an 600 bis 850€ für eine 8800XT. Halt 600€ wenn es 5070 Leistung gibt und Richtung 850€ wenn es doch 5070ti Leistung gibt.

Aber das will sich wirklich erst zeigen, da die spekulierten Specs da nicht zu passen.
 
Bei 330W für die RTX3080 und 302W für die 6800XT.
Ist die 3080 10% ineffizienter, oder?

Guadians of the Galaxy als Beispiel, aber du weist es besser...
Die Raytracing-Effekte in Guardians of the Galaxy beschränken sich auf Spiegelungen sowie Reflexionen auf transparenten Materialien, wie etwa einer spiegelnden Glasfläche. Screen-Space-Reflections kommen ebenfalls zum Einsatz, allerdings sehr sparsam. Die meisten restlichen und konventionellen Reflexionen ohne Raytracing werden durch Cube Maps umgesetzt.

Mehrwert?


Die normale 6900XT war eher nicht so oft vor der 3090.
Forza, Hitman fallen mir spontan ein, da war sogar die 6800XT vor der 3090!

Habe übrigens auch Cyberpunk sehr gut mit der 3060ti gespielt. Mit Ray Tracing.
in welcher Auflösung denn? 320*240????

Sorry, aber mir geht es hier langsam gehörig auf den Keks, dass Leute Raytracing derartig in den Himmel loben und dabei ignorieren, dass sie mit Karten wie der 3060ti und auch deutlich stärkeren Karten niemals einen optischen Zugewinn holen, einfach weil sie die Leistung woanders einsparen müssen! Das ist Fakt! Eine 3060Ti kommt auf unter 40fps mit DLSS Quality und ist in den 0,1% unter 25 fps gelandet, dabei wird nur RT Ultra genutzt. Ohne RT kommt das gleiche Setting auf 58fps Average und knapp 40fps im 0,1%; gerade so spielbar. Also nein! RT machte mit der RTX 3000 kaum bis gar keinen Sinn und ja dazu stehe ich. DLSS ist gut; aber wenn man von Quality weggeht nimmt man sich afaik soviel Qualität aus der Grafik um ein paar lächerliche Rays zu bekommen, dass hat nichts mit Grafikqualität zu tun, sorry wenn ich es so deutlich sage. Aber das ist wie bei den US Boys, der 8 Liter Hubraum haben und dann mit 200 PS um die Kurve kommen; sinnbefreit!

Deine Wahrnehmung ist ein bunter Ort.
Was hast du da wieder genommen und willst mir sagen?

Aber es zählt sowieso nur deine Sichtweise.
Nein, ich kann andere Leute akzeptieren, aber dieses RT Gelaber geht mir auf den Keks! Denn zu Beginn (und nochmal, ich rede von Release) der 3000er Serie gab es kein einziges relevantes RT Spiel. Nicht einmal die Magazine testeten RT in besonderer Weise zum Release der Karten. RT hat (und das habe ich gesagt) überhaupt erst eine Relevanz mit DLSS 2.3 (vorher war es nicht gut!) bekommen, da erst hier die Karten entsprechend gut skalieren konnten um RT abzubilden, denn nativ ist es ja sogar bis heute schwierig (wobei der optische Zugewinn durch RT heuer auch größer ist als damals).

Aber es ging auch da schon nicht um nur noch Raster.
Doch, es ging einzig um Raster!


86 Spiele unterstützten am 15.07.2022 Raytracing, wenn ich richtig sehe genau ein Spiel auch vollwertig! Minecraft RTX. Das ist zwei Jahre nach Release der 3080!
 
Es ist halt immer das gleiche bei AMD. Es wird eine hohe Leistung zu billigsten Preisen erträumt. War bei Navi 3 nicht anders. Am Ende waren alle empört als eine 7900XTX vierstellig gekostet hat.
Bei Nvidia ist es anders herum, es werden hohe Preise erwartet welche dann auch bestätigt werden.
 
Ist die 3080 10% ineffizienter, oder?
JA und, wo ist dein 6900Xt bezug zur RTX3090 mit mehr Leistung bei halben Verbrauch.
Darum ging es eigentlich.
Hast du also nicht gesehen. Was soll ich sagen, sah besser aus. Aber das bewertest du auch immer noch nicht für andere.
Forza, Hitman fallen mir spontan ein, da war sogar die 6800XT vor der 3090!
Das geht auch anders herum. Dafür gibt es Tests, die würden deiner Aussage halt widersprechen.
in welcher Auflösung denn? 320*240????
WQHD, aber hey du weist es besser. Regler können helfen.
Sorry, aber mir geht es hier langsam gehörig auf den Keks, dass Leute Raytracing derartig in den Himmel loben und dabei ignorieren, dass sie mit Karten wie der 3060ti und auch deutlich stärkeren Karten niemals einen optischen Zugewinn holen, einfach weil sie die Leistung woanders einsparen müssen! Das ist Fakt
Das sind Fake News.
! Eine 3060Ti kommt auf unter 40fps mit DLSS Quality und ist in den 0,1% unter 25 fps gelandet, dabei wird nur RT Ultra genutzt.
Regler bedienen.
Ohne RT kommt das gleiche Setting auf 58fps Average und knapp 40fps im 0,1%; gerade so spielbar. Also nein! RT machte mit der RTX 3000 kaum bis gar keinen Sinn und ja dazu stehe ich.
Doch, du schreibst als wenn du gleich platzt.
DLSS ist gut; aber wenn man von Quality weggeht nimmt man sich afaik soviel Qualität aus der Grafik um ein paar lächerliche Rays zu bekommen, dass hat nichts mit Grafikqualität zu tun, sorry wenn ich es so deutlich sage. Aber das ist wie bei den US Boys, der 8 Liter Hubraum haben und dann mit 200 PS um die Kurve kommen; sinnbefreit!

Deien geschreibsel ist sinnfrei, du tust es trotzdem.
Was hast du da wieder genommen und willst mir sagen?
Sicher, lies deine Beiträge das ist schon nah an unerträglich.
Nein, ich kann andere Leute akzeptieren, aber dieses RT Gelaber geht mir auf den Keks!
Aber du kannst nicht vorschreiben, wem was wie wichtig ist.

Denn zu Beginn (und nochmal, ich rede von Release) der 3000er Serie gab es kein einziges relevantes RT Spiel.
Es geht nicht um deine Sicht.
Nicht einmal die Magazine testeten RT in besonderer Weise zum Release der Karten. RT hat (und das habe ich gesagt) überhaupt erst eine Relevanz mit DLSS 2.3 (vorher war es nicht gut!) bekommen, da erst hier die Karten entsprechend gut skalieren konnten um RT abzubilden, denn nativ ist es ja sogar bis heute schwierig (wobei der optische Zugewinn durch RT heuer auch größer ist als damals).
Gut das RTX3000 in den Tests die ich verlinkt habe auch ohne RT konkurrenzfähig war. Ok, bei 30W mehr Verbrauch. Was du aber vor ein paar Posts noch versuhct hast anders darzustellen.
Doch, es ging einzig um Raster!
NEIN, das bestimmst du nämlich nicht.

86 Spiele unterstützten am 15.07.2022 Raytracing, wenn ich richtig sehe genau ein Spiel auch vollwertig! Minecraft RTX. Das ist zwei Jahre nach Release der 3080!
Je und, die Bewertung ob das relevant ist liegt nicht bei dir.
 
Dann mach doch mal Screenshots und stell sie hier ein zur Abstimmung

Nativ MAX Details
DLSS QUALITY Max Details
DLSS QUALITY Medium Details und RT
Du wirst dich wundern, aber am Beispiel Alan wake 2 sieht zweithöchste Texturen plus RT/PT zum Beispiel deutlich besser aus, als max Raster Details ohne RT/PT .

Das von dir gewünschte brauche ich nicht machen, da ich inzwischen eh eine 4070ti super habe und demnächst eine 8800xt, oder eine 5070ti...

Liefer du doch erstmal Belege für deine anfangs völlig überzogenen Aussagen zur 6900xt vs rtx 3000...
 
Zurück