News Radeon RX 9070 XT: Geforce RTX 4080 in Reichweite [Gerücht]

RTX 4090 / RTX 5070
LOL

Die beiden Karten werden eines nicht gemeinsam haben, ein ähnliches Leistungsniveau.
Selbst eine 5080 wird sich Strecken müssen, denn woher will Nvidia die Mehrleistung nehmen? Die 4090 hat 60% mehr Kerne und 2,5Ghz Boost, dazu mehr Speicherbandbreite! Eine Mischung aus IPC und Takt wird es nicht sein, 20% IPC die jeder für unrealistisch hält und 40% mehr Takt würde bedeuten, dass die Kerne bei grob 3,5Ghz takten müssten, sorry, aber unrealistischen geht es wohl nicht mehr. Die 5070 wird ja vermutlich bei 70% einer 5080 liegen, schließlich kommt schon eine 5070Ti mit 20% weniger Shadern und Leistung daher.
 
Stimmt deswegen hat AMD nur mehr 10% Marktanteil lol
Das hat andere Gründe und das weißt du auch ziemlich genau; Nvidia ist seit den Anfängen ein Unternehmen was extrem erfolgreich Marketing betreibt. So hat man damals 3dfxs Niedergang extrem beschleunigt indem man ein völlig nutzloses Feature wie 32Bit anpries und 3dfx quasi den Ruf des "Nachzüglers" andichtete (was tatsächlich mit der folgenden Generation dann auch eintrat). So hat man zu Zeiten von der FX5800 Ultra dann schnell einen 3D Mark Cheat rausgehauen und mit der ebenfalls schlechten RTX3er Serie hat man dann ein für die Karten ziemlich sinnloses RT propagiert (maximal die 3090; aber eigentlich selbst die nicht, denn Full HD will man mit so einer Karte ja auch eher nicht spielen!). So hat man es seitens Nvidia bei schlechten Karten geschafft die Konkurenz in Schach zu halten und bei guten Karten, die es ja durchaus zu Hauf gibt, hat man entsprechend verkauft.

P.S:
Ist im übrigen bei Intel ähnlich, die haben halt neben dem Marketing insbesondere die OEMs an den Eiern (warum auch immer, die noch immer überwiegend Intel verkaufen).
 
ohje die AMD Bois sind wieder da, ist ja fast so schlimm wie die Nvidia oder Intel bois.
Aussagen wie RT braucht keiner und macht keinen Unterschied und Nvidia baut das schlechter Produkt.
Sind halt einfach unwar und Zeigen das man nichts verstanden hat, und davon ausgeht, das alle Fanboys sind außer man selbst.

Sachlich betrachtet sieht man das zwischen der 290x und der 6900xt Generationen waren in den AMD einfach weit weg von Nvidia war.
Das bleibt im Kopf.
Eine RX580 und RX 480 sind Gute Karten gewesen, aber halt nur in einem Bestimmten Marktbereich.
Eine vollen stack an Karten der Nvidia das wasser reichen kann, hatte man lange nicht mehr.
Die RX6000 waren gerade im bezug auf die 6800 und 6800xt gute Karten.
Aber hier hatte man danke Miningkrise und dem fehlen an Features , Probleme Martkanteile zu gewinnen.
Zwar hat man mehr Vram und eine bessere Teilast effizient.
Dennoch hatte man gerade zu Release die schlechter RT Leistung, keinen Upscaler der ansatzweise an das Niveau von DLSS rankam, zudem hatte Nvidia noch Reflex und RTX Brodcast, was so vermute ich passender nicht hätte kommen können .

Sehe ich eine 6800 trotzdem vor einer 3070 klar, 3080 zu 6800xt ist schon schwer besonders mit dem spätern 12Gib Modell, dessen VRAM zwar knapp ist aber noch nicht zu klein ist in 90% der Fälle.
Die 3060 war eine sehr Solide Karte 12Gig und genug Performance.

Aber ja redet euch nur ein das AMD seit Jahren die besseren Produkte hat.
 
Aussagen wie RT braucht keiner und macht keinen Unterschied und Nvidia baut das schlechter Produkt.
Lesen will gelernt sein!

Dennoch hatte man gerade zu Release die schlechter RT Leistung, keinen Upscaler der ansatzweise an das Niveau von DLSS rankam, zudem hatte Nvidia noch Reflex und RTX Brodcast, was so vermute ich passender nicht hätte kommen können .
Oh wie man sich irren kann! Zum Release war DLSS quasi unbrauchbar! Vergessen die meisten bei der Betrachtung, aber DLSS war ab 2.3 halbwegs brauchbar und ab dem Zeitpunkt habe ich damals meine Empfehlungen auch angepasst und bspw. eine 3060 vor der AMD Alternative gesehen!

Die RT Leistung war viel besser, aber es wird vergessen, dass damals kein einziges RT Game vorhanden war, was auch nur im entferntesten einen optischen Mehrwert bot und im Ansatz eine Relation zur gefressenen Leistung bot! Auch das wird von vielen in der Retroperspektive nicht mehr beachtet.

Eine vollen stack an Karten der Nvidia das wasser reichen kann, hatte man lange nicht mehr.
Doch, die RX6000er Karten waren genau das! Davor war es tatsächlich lange lange her, ich kann mich an die 9000er Radeons Anfang des Jahrtausends erinnern, die X1900XTX war auch eine fantastische Karte und absolut auf Augenhöhe, muss die WM im eigenen Land gewesen sein. HD7970 müsste auch im HighEnd gewesen sein, 2012 rum. Danach dürfte dann eben erst die RX6000er wieder den FullStack wiedergespiegelt haben.

Die 3060 war eine sehr Solide Karte 12Gig und genug Performance.
Mit dem Release von DLSS 2.3 war es die Karte ihres Preisbereichs, ganz klar.

Gut, preislich etwas andere Range nicht wahr? Die 10GB Variante lag damals bei 699 EUR und damit 50 EUR teurer als die 6800XT. Die 12GB Variante kam dann ja schon ohne UVP, nehmen wir mal 50EUR mehr an. Sind dann eben schnell mal 15% mehr Preis bei langsamerer Rasterperformance, aber ja die 12GB Variante war dennoch ganz in Ordnung und lebte natürlich dann insbesondere von DLSS 2.3ff. (ohne wäre sie für mich niemals für niemanden in Betracht gekommen).

Aber ja redet euch nur ein das AMD seit Jahren die besseren Produkte hat.
Genau das sagt hier gerade niemand! Aber ist klar, wenn man keine Argumente liefern kann, dann muss man die Fanboi Karte spielen und versuchen sein Gegenüber auf unsachliche Art und Weise zu diskreditieren. Ich sage nur, dass Nvidia insbesondere durch herausragendes Marketing die 90/10 Quote besitzt und dies in keinster Weise etwas mit der Leistung der Karten zu tun hat. Denn 90% des Marktes sind nicht im Bereich wo AMD lange Zeit keine Karten angeboten hat, sondern genau dort wo AMD immer Karten hatte. Die paar 3090 Besitzer machen prozentual nicht viel aus!
 
Das hat andere Gründe und das weißt du auch ziemlich genau; Nvidia ist seit den Anfängen ein Unternehmen was extrem erfolgreich Marketing betreibt. So hat man damals 3dfxs Niedergang extrem beschleunigt indem man ein völlig nutzloses Feature wie 32Bit anpries und 3dfx quasi den Ruf des "Nachzüglers" andichtete (was tatsächlich mit der folgenden Generation dann auch eintrat). So hat man zu Zeiten von der FX5800 Ultra dann schnell einen 3D Mark Cheat rausgehauen und mit der ebenfalls schlechten RTX3er Serie hat man dann ein für die Karten ziemlich sinnloses RT propagiert (maximal die 3090; aber eigentlich selbst die nicht, denn Full HD will man mit so einer Karte ja auch eher nicht spielen!). So hat man es seitens Nvidia bei schlechten Karten geschafft die Konkurenz in Schach zu halten und bei guten Karten, die es ja durchaus zu Hauf gibt, hat man entsprechend verkauft.

P.S:
Ist im übrigen bei Intel ähnlich, die haben halt neben dem Marketing insbesondere die OEMs an den Eiern (warum auch immer, die noch immer überwiegend Intel verkaufen).
Nur Marketing ist, dass nicht die Karten sind einfach den Radeon überlegen und das bekommt AMD zu spüren, bei Intel sieht es nicht anders aus dort ist es halt umgekehrt, obwohl Intel die bessere Werbung hat verkaufen sie die Ryzens besser, also macht deine Aussage keinen Sinn.

LG
 
Lesen will gelernt sein!


Oh wie man sich irren kann! Zum Release war DLSS quasi unbrauchbar! Vergessen die meisten bei der Betrachtung, aber DLSS war ab 2.3 halbwegs brauchbar und ab dem Zeitpunkt habe ich damals meine Empfehlungen auch angepasst und bspw. eine 3060 vor der AMD Alternative gesehen!

Die RT Leistung war viel besser, aber es wird vergessen, dass damals kein einziges RT Game vorhanden war, was auch nur im entferntesten einen optischen Mehrwert bot und im Ansatz eine Relation zur gefressenen Leistung bot! Auch das wird von vielen in der Retroperspektive nicht mehr beachtet.


Doch, die RX6000er Karten waren genau das! Davor war es tatsächlich lange lange her, ich kann mich an die 9000er Radeons Anfang des Jahrtausends erinnern, die X1900XTX war auch eine fantastische Karte und absolut auf Augenhöhe, muss die WM im eigenen Land gewesen sein. HD7970 müsste auch im HighEnd gewesen sein, 2012 rum. Danach dürfte dann eben erst die RX6000er wieder den FullStack wiedergespiegelt haben.


Mit dem Release von DLSS 2.3 war es die Karte ihres Preisbereichs, ganz klar.


Gut, preislich etwas andere Range nicht wahr? Die 10GB Variante lag damals bei 699 EUR und damit 50 EUR teurer als die 6800XT. Die 12GB Variante kam dann ja schon ohne UVP, nehmen wir mal 50EUR mehr an. Sind dann eben schnell mal 15% mehr Preis bei langsamerer Rasterperformance, aber ja die 12GB Variante war dennoch ganz in Ordnung und lebte natürlich dann insbesondere von DLSS 2.3ff. (ohne wäre sie für mich niemals für niemanden in Betracht gekommen).


Genau das sagt hier gerade niemand! Aber ist klar, wenn man keine Argumente liefern kann, dann muss man die Fanboi Karte spielen und versuchen sein Gegenüber auf unsachliche Art und Weise zu diskreditieren. Ich sage nur, dass Nvidia insbesondere durch herausragendes Marketing die 90/10 Quote besitzt und dies in keinster Weise etwas mit der Leistung der Karten zu tun hat. Denn 90% des Marktes sind nicht im Bereich wo AMD lange Zeit keine Karten angeboten hat, sondern genau dort wo AMD immer Karten hatte. Die paar 3090 Besitzer machen prozentual nicht viel aus!
1.
Ich sage dazu mal nichts.
Du warst nicht mal gemeint,ich könnte jetzt den user Zititern, aber vlt liest du erstmal nach.
Und unterstellst mir hier nicht sachen, weil du denkst du bist gemeint.

2. Ich Rede aber nicht vom Relase ich rede von der RTX 3000 Reihe und dort gab es schon DLSS und auch gute Raytracing Games gerade Cyberpunk wurde kurz danach Releast:
RTX 3080 ab dem 17. September erhältlich.
cyberpunk 2077 release date 10. Dezember 2020


Und folgende Games kamen "kurz" nach Release raus:
The Ascent (Bot einen Mehrwert)
Minecraft (War sehr sichtbar ,ob man das im Spiel das aber braucht ?
Guardians Of The Galaxy (Starker Unterschied)
F.I.S.T. (nicht gespielt)
Quake (Starker Unterschied)
Severed Steel
Metro Exodus (Starker Unterschied)
Lego Builders Journey (nicht gespielt
Watch Dogs Legion (Machte es schöner )

Ich Zitier mich mal kurz selbst aber damit hättest du draufkommen können das ich gerade die 6000 reihe sehr schätze:
"Zwischen 290x und der 6900xt Generationen waren in den AMD einfach weit weg von Nvidia war."
Zwischen bedeutet:
kennzeichnet eine Erstreckung von etwas innerhalb von zwei begrenzenden Punkten
"der Abstand zwischen den Häusern, den Punkten A und B"

Also zwischen a und b und nicht Inklusive a und b.

Also zwischen 290x und 6900xt hatte man nichts.


Oder willst du mir sagen das eine 5700xt und eine RX580 etwa mit den Großen GPU und Teueren GPU von Nvidia mithalten konnten ?

Nein weder die Vega64 noch die 5700xt konnten was gegen die 1080 (2080) ausrichten. Im falle der 5700xt war das Preislich auch Garnicht der Gegner sondern die 2070 aber selbst dort , hatte man seine Probleme.

(Kein RT , damals vermutlich eher Gimick (Control war so das Einzige richtig geile RT game).
Erstmal keine Upscaler auch wenn DLSS 1.0 kacke war. Aber man hatte erstmal keine Antwort drauf.
Dann hatte die 5700xt diverse Treiber Probleme, und man kam einfach 8 Monate Später.

Sorry aber man muss sich nicht wunder wenn man 2 Gens, Komplett verschlafen hat, bleibt das im Kopf der Leute.
Die RX 480 war der 1060 Ebenbürtig bzw besser. Aber auch hier leicht später,
und auch hier:
1735342073803.png

War man einfach etwas langsamer, 2 GB mehr VRAM waren und sind schön. Aber eine 1060 hält einem ähnlich lang wie eine RX 480 und das bei weniger verbrauch.


3.
Die 3080 ist und war der gegener der 6800xt ja 50€ Unterschied.
Aber bei der 6800 war es ähnlich nur andersherum_
Die AMD Radeon RX 6800 wird mit einem Preis von mindestens 579 Euro zur UVP angeboten.

Die Geforce RTX 3070 kam im Herbst 2020 als Mittelklassemodell der "Ampere"-Generation mit einer UVP von 499 Euro.
Dann nimmt sich nicht viel. Zumal man zu der Zeit so oder so kaum an karten zu UVP kam, was ich erwähnte und auch sagte das dies vermutlich dafür gesorgt hat das man keinen Marktanteil gewinnen konnte.


Zum letzten teil von dir :
Doch das wurde hier gesagt. und darauf habe ich mich bezogen.
Hätte ich Zitieren sollen ja, habe ich es getan nein.

Unterstelle ich dir etwas nein, unterstelle ich der gemeinten Personen etwas ja.
Aber wenn ich jetzt bissig wäre, würde ich sagen getroffene Hunde bellen, aber naja das ist halt kein Argument sondern Dumm Schwatzerei und das überlasse ich anderen Leuten.
 
Zuletzt bearbeitet:
obwohl Intel die bessere Werbung hat verkaufen sie die Ryzens besser,
Du hast aber mitbekommen welchen Marktanteil AMD bei CPUs hat?
cyberpunk 2077 release date 10. Dezember 2020
Mit welch dramatisch schönem RT, ach ja, das kam ja erst mit dem Update
Du warst nicht mal gemeint
Dann ist ja gut, dennoch habe ich bis auf eine Passage ja keinen Unsinn geschrieben


Sorry aber man muss sich nicht wunder wenn man 2 Gens, Komplett verschlafen hat, bleibt das im Kopf der Leute.
Aber das ist es ja, man hat mehrere Gens nicht im High End abgeliefert, dennoch hat man ja Karten gebracht die gut waren. Die RX590 bspw war seinerzeit die beste P/L Karte, dazu eben mit 8GB VRAM und du kannst damit heuer noch gut zocken, die Konkurenz ist weg vom Fenster, da nur 6GB VRAM vorhanden sind.

Wir sehen doch gerade auch bei Intel, dass es das nicht ist. Die sind seit mehr als zwei Generationen keine Konkurenz, dennoch über 70% Marketshare.

Ich sage auch nicht, dass der Marktanteil gar nicht damit korreliert, sondern nur, dass 90/10 sicher nicht nur darauf fußt
 
LOL

Die beiden Karten werden eines nicht gemeinsam haben, ein ähnliches Leistungsniveau.
Selbst eine 5080 wird sich Strecken müssen, denn woher will Nvidia die Mehrleistung nehmen? Die 4090 hat 60% mehr Kerne und 2,5Ghz Boost, dazu mehr Speicherbandbreite! Eine Mischung aus IPC und Takt wird es nicht sein, 20% IPC die jeder für unrealistisch hält und 40% mehr Takt würde bedeuten, dass die Kerne bei grob 3,5Ghz takten müssten, sorry, aber unrealistischen geht es wohl nicht mehr. Die 5070 wird ja vermutlich bei 70% einer 5080 liegen, schließlich kommt schon eine 5070Ti mit 20% weniger Shadern und Leistung daher.
Dann lass es die 5070TI sein...

Wie weit liegt denn die 3090 vor der 4070TI?
Wie weit liegt die 2080TI vor der 3070?
Wie weit liegt die 1080TI vor der 2070?

Glaubst du allen ernstes das dieses mal das was Nvidia seit Jahren macht nicht mehr zutrifft?

Oder hast du dir eine RTX 4090 gekauft und es schmerzt gerade sehr das die neuen 70iger sehr wahrscheinlich in der Range der 4090 sind?

Was bei diesen ganzen % Rechnen bei Euch größten Teils ignoriert wird das die Shader Einheiten von Generation zu Generation auch verbessert werden, alleine die neue noch kleinere Struktur gibt schon eine Verbesserung.
Daher kann man die neue Generation ohne sie wirklich gemessen zu haben gar nicht 1:1 in % berechnen, das muss man messen wo sie wirklich liegen!
 
Raytracing ist letztlich nur Marketing. Ob es an oder aus ist, sieht man nur marginal, aber es kostet halt 50% der FPS. Und das ist meine Erfahrung von Metro bis Indy. Mich interessiert auch nur die Rasterleistung.
Wenn Raytracing nur Marketing ist, wieso hat dann eine PS5 Raytracing spendiert bekommen?
 
Glaubst du allen ernstes das dieses mal das was Nvidia seit Jahren macht nicht mehr zutrifft?
Ja, glaube ich.


Was bei diesen ganzen % Rechnen bei Euch größten Teils ignoriert wird das die Shader Einheiten von Generation zu Generation auch verbessert werden
Wieviel Prozent sollen das denn sein?

Die 5070Ti bekommt 50% der Shader einer 4090! Selbst mit Auslastungsproblemen reden wir hier von einer riesigen signifikanten IPC Steigerung im Bereich 60%+ die vonnöten wären um in den Bereich einer 4090 zu kommen.

Die 4070Ti hat 25% weniger Shader als die 3090, die 3070Ti hat gar 50% mehr Shader als die 2080Ti. Bei der 1080Ti zur 2070Ti sind es auch nur wenige Shader. Allen Generationen gemein ist aber ein Fertigungsvorteil, von 16nm auf 12nm auf 8nm auf 4nm. Was gibt es diesmal nicht? Richtig, 3nm!

Oder hast du dir eine RTX 4090 gekauf
Zocken noch auf einer 6900XT.
 
Das hat andere Gründe und das weißt du auch ziemlich genau; Nvidia ist seit den Anfängen ein Unternehmen was extrem erfolgreich Marketing betreibt. So hat man damals 3dfxs Niedergang extrem beschleunigt indem man ein völlig nutzloses Feature wie 32Bit anpries und 3dfx quasi den Ruf des "Nachzüglers" andichtete (was tatsächlich mit der folgenden Generation dann auch eintrat). So hat man zu Zeiten von der FX5800 Ultra dann schnell einen 3D Mark Cheat rausgehauen und mit der ebenfalls schlechten RTX3er Serie hat man dann ein für die Karten ziemlich sinnloses RT propagiert (maximal die 3090; aber eigentlich selbst die nicht, denn Full HD will man mit so einer Karte ja auch eher nicht spielen!). So hat man es seitens Nvidia bei schlechten Karten geschafft die Konkurenz in Schach zu halten und bei guten Karten, die es ja durchaus zu Hauf gibt, hat man entsprechend verkauft.

P.S:
Ist im übrigen bei Intel ähnlich, die haben halt neben dem Marketing insbesondere die OEMs an den Eiern (warum auch immer, die noch immer überwiegend Intel verkaufen).
Kann ich so nicht unterschreiben, Hardware t&l war damals der vorgänger der shader und 32bit war eine logische Entwicklung, die Sachen sind heute einfach Standard. Auch raytracing wird immer mehr zum Standard, in ein paar Jahren wird man über den sinn darüber nicht Mal diskutieren.
 
Wieviel Prozent sollen das denn sein?

Die 5070Ti bekommt 50% der Shader einer 4090! Selbst mit Auslastungsproblemen reden wir hier von einer riesigen signifikanten IPC Steigerung im Bereich 60%+ die vonnöten wären um in den Bereich einer 4090 zu kommen.

Die 4070Ti hat 25% weniger Shader als die 3090, die 3070Ti hat gar 50% mehr Shader als die 2080Ti. Bei der 1080Ti zur 2070Ti sind es auch nur wenige Shader. Allen Generationen gemein ist aber ein Fertigungsvorteil, von 16nm auf 12nm auf 8nm auf 4nm. Was gibt es diesmal nicht? Richtig, 3nm!
1735400617887.png

1735400469569.png


1735400780821.png


Wie du siehst die 70er sind immer im Performance Bereich der 90iger. Das geht sogar noch weiter zurück, also ich repektiere das du etwas anderes Vermutest aber ich befürchte das es nicht so kommen wird.

Quelle

Ach und beim verkleinern ist von 4 auf 3 wesentlich schwieriger als von 8 auf 4 und dazu kommt das die Performance Sprünge mit der größte skalieren. Also ist von 4 auf 3 auch mehr zu erwarten als von 8 auf 4nm. Das Mathematisch zu erfassen ist schwerer als einfaches Prozentrechnen.
 
und 32bit war eine logische Entwicklung
32bit war in der TNT2 beworben und seinerzeit schlicht nicht sinnvoll nutzbar, die Framerate sank um 50% und der optische Mehrwert war selten messbar. 3dfxs 22Bit war meist gleichauf in der Optik, dafür viel schneller unterwegs.

Marketing @ its best!

T&L war in geringen Auflösungen interessant, aber eben auch erst nach einer Weile. War aber in meinem Post kein Kritikpunkt sofern ich richtig liege, kam auch nicht mit der TNT2 sondern erst mit der GeForce256; nutzbar ab GF2.

Auch raytracing wird immer mehr zum Standard
bestreiten tue ich das gar nicht; nur ob ich zur Zeit der RTX3er eine Karte kaufen würde, die zwar 50% mehr FPS als die Konkurenz schafft, es aber auch nicht in den Bereich spielbar schafft? Dafür eben andere Nachteile aufweist? Wie z.B. 10GB RAM; die 3080 10GB ist bspw. schon durchaus RAM limitiert unterwegs, gerade mit RT!

in ein paar Jahren wird man über den sinn darüber nicht Mal diskutieren.
Stimmt, bis dahin habe ich aber aber vermutlich drei, vier GPUs durch den Rechner gezogen.
Wie du siehst die 70er sind immer im Performance Bereich der 90iger. Das geht sogar noch weiter zurück, also ich repektiere das du etwas anderes Vermutest aber ich befürchte das es nicht so kommen wird.
Dem habe ich doch nicht widersprochen; nur sind halt alle Rahmendaten die weitestgehend klar sein sollten, etwas was deine Meinung nicht gerade unterstützt. Niemals hatte eine Nachfolger xx70Ti soviel weniger Shader an Bord, daher kann ich einfach nicht deiner Meinung sein.

Wir können ja wetten, lang ist ja nicht mehr hin bis zu den ersten Benches!

Ach und beim verkleinern ist von 4 auf 3 wesentlich schwieriger als von 8 auf 4
???
Verstehe die Aussage leider nicht.

und dazu kommt das die Performance Sprünge mit der größte skalieren.
Ja, nur verstehe ich auch hier den Sinn hinter der Aussage nicht

Also ist von 4 auf 3 auch mehr zu erwarten als von 8 auf 4nm
Das wird ziemlich sicher nicht der Fall sein, liegt aber darin begründet, dass die Prozessnamen am Ende auch nur noch Marketing sind und nichts mit echten Strukturbreiten zu tun haben. Die RTX3er Serie war in Samsungs 8nm Prozess gefertigt, am Ende ein Samsung 10nm Prozess. Der Schritt zum TSMCs N4 war gigantisch und wird so nicht wiederholt werden. Denn der N4 ist ein 5nm Derivat und damit im Kern zwei volle Nodes besser als Samsungs 8nm! Grob schätzen würde ich, dass da 50% Leistung / Effizienz zwischen liegen. Die Packdichte ist fast dreimal so hoch!

TSMCs N3 ist wiederum kein kleiner Schritt (denn N3 ist ein Node und damit deutlich größer als N5 auf N4), aber eben keine zwei Nodes.

Also ein klares und vehementes NEIN, der Schritt auf N3 wird deutlich kleiner ausfallen als der Schritt auf N4, wird aber ohnehin erst mit der Nachfolgegeneration vollzogen.

Das Mathematisch zu erfassen ist schwerer als einfaches Prozentrechnen.
Nur aus den Prozessnamen heraus schonmal gar nicht, aber selbst aus einer "echten" Strukturbreite ist es eigentlich unmöglich, denn es gehören dann durchaus mehr Faktoren als nur ein Gateabstand zur Leistung eines Prozesses.
 
LOL

Die beiden Karten werden eines nicht gemeinsam haben, ein ähnliches Leistungsniveau.
Selbst eine 5080 wird sich Strecken müssen, denn woher will Nvidia die Mehrleistung nehmen? Die 4090 hat 60% mehr Kerne und 2,5Ghz Boost, dazu mehr Speicherbandbreite! Eine Mischung aus IPC und Takt wird es nicht sein, 20% IPC die jeder für unrealistisch hält und 40% mehr Takt würde bedeuten, dass die Kerne bei grob 3,5Ghz takten müssten, sorry, aber unrealistischen geht es wohl nicht mehr. Die 5070 wird ja vermutlich bei 70% einer 5080 liegen, schließlich kommt schon eine 5070Ti mit 20% weniger Shadern und Leistung daher.

Da haste deine Quelle wie viel sie gemeinsam haben werden!

Und die ganze Rechnung ist kompletter Blödsinn gewesen, da passte überhaupt nichts in deiner Berechnung...
 

Da haste deine Quelle wie viel sie gemeinsam haben werden!

Und die ganze Rechnung ist kompletter Blödsinn gewesen, da passte überhaupt nichts in deiner Berechnung...
Dir ist bewusst das Nvidia wie bei der 4000 Serie FG mit MFG vergleicht oder ?
Also 1 Extra bild mit 2 oder gar mehr Extra Bildern:
1736246146201.png
 
Dir ist bewusst das Nvidia wie bei der 4000 Serie FG mit MFG vergleicht oder ?
Also 1 Extra bild mit 2 oder gar mehr Extra Bildern:
Anhang anzeigen 1480367
Ja ist mir bewusst, aber Nvidia sieht bei jedem Release seine 70iger im High End Bereich der Vorgänger Generation.

Ich denke nach wie vor wenn die Benchmarks kommen das mindestens die RTX 5070TI nur marginal knapp hinter der RTX 4090 hängen wird. Das ist halt keine blose an den Haaren herbeigezogene Theorie, sondern von Nvidia seit mehreren Generationen so gewollt.
 
Ja ist mir bewusst, aber Nvidia sieht bei jedem Release seine 70iger im High End Bereich der Vorgänger Generation.

Ich denke nach wie vor wenn die Benchmarks kommen das mindestens die RTX 5070TI nur marginal knapp hinter der RTX 4090 hängen wird. Das ist halt keine blose an den Haaren herbeigezogene Theorie, sondern von Nvidia seit mehreren Generationen so gewollt.
Bei der Ti könnte das wirklich so sein, wobei ich irgendwie nicht dran glaube.
Aber mal schauen, ich denke für den Kunden wäre es Schön wenn es so kommt.
Wenn wir und das Anschauen:
5070Ti vs 4070Ti.
Dann würde ich dort vermuten das Sie ca. 30-35% Schneller ist als die 4070Ti.
1736247953306.png

Das Sind Spiele Ohne MFA laut Slide.

Schaut man sich nun den PCGH RT Index an:
1736248074536.png

Reichen 30% nicht, selbst 40% reichen nicht.

Ich sage ohne MFG (Multi Frame Gen) wird das nichts.
 

Anhänge

  • 1736247908021.png
    1736247908021.png
    21,2 KB · Aufrufe: 0
Zurück