Geforce RTX 4000 und Radeon RX 7000: Um den Faktor 2 - 2,5 schneller?

Der Faktor 2 ist doch nicht aus der Luft gegriffen.

- Nvidia steigt von einem schlechten 8nm Samsung (alt 10nm) auf 5nm TSCM um
- Die Leistungsaufnahme soll trotzdem deutlich steigen

Zusammen ergibt das eben den Faktor 2, also eine doppelt so hohe Leistung. Alleine der Umstieg zu TSMC würde 30% Mehrleistung bei gleichem Strombedarf bedeuten.

Bei AMD ist der Sprung zu 5nm TSCM zwar nicht so groß von 7nm, aber dafür gibt es dort einen anderen Ansatz, der sich beliebiger skalieren lässt. Da wäre auch der Faktor 3 oder 4 drin, wenn man denn wollte. Wären dann nur ganz andere Preis und Stromregionen. Faktor 2 ist hier also auch im Bereich des möglichen.

-> Ich will eine RTX4070 mit 16GB und 3090 Leistung mit unter 250 Watt sehen. Das wäre meine Karte. Ein Traum, wenn man sie für eine UVP um die 500€ anbieten würde.
 
-> Ich will eine RTX4070 mit 16GB und 3090 Leistung mit unter 250 Watt sehen. Das wäre meine Karte. Ein Traum, wenn man sie für eine UVP um die 500€ anbieten würde.
Ich bin da durchaus bei dir. Nur wird das nicht passieren. Vor allem nachdem Nvidia und AMD gesehen haben, was die Leute an Beträgen für die Karten bereit sind zu zahlen...:ugly:

Gruß
 
Die sind halt mal wieder 25% bis 30% schneller. Wie jede Generation, wenn überhaupt.

Es wäre für uns Spieler sinnvoller, wenn die GPUs 2 bis 2,5 fach besser verfügbar wären und der Preis 2 bis 2,5 fach fallen würde.

Bei den derzeitigen Preisen und der Gesamtsituation geht mir ja die neue Generation sowas von am Arsch vorbei, man kann es kaum beschreiben.
 
doppelte Leistung? Da bräuchte man ja noch die aller aller schnellste CPU dazu,
und selbst dann wäre man sehr oft im CPU-Limit.
 
doppelte Leistung? Da bräuchte man ja noch die aller aller schnellste CPU dazu,
und selbst dann wäre man sehr oft im CPU-Limit.

Das sind Grafikkarten für 4k Auflösung. Da reicht bisher auch eine 5 Jahre alte CPU. Mein 5800x habe ich für Valorant in FullHD und 500 Frames. Die 500 Frames schafft da aber auch meine GTX1070 noch locker. Bei 4k sieht es dann schon ganz anders aus. Meine CPU liefert ohne Probleme 100 Frames in jedem Spiel, nur meine GTX1070 nicht ansatzweise.
 
Faktor 2 ist totales Wunschdenken, aber halt extremst unrealistisch...
Nicht wirklich.

Ein AD102 ist nach aktuellem Gerüchtestand rund 75% breiter aufgestellt alleine was die Shadereinheiten betrifft. Zusätzlich wird im TSMC5 sehr wahrscheinlich mehr Takt möglich sein als im Samsung10. 20% mehr Takt, also 2,2 GHz statt 1,8 rum würden schon reichen für Faktor 2 an Performance und das ohne irgendwelche Verbesserungen an der IPC/Architektur.
Klar, einen so breiten Chip mit über 2 GHz rechnen zu lassen wird den Verbrauch explodieren lassen - aber auch das ist ja bereits ziemlich sicher.
Die sind halt mal wieder 25% bis 30% schneller. Wie jede Generation, wenn überhaupt.
Diesmal nicht. Denn dieses Mal haben wir Architektursprung + Fertigungssprung + Kopf-an-Kopf-Konkurrenz + TDP-Eskalation. Das wird definitiv deutlich mehr als die üblichen 20-30%.
doppelte Leistung? Da bräuchte man ja noch die aller aller schnellste CPU dazu,
und selbst dann wäre man sehr oft im CPU-Limit.
Oder man stellt einfach Auflösung oder RTX hoch. Die richtigen Spiele und Einstellungen vorausgesetzt wird man auch eine RTX4090 in einen fps-Bereich drücken können wo die CPU nur noch ne sehr untergeordnete Rolle spielt.
 
Ach immer die Gerüchte. Die gibt es doch vor jeder neuen Generation das irgendwer behauptet die Karte ist doppelt so schnell als ihre Vorgänger. Am Ende sind es dann 10-30%

Wie kommst Du darauf, die RTX 2080 war 70% schneller als die 1080 und die 3080 ist knapp 50-60% schneller als die 2080. Die letzte Generation, die nur 10-30% schneller war, das war die GTX 900er, wo die 980 ca. 30% vor der 780 lag.
 
Wie kommst Du darauf, die RTX 2080 war 70% schneller als die 1080 und die 3080 ist knapp 50-60% schneller als die 2080. Die letzte Generation, die nur 10-30% schneller war, das war die GTX 900er, wo die 980 ca. 30% vor der 780 lag.
Ne 2080 ist knapp 40% schneller als ne 1080.
Bei der 3080 musst du auch dran denken, dass da nen 02 Chip verbaut ist und kein 04.
 
Weil NVidia jetzt im Gegensatz zu den letzten Generationen (Turing, Pascal, Maxwell) einen ernstzunehmenden Gegner hat und darauf hin Dimensionieren muss (bei Ampere ging das noch nicht da der Chip schon fertig war und man AMD wohl unterschätzt hatte, deswegen hatte man nur die Chance über 350W die Krone zu behalten).
Die beiden hauen nicht umsonst Karten raus die richtung 500W gehen, das machen die nicht weil sie Stromverbrauch und Abwärme so geil finden. Das machen sie deswegen weil derjenige der es nicht macht und "nur" 300W in seine Karten schiebt mit an sicherheit grenzender Wahrscheinlichkeit performanceseitig gegen den jeweils anderen abstinkt.

Die kommende Generation wird sowohl bei NV als auch bei AMD seit langer langer Zeit mal wieder ein "ALLES WAS GEHT" werden. Das gabs bei NV zuletzt bei der GTX480/580 und davor beim FX-Föhn^^
 
RTX 4090 ->1599$ ??gb
RTX 4080ti->1299$ 16gb
RTX 4080 ->899$ 16gb
RTX 4070 ->599$ 12gb

Nvidia wird dann parallel weiterhin Ampere(GA102, GA104 usw) bei Samsung fertigen lassen, somit verdoppelt Nvidia den Umsatz mit Consumer GPU's, von der GPU Schwemme kommt ein kleiner Teil in Europa an, dass wir vermutlich annährend UVP+10-20% erreichen, Nvidia wird die Ampere Karten jeweils um 100$ senken müssen, die RTX 3090 wird um 200$ fallen. Bei den ETH Miner knallen die Sektkorken...

Eine RTX 3080 gibts dann für 900€....
 
Liebe Redaktion: Wie heißt der Planet, auf dem ihr wohnt?
Zunehmende Verbreitung von UHD-Panels? Vllt bei TV-Geräten oder bei Enthusiasten.
Wie hoch ist der Anteil von 4K hier in einem ausgewiesenen Enthusiastenforum? Wie hoch ist der reale Anteil in freier Wildbahn? In meinem nicht gerade kleine PC-affienen Umfeld hat kein(!) einziger Gamer einen UHD-Monitor.
Warum auch? WQHD sieht nicht um Welten schlechter aus und ist von der HW her deutlich günstiger. Und E-Sportler sind in FHD unterwegs.

Also noch eine uninteressante Gen. Die Jetzige gibts nicht zu vernünftigen Preisen zu kaufen und die Neue wird noch einen draufpacken. Danke aber nein danke.
Gruß T.
ich hab mir vor 2 wochen einen 4k monitor gekauft ?
 
Redaktion: Wie heißt der Planet, auf dem ihr wohnt?
Zunehmende Verbreitung von UHD-Panels? Vllt bei TV-Geräten oder bei Enthusiasten.
Wie hoch ist der Anteil von 4K hier in einem ausgewiesenen Enthusiastenforum? Wie hoch ist der reale Anteil in freier Wildbahn? In meinem nicht gerade kleine PC-affienen Umfeld hat kein(!) einziger Gamer einen UHD-Monitor.
Warum auch? WQHD sieht nicht um Welten schlechter aus und ist von der HW her deutlich günstiger. Und E-Sportler sind in FHD unterwegs.
Wie nennt sich denn dein Umfeld? Augenkrebs-Geschwader? Ich sehe mich nicht als normaler User, aber einen 4k Monitor habe ich seit 7 Jahren und diese Auflösung erfährt tatsächlich stetigen Zuwachs.

Wie dem auch sei - Tellerrand und so ;)
 
Wie nennt sich denn dein Umfeld? Augenkrebs-Geschwader? Ich sehe mich nicht als normaler User, aber einen 4k Monitor habe ich seit 7 Jahren und diese Auflösung erfährt tatsächlich stetigen Zuwachs.

Wie dem auch sei - Tellerrand und so ;)
Oo... Augenkrebsgeschwader wegen WQHD vs 4K?.... Das Marketing funktioniert auf jeden Fall... Dir kann man bestimmt ein Kühlschrank im Nordpol verkaufen.. ^^
 
Zurück