Geforce RTX 4000 und Radeon RX 7000: Um den Faktor 2 - 2,5 schneller?

:lol:
Ich habe den direkten Vergleich. UWQHD zu UHD parallel in Betrieb. Am UWQHD reizte mich das Seitenverhältnis, aber niedriger dürfte die Auflösung nicht sein.

Und was nutzt du so? :D
Hab auch nen WQHD 32 Zoll Curved und nen 4K TV...Verglichen hab ichs auch aber der Unterschied ist nicht so groß das man von Augenkrebs sprechen kann... Und der Preis plus die teurere Grafikkarte um 4K auch anständig zocken zu können rechnet sich meiner Meinung nach noch nicht. :)
 
Naja 32 Zoll WQHD ist wie 24 Zoll Full-HD. Das schaut wirklich nicht gut aus und alles oberhalb von 27 Zoll in WQHD empfinde ich persönlich als Beleidigung für die Augen. Bei mir im Bekanntenkreis ist die Hälfte ca. auf UWQHD und die andere Hälfte auf UHD. Einige Ausbrecher gibt es, die z.B. 3x 27 WQHD nutzen um ihre Sims zu spielen, da ist es aber auch wieder OK. 1080p nutzt keiner mehr.
 
Die sind halt mal wieder 25% bis 30% schneller. Wie jede Generation, wenn überhaupt.

Es wäre für uns Spieler sinnvoller, wenn die GPUs 2 bis 2,5 fach besser verfügbar wären und der Preis 2 bis 2,5 fach fallen würde.

Bei den derzeitigen Preisen und der Gesamtsituation geht mir ja die neue Generation sowas von am Arsch vorbei, man kann es kaum beschreiben.
nein eben nicht wie jede gen
980ti - 1080ti 70 bis 80%
1080ti - 2080ti 35%
2080ti - 3080ti/3090 55 bis 60%

wo ist da jede gen nur 25 bis 30%

@Darkhunter098 na kommst du wieder mit der Realität und den Fakten nicht klar...
 
Zuletzt bearbeitet:
Jedes Jahr aufs neue. Turing Faktor 2 schneller, Ampere Faktor 2 schneller und was kommt dann tatsächlich. Iwas um 1,3 maximal...
 
Doppelpost
nein eben nicht wie jede gen
980ti - 1080ti 70 bis 80%
Laut PCGH ist die 1080ti im schnitt iwo bei 42-50% schneller. Nur ne übertaktete 1080ti packt die 70%-80%

Edit: Forget it, hab in der falschen Tabelle geschaut... Hast recht, hatte nicht so einen immensen Abstand in Erinnerung.

 
Zuletzt bearbeitet:
Ich kenne so viele Jungs die genau meine Meinung sind und zwar scheiß auf Raytracing ich würde auf Raytracing komplett verzichten wenn die Karte einfach mal vernünftiges 4k mit 120 FPS in den meisten Spielen schafft!
Ich spiele derzeit God of War und ich benötige einfach keine bessere Grafik! Wohin denn noch bitte?

Wer echte Grafik will schaut sich eben einen Film an! :P

Derzeit bin ich mit meiner Asus Rog Strix RX 6900 XT LC Top Edition mehr als zufrieden! Reduziere sogar den takt auf 2300mhz und Spiele mit unter 180 Watt Leistungsaufnahme bei kühlen 45° C der GPU!
 
Naja 32 Zoll WQHD ist wie 24 Zoll Full-HD. Das schaut wirklich nicht gut aus und alles oberhalb von 27 Zoll in WQHD empfinde ich persönlich als Beleidigung für die Augen. Bei mir im Bekanntenkreis ist die Hälfte ca. auf UWQHD und die andere Hälfte auf UHD. Einige Ausbrecher gibt es, die z.B. 3x 27 WQHD nutzen um ihre Sims zu spielen, da ist es aber auch wieder OK. 1080p nutzt keiner mehr.
Richtiger Quatsch!
Alles bis 32 Zoll geht mit Sicherheit noch mit WQHD oder knapp drüber!
ich spiele selber zwar nur noch in 4K aber ich habe auch 65 Zoll OLED C1 als Monitor :P
 
Fraglich ist auch, ob man mit einer RX 7900 XT oder RTX 4090 überhaupt mit einem Pcie 4.0 Board vernünftig auskommen wird.
 
Laut PCGH ist die 1080ti ...
Wow, das ist ja nice, die 1080Ti war im alten TWW genauso schnell wie die 3090 in TWW3.
Da müssen die Jungs die Engine ja ganz schön "weiterentwickelt" haben, um so schlecht zu performen.
 

Anhänge

  • 1080Ti@TWW.JPG
    1080Ti@TWW.JPG
    61,6 KB · Aufrufe: 56
Wie nennt sich denn dein Umfeld? Augenkrebs-Geschwader? Ich sehe mich nicht als normaler User, aber einen 4k Monitor habe ich seit 7 Jahren und diese Auflösung erfährt tatsächlich stetigen Zuwachs.

Wie dem auch sei - Tellerrand und so ;)
Naja... über 80% aller Steam Nutzer sind noch mit 1080p, oder niedriger unterwegs.
1440p kommt auf knapp unter 10% und UHD auf etwas über 2%....
Die restlichen Prozente verteilen sich auf die widescreen Varianten und ein wenig 1200p (0,6%).

Damit ist alles über 1080p eher eine Nische - besonders UHD. (1200p gehört eigentlich noch zu den 1080p beim Leistungsbedarf)
 
Und den Faktor 2 mal teurer!! Nur vergessen hinzuschreiben.
In der Anschaffung nur 1.5x als die aktuellen Preise, also 3000€ und nördlich,
aber viel wichtiger ist eine weitere, deutliche Erhöhung des Verbrauchs
Ach immer die Gerüchte. Die gibt es doch vor jeder neuen Generation das irgendwer behauptet die Karte ist doppelt so schnell als ihre Vorgänger. Am Ende sind es dann 10-30%
Einfach ruhig bleiben und abwarten bis sie vorgestellt werden und wirklich die Leistung werden wir dann erst bei Tests von PCGH und Co. sehen.
Tatsächlich ist es in dem Fall kein reines Gerücht mehr.
Die Anzahl der Einheiten scheint schon recht fix zu sein.
Nvidia springt von einem 8nm (ein verbessertes 10nm Verfahren) auf 5nm, es wird wohl eine Verdoppelung der Einheiten rauskommen, bei angehobenem Verbrauch auch der Leistung
Nein!

Das werden wie jedes mal +30% wenn iterativ entwickelt wird und vll. bis zu +50% wenn die Beiden sich richtig hochschaukeln.

Wann gab es denn jemals einen größeren Sprung? Und bei jeder Gen wird im Vorfeld von derartigen Leistungssprüngen fabuliert, rinse and repeat.
Große Sprünge gabs immer wieder.
Es ist erst seit wenigen Jahren, dass die Sprünge immer kleiner werden - weil die Fertigungstechnik immer langsamer fortschreitet.
Aber eine Leistungsverdoppelung oder gar verdreifachung alle 2 Jahre ist überhaupt keine seltenheit gewesen seit 1996 bis zum Jahr 2008 oder gar 2011. Einführung von 28 nm, der Prozess der dann 5 Jahre nicht ersetzt wurde- seither sind die Schritte eben sehr klein geworden.
Würde mich totlachen wenn es so kommt, für die Leute welche jetzt noch die aktuelle Gen zu übertriebenen Preisen kaufen (und die Preise damit hoch halten).
Es wird so kommen, dass die Radeons eine vervielfachung der Shaderleistung bekommen, allein schon weil sie dann mit Nvidia gleichziehen müssen.
Es wird auch so kommen, dass in vielen Szenarien eine enorme Leistungssprung kommt.
Aber auch wenn die Karten 2022 noch kommen, vor 2023 wirst du sie nicht kaufen können - und auch dort zu enormen Preisen.
Erst dann wird die aktuelle Generation zu geringeren Preisen verfügbar sein.
Es wird wohl bis 2025 so passieren, dass preisbewusste Käufer immer erst die letzte Gen kaufen sollten
Faktor 2 ist totales Wunschdenken, aber halt extremst unrealistisch...
Das kommt wie gesagt auf das Szenario an.
"Bis zu 2x" - ja das wird so kommen.
Durchgehend 2x - nein, das kommt nicht.

Das Verhältnis ROPs zu Shaderleistung wird sich vor allem bei AMD deutlich ändern, und da würde ich schon vom Faktor 2-3x ausgehen, das war ja bei Nvidia auch drin.
Aber Shader sind ja nicht das einzige, was man braucht für die Grafik.

Nvidia wird anscheinend wenig an der Grundarchitektur selbst ändern, aber dafür sehr viel mehr Ausführungseinheiten bringen.
Der Sprung von 8(10) nm auf 5nm TSMC wird einiges bringen, wenn die Verlustleistung tatsächlich auch hochgeht, geht sich da deutlich mehr Leistung aus.
Wenn die Gerüchjte stimmen, dann geht man bei Nvidia beim GH100 in neue Dimensionen vor:
der GA100 (7nm TSMC) hatte noch 54 Mrd Transistoren auf 826 mm², der neue soll knapp 1000mm² groß sein, 140 Mrd Transistoren beherrbergen. Das wäre eine Steigerung von 2,3 bei der Transistorzahl.

und hier ist auch ein interessanter Readup:

Allerdings ist der TSMC 7nm Prozess womöglich deutlich besser als Samsungs 8nm Prozess, weshalb es nicht unrealistisch ist, dass die kommende Nvidia-Gen die doppelte Anzahl an Transistoren reinpackt.
Wieviel Leistung davon in der Praxis (Bottlenecks und Taktfrequenz) ankommt ist eine andere Sache.
Aber eh nur hypothetisch, kaufen wird man die eh nicht können ;)
 
Zuletzt bearbeitet:
Naja... über 80% aller Steam Nutzer sind noch mit 1080p, oder niedriger unterwegs.
1440p kommt auf knapp unter 10% und UHD auf etwas über 2%....
Die restlichen Prozente verteilen sich auf die widescreen Varianten und ein wenig 1200p (0,6%).

Damit ist alles über 1080p eher eine Nische - besonders UHD. (1200p gehört eigentlich noch zu den 1080p beim Leistungsbedarf)
Jeder der nicht vor einem 4k screen sitzt (nein, der 4k 55-65" TV spielt nicht mit) und mir erzählen möchte, dass die Auflösung in 1440p oder 1080p völlig ausreichend sei und am Besten noch, dass man den Unterschied nicht sehen würde, hat einfach null Plan wovon er spricht oder hat leider seine Sehstärke verloren.
Die einzigen Gründe sich für niedriger aufgelöste Displays zu entscheiden sind: Preis/Leistung, Refreshrate, nicht genug Dampf von GPU-Seite und das wars.
Nische hin oder her. Ich glaube, dass viele Nutzer das Geld nicht in die Hand nehmen wollen oder der Meinung sind, wenn ich in 4k spielen möchte, dann kann ich das am TV tun, was eine völlige Fehleinschätzung ist.
Der nächste Hans und Franz will mir dann wohl erzählen, YT Videos (FullHD gelaunched im Jahre 2009!) auf dem 1080p Display schauen in 720p genauso aus?
Genauso wenig sehen 4k Filme und Games auf einem 1080p oder 1440p Display genauso scharf und detailliert aus wie auf einer 4k Mattscheibe. Da kann keine Kantenglättung drüber hinwegtäuschen. Den Bildmatsch, den ein 1080p Gerät zum Besten gibt, ist definitiv nicht zeitgemäß.
Es geht um den darstellbaren Detailreichtum in Form von Pixeln und nicht allein darum, ob man vll iwo noch ein Eckchen findet.
 
Zurück