GPU-Roadmap: Künftige Geforce- und Radeon-Grafikkarten in der Übersicht

Bis Ende 2022 wohl eher nicht ;)
JIT und JIS aka Just in Time/ Sequence und Stockungen in der Produktion der benötigten Vorprodukte vertragen sich leider gar nicht mit einer Pandemie! Daher muss ich leider begründet zustimmen! Erst müssen eben die Produktionsketten wieder im gleichen bzw. normalen Takt funktionieren! Und die potentiell abnehmende politische Stabilität in D ab Sonntag tut ihr übriges! Last but not least kommt die Home-Office-Pflicht als Nachfragetreiber noch hinzu! Das verschiebt die Nachfrageelastizität in den unelastischen Bereich, sprich der Preis steigt ohne Auswirkungen auf die Nachfrage!
 
Ja, zwangsläufig. Wir stehen wohl eher gerade vor einer Art Flaschenhals oder einem Stillstand. Denn einerseits steigen die Auflösungen und FPS, den Unterschied erkennt dann Hinz und Kunz ob obersten Segment nicht mehr, aber das ist ja auch egal, und andererseits kommt die Hardware nicht mehr hinterher.

Bei Cyberpunk geht in 4k und alles an, samt RT und DLSS wohl auch mit einer 3090 keine 60FPS mehr. Wären ja dann so ein wirklich aktuelles Spiel zu einer damals auch aktuellen Hardware. Kam ja beides relativ nah beinander raus. 1500€ hat man dann aber wohl eher in den Sand gesetzt.

Da die Leistung der Hardware wohl nicht mit dem Fortschritt mithalten kann, was diesen dann anbei obsolet macht, auf dies hinzuweisen wird dann gerne vergeßen, auch von "Experten", welche ihren Lebensunterhalt daraus bestreiten diese Hardware und Technik zu testen *hüstel* :D (HAHAHAHA), das andere Problem ist der Preis, mal auch ohne derzeitigen Effekt ist die GPU Preislage seit Jahren angespannt, was auch gerne verschwiegen wird.

Damit bleibt nur eines. Man führt a) Fürzchenfeatures ein, welche wenig bringen, aber einen gaaaanz tollen Fortschritt verkünden, siehe RT und dazu dann noch irgendwelche Scalingprogramme, die halt den Leuten eine Auflösung vorgaukelt, welche diese in Wahrheit und Tat nicht mehr erreichen können. Damit kann dann auch bald 16k oder 32k kommen, den Unterschied erkennt eh a) KEINER mehr und b) wird das ganze dann eh immer fröhlich in WQHD Plus (oder was weiß ich) runterskalliert. :D Hauptsache man kann dann halt irgendwo 8k oder 16k oder 64k anklicken, das reicht ja dann als Begründung, dementsprechend Geld ausgegeben zu haben.
Also früher (als noch richtige Perlen erschienen sind, bis 2007 etwa) war es normal, die Spiele in maximalen Details erst 1-2 Generationen später spielen zu können, zumindest in hohen Bildraten.
Wer RT als Fürzchenfeature bezeichnet, hat wohl auch nicht viel mehr als diese im Kopf.
Die Erzeugung von Licht und Schatten sind der Hauptbestandteil von Spielegrafik, die wird halt in Zukunft voll dynamisch und in Echtzeit ablaufen.
Ich geb gern Geld dafür aus, bei dieser technischen Entwicklung dabei sein zu dürfen, wie früher bei Stencil Shadows, Tesselation, Physics, Bump Mapping, usw.
Ansonsten kauf ich halt Konsole, erfreue mich über die deutlichen grafischen Fortschritte pro Generation und halte die Klappe.

Enthusiastische PC Zockerei is halt nix für Pussies ....
 
Die 4080 kommt wohl gar net im September sondern erst im Oktober?
(... um überhaupt ne kurze Zeit ne 3090Ti sinnvoll aussehen zu lassen)

Wann ist eigentlich Apple mit der 5/4nm-Produktion durch?
(damit Andere mehr Kapazität bekommen können)

edit: falls Jemand in der Zwischenzeit ne LC für 1399€ als Basis für Fullcover braucht:
(... und in der Familie ne 6800nonXT-Ref hat, könnte man dort die AiO draufschrauben oder die AiO soll bei ebay auch 200€ bringen, womit sich der Fullcover easy selbst finanziert, oder ein Eiswolf2)
 

Anhänge

  • LC_1399€.JPG
    LC_1399€.JPG
    67,8 KB · Aufrufe: 56
Zuletzt bearbeitet:
Die Liste finde ich sehr gut und die habe ich schon ein paar mal als Anhaltspunkt im Forum gepostet.
Die kaufen zwar dann meist das teure aber sie wussten es wenigstens auch wenn die Händler sowas nicht toll finden.
 
btw.
Die Arc ist indirekt im NUC bepreist, ... wenn man nur wüßte welches Modell !?
(tippe mal auf die 128er, die 384er wäre natürlich nicer; maximal Ausbau=512er glaub ich net für 333$
oder es ist ne 128er drin und man hat zum höheren Preis dann die Größeren !?)
 
"Obendrein in den Raum geworfen werden eine TDP von etwa 200 Watt, ein Infinity-Cache von 126 MiByte"

:huh:

MfG Föhn.
 
Ich hätte wirklich gerne eine RX 7000, aber wenn die UVPs wieder so unverschämt sind, sicher nicht...
Grafikkartenpreise über 500€ werde ich sicher nicht unterstützen, so sehr ist mir der Markt wirklich nicht egal.

Ja, zwangsläufig. Wir stehen wohl eher gerade vor einer Art Flaschenhals oder einem Stillstand. Denn einerseits steigen die Auflösungen und FPS, den Unterschied erkennt dann Hinz und Kunz ob obersten Segment nicht mehr, aber das ist ja auch egal, und andererseits kommt die Hardware nicht mehr hinterher.

Naja, man durchaus noch in ordentliche Sphären sich hochschaukeln.
21:9, hohe Auflösung, 144 Hz, das macht schon einen ordentlichen Unterschied zu dem 1440p 144 Hz, das ja auch in keinster Weise "Low-End" wäre.
 
Eine 4070 soll nur 40% der Shader einer 4090 Ti besitzen, dafür aber trotzdem 300 Watt saufen?
Das fühlt sich ja fast so an wie die Leistung einer 60 zum Verbrauch einer 80?
 
Eine 4070 soll nur 40% der Shader einer 4090 Ti besitzen, dafür aber trotzdem 300 Watt saufen?
Das fühlt sich ja fast so an wie die Leistung einer 60 zum Verbrauch einer 80?
..zum Preis einer Titan ^^

Irgendwie müssen die Netzteile der 850W+ Klasse ja auch an den Mann gebracht werden.
Darunter zu fertigen lohnt sich ja schon nicht mehr, dann wäre man ja wieder im zweistelligen Euro-Bereich. ne ne. ^^

Ich bin da jedenfalls raus, mein gutes 550W BeQuiet wird nicht ersetzt.
Eine AMD mit ca. 200-250W passend zur 65W CPU und gut is.
 
Zuletzt bearbeitet:
Leute, ich brauch mal euren Prof. rat.

Habe einen 3900x und eine 5700xt und ein 650Watt Power. 34UWQHD 38x14
Soweit so gut. Bin am überlegen ob ich mir die 7900xt holen soll. Igor sagt, dat reicht! Aber jetz hab ich mir auch die Benchmarks reingezogen und die 4080 ist einfach super Effizient.

Die Preise Purzeln grad. Oder doch die 7900XTX. Igor sagt das sogar die XTX locker vom 650 betrieben werden können.

- Hat jemand diese Konstallation ?
- Sollte ich noch warten ?
- Wieviel Potential haben die Treiber daß das ganze noch gut wird ?
- Nur 3x SSD noch drin sonst nix. Reicht die Power ?

Soweit mal. LG
 
1. Das Netzteil reicht vermutlich auch für die XTX. Welche CPU nutzt du denn?
2. Du kannst auf günstigere Preise warten, klar, musst du wissen, ob du die Leistung jetzt brauchst oder nicht.
3. Treiberseitig werden weder die AMD Karten nennenswert effizienter, noch wird es bei nVidia mehr Leistung geben.
4. Siehe 1. Punkt.
 
Zuletzt bearbeitet:
was denn genau für ein Netzteil?
BeQuiet System/Pure/ Straight Power oder was und welche Variante/wie alt?

ansonsten eher falsch hier im Roadmap-Thread :D
650 Watt Corsair RMx Series RM650x Modular 80+ Gold
17.05.2020

Kannst gerne Verschieben. Weiß aber nich wohin .... :)


1. Das Netzteil reicht vermutlich auch für die XTX. Welche CPU nutzt du denn?
2. Du kannst auf günstigere Preise warten, klar, musst du wissen, ob du die Leistung jetzt brauchst oder nicht.
3. Treiberseitig werden weder die AMD Karten nennenswert effizienter, noch wird es bei nVidia mehr Leistung geben.
4. Siehe 1. Punkt.1

1. 3900x AMD
2. ja, glaub das ganze beginnt gerade in den Keller zu rauschen.
3. Der letzte Treiber hat enorm für die TDP getan. So ist der STromverbrauch nimmer ganz so hoch ? Würd gern mal aktuelle Tests sehen. Aktuell hab ich eine 5700xt drinn. Allein die 7900xt hätte ja schon das 3 Fache an Frames. RT is nice to have aber nicht wichtig.
 
Also, nagel mich jetzt auf diese Aussage nicht fest, aber rein von der Leistung her SOLLTE das Netzteil reichen. Es wird zwar nicht im Sweetspot laufen, sondern bei Last schon so etwa bei ~85-90% landen, aber im Grunde dürfte dem nichts im Wege stehen.

Nutzt du einen Frame Limiter? Kann ich dir, unabhängig von dem Thema jetzt, wärmstens empfehlen . Ist der einfachste Weg, das GESAMTE System allgemein energieeffizienter zu nutzen.
 
Zuletzt bearbeitet:
Dafür gibt es ja PSU Calculatoren. Wenn du da deine Werte eingibst, sagt zum Beispiel BeQuiet schon das ein 750W Netzteil mit einer 7900xtx hart an der Grenze ist! Corsair ist da eher entspannt und lässt noch 750er zu.

Ich würde da ein 650W Netzteil nicht mehr empfehlen! Bestenfalls bekommst du vermutlich Instabilitäten, im schlimmsten Fall ein thermisches Ereignis!
 
Dafür gibt es ja PSU Calculatoren. Wenn du da deine Werte eingibst, sagt zum Beispiel BeQuiet schon das ein 750W Netzteil mit einer 7900xtx hart an der Grenze ist! Corsair ist da eher entspannt und lässt noch 750er zu.

Ich würde da ein 650W Netzteil nicht mehr empfehlen! Bestenfalls bekommst du vermutlich Instabilitäten, im schlimmsten Fall ein thermisches Ereignis!
Ich habe ein 750 Watt Netzteil und komme mit einer 7900 xtx OC und 5800x3D nicht mal in die Nähe einer Auslastung meines 750 Watt Netzteils. Ich war überrascht, dass die Sapphire 7900 xtx in Games sogar meist nur zwischen 110-170 Watt unter Last zieht. Wenn ich exemplarisch einen Benchmark mache und wirklich alles auf Anschlag ist komme ich grade mal auf knapp 70% Auslastung. Finde das nicht hart an der Grenze :D
 
Ich habe ein 750 Watt Netzteil und komme mit einer 7900 xtx OC und 5800x3D nicht mal in die Nähe einer Auslastung meines 750 Watt Netzteils. Ich war überrascht, dass die Sapphire 7900 xtx in Games sogar meist nur zwischen 110-170 Watt unter Last zieht. Wenn ich exemplarisch einen Benchmark mache und wirklich alles auf Anschlag ist komme ich grade mal auf knapp 70% Auslastung. Finde das nicht hart an der Grenze :D
PSU Rechner müssen ja auch immer, vom absoluten Worstcase ausgehen. Zusätzlich Dummheit der Nutzer mit einrechnen usw.

Wer eine Stock 7900XTX nutzen möchte ( Also 350W TBP), ohne höheres Powerlimit und dazu eine 65W CPU kombiniert, kann gut und gerne je nach eigenen Wünschen auch schon mit einem guten 550W single Rail Netzteil auskommen, ohne Probleme.

Wie alles am PC halt individuell, oder eben mit Kanonen auf Spatzen schießen.
Tut ja auch nicht weh, wenn das Netzteil 200-300W zu groß ausgelegt ist.
 
Zumal die normale Last heutzutage nicht der ausschlaggebende Punkt ist für Probleme, sondern die Peaks.
Schönes Beispiel ist die RX 7600. Die ist mit 162W angegeben und hält das mit den groben Messungen der meisten Tests auch (scheinbar) brav ein:

01-Power-Consumption-2.png

Wenn man aber mal genauer hinschaut, sieht es schon ein wenig anders aus:

03-Peak-Power-2.png

Wenn das Netzteil nun zu knapp dimensioniert ist, oder aus einer Billo-Serie stammt, wirds kritisch.
 
Zumal die normale Last heutzutage nicht der ausschlaggebende Punkt ist für Probleme, sondern die Peaks.
Schönes Beispiel ist die RX 7600. Die ist mit 162W angegeben und hält das mit den groben Messungen der meisten Tests auch (scheinbar) brav ein:

Anhang anzeigen 1439581

Wenn man aber mal genauer hinschaut, sieht es schon ein wenig anders aus:

Anhang anzeigen 1439580

Wenn das Netzteil nun zu knapp dimensioniert ist, oder aus einer Billo-Serie stammt, wirds kritisch.
An der Stelle kann man für alle nicht Igor Leser auch dazu schreiben, das der gute eigentlich immer dazu schreibt, das die Schutzschaltungen der Netzteile alles unter 10ms nicht registrieren.

Deswegen würde ich bei Beispiel der 7600 mit knapp 225W kalkulieren und nicht mit 162W zum Beispiel.
 
Zurück