Geforce-Gerüchte: RTX 40 ab Oktober 2022, RTX 30 Super im Januar 2022

denn die sind ja schließlich nicht umsonst seit langer Zeit der Marktführer und werden sich nicht leichtfertig die Butter vom Brot nehmen lassen wollen.
Das haben sie allerdings bereits !!
In Rasterazion Games (92,3 % aller Games) spielt nVidia lediglich die 2. Geige. RT und DLSS ist zwar zukunftsträchtig, aber kommt (mMn) erst zwei Generationen später im Mainstream an. Sie haben RDNA2 völlig unterschätzt und deshalb AMPERE (sowas von auf Kante genäht, 400 Watt + und so ...).
Du als "alter" Hardcore Technik Crack (Brille hin oder her), kannst diese Fakten doch nicht weg diskutieren ?!?

MfG Föhn.
 
Das haben sie allerdings bereits !!
In Rasterazion Games (92,3 % aller Games) spielt nVidia lediglich die 2. Geige. RT und DLSS ist zwar zukunftsträchtig, aber kommt (mMn) erst zwei Generationen später im Mainstream an. Sie haben RDNA2 völlig unterschätzt und deshalb AMPERE (sowas von auf Kante genäht, 400 Watt + und so ...).
Du als "alter" Hardcore Technik Crack (Brille hin oder her), kannst diese Fakten doch nicht weg diskutieren ?!?

MfG Föhn.

Du verdrehst hier wieder alles wie es gerade passt, das ist ja grausam zu lesen...

Wo spielt Ampere die 2. Geige in Rasterization? In FullHD liegt RDNA 2 vorne, in WQHD und UHD dagegen Nvidia. Siehe Deine geliebten Computerbase Benchmarks:

1631205056405.png


1631205078628.png


1631205100259.png


Ich würde sagen dass beide gleich auf sind, und das TROTZ des Fertigungsvorteils von AMD.

Die 400+ Watt Karten sind Spezialkarten, und die wurden da meines Wissens nach nicht getestet sondern nur die FE's. Also hör auf mit diesem biased bullsh*t, die Top-Modell FE's der beiden Hersteller trennen 50 Watt TDP (siehe Fertigungsvorteil)...

Ich persönlich bin froh über den Kauf der 3080 (mit wenig Aufpreis), konnte ich doch Cyberpunk2077, The Ascent und Metro Exodus Enhanced bereits mit RT voll aufgedreht geniessen. Das kann ein RDNA 2 User eher nicht.

Fakt ist: MCM muss sich erst mal beweisen. Die Ryzen 1000 CPU's hatten ja auch Kinderkrankheiten, also abwarten würde ich sagen. Du machst hier aus Gerüchten und "Team Red bias" Fakten...
 
vielleicht kann man sich ja (mit etwas Glück) dann ne günstige 3080 ergattern........
Bei den Preisen denke ich, wissen wir alle in welche Richtung es läuft.
 
Wer soll eigentlich im Januar noch Super kaufen wenns im Oktober schon was Besseres gibt?
(mal abgesehen davon, das die Weihnachtsferien dann auch schon vorbei sind = schlechtes Timing)

Nach m.E. ist einfach die 3080 zu teuer in der Produktion und soll deswegen abgelöst werden.
(und auch die 3070ti war ein kompletter Fehlschlag bzgl. W/fps)

Vermutlich sollen nur die Fertig-PC´s kostenoptimiert werden.
 
Das haben sie allerdings bereits !!
In Rasterazion Games (92,3 % aller Games) spielt nVidia lediglich die 2. Geige. RT und DLSS ist zwar zukunftsträchtig, aber kommt (mMn) erst zwei Generationen später im Mainstream an. Sie haben RDNA2 völlig unterschätzt und deshalb AMPERE (sowas von auf Kante genäht, 400 Watt + und so ...).
Du als "alter" Hardcore Technik Crack (Brille hin oder her), kannst diese Fakten doch nicht weg diskutieren ?!?

MfG Föhn.
Ich weiß nicht wie du auf diese magischen 92,3 % kommst, denn der PCGH-Index sagt hier was anderes aus, spielt letzten Endes aber auch keine Rolle, denn hier ist wesentlich relevanter was der Markt kauft und da hat nVidia offensichtlich weitaus mehr den Nerv getroffen als AMD und das trotz gemittelt höherer Preise und stellenweise auch weniger VRAM. Was also im Markt insgesamt erfolgversprechend ist, hat reichlich wenig zu tun mit dem, was einige wenige Enthusiast-Forenuser hier als State-of-the-art oder gar als must-have propagieren und aus dieser Sicht heraus und das ist für nVidia und auch AMD die einzig relevante Sichtweise, hat nVidia offensichtlich alles richtig gemacht.
AMD ist es nicht gelungen mit RDNA2 irgendwelche Marktanteile zu gewinnen, im Gegenteil, sie haben gar noch Marktanteile verloren und der heutige Markt spielt noch mehr auf nVidia-Hardware als jemals zuvor.
Bei dGPUs hatte AMD mal in 2Q19 einen Marktanteil von 29 %, in 2Q20 nur noch 20 % und in 2Q21 gar nur noch 17 %, d. h. hier ging es stetig bergab trotz rund 8 Monaten RDNA2 im Markt. Bei AIBs gibt bspw. der Marktanalyst JPR noch seltener Zahlen (kostenlos) raus; hier hatte AMD bspw. in 1Q20 bspw. noch 31 % Marktanteil, in 1Q21 hatten sie nur noch 20 % Marktanteil. Die Frage welcher Hersteller hier den Markt zielgerichteter und besser bedient, stellt sich in der Form also gar nicht.
Und was dann in 4Q22 werden wird, wird man erst mal abwarten müssen. Erst mal betritt Intel den Markt und wird beiden etablierten Playern Marktanteile abluchsen. Zum Jahresende hin wird man dann sehen, ob AMDs kostenintensives und komplexeres MCM-Design besser dastehen wird oder etwa nVidia's pragmatischerer Lösungsansatz sich als besser erweisen wird, wobei es hier natürlich immer zwei Sichtweisen geben wird, a) einmal wirtschaftlich besser für den jeweiligen Hersteller und b) besser für den Konsumenten und im 1HJ23 darf man vermutlich mit Intels Battlemage, der 2. HPG-Generation rechnen, hier möglicherweise im HighEnd auch als MCM. (Dass die ebenfalls noch Ende 2022 kommt, wie der Artikel suggeriert, dürfte eher weniger wahrscheinlich sein; bereits schon vor zwei Monaten wurde diesbezüglich 2023 kolportiert, vermutlich das erste Halbjahr.)
Einfach mal abwarten wie sich das Jahresende 2022 gestalten wird ... Was man jedoch jetzt schon gesichert sagen können wird ... hier wird kein Hersteller den anderen "hinwegfegen" denn so groß werden die Leistungsabstände zweifellos nicht ausfallen und dementsprechend sind etwaige "Null Chance"-Aussagen per se jetzt schon gesichert völliger Unsinn, egal in welche Richtung getätigt ... btw. diese wurden auch schon zuhauf im Kontext von RDNA2 getätigt. ;-)
 
Solange Grafikkarten nur zu solchen Mondpreisen in den Handel kommen, ist es mir vollkommen egal, wieviel neue Grafikkarten erscheinen, da ich unter diesen Umständen eh nicht zuschlagen werde, um mir ein neues Stück Hardware zu kaufen, egal wie lange das noch so gehen mag!

Falls meine GTX1070 unerwartet die Hufe hoch machen sollte, baue ich eher meine GTX570 wieder ein, um Office & Co. weiter benutzen zu können als das ich mir zu den Preisen ne neu Karte kaufe, um wieder Zocken zu können.
 
Zuletzt bearbeitet:
Was sollen wir mit doofen Super Karten?
Erst einmal sollen die normalen Karten weit unter der UVP fallen, damit die sich wirkloch lohnen, wobei die 3070 und 3080 schon jetzt veraltet sind und Ramschqualität zum absoluten Wucherpreis haben.
Eigentlich können die gleich die 4000er vorziehen.
Diesmal mit genug Speicherbausteine drauf bitte.
Sonst kündigt Raff noch seinen Job wegen Herzinfarktrisiko. ^^
Das wird so sein, Lovelace und RDNA 3 werden beide vermutlich 400W+ TDP haben.
Wenn RDNA wie gemunkelt viel schneller ist, nimmt man natürlich diese und regelt die Spannung runter, damit man wieder bei 300-350 Watt ankommt. :-)
Mittlwerweile ist es ja schon fast so, dass man bei 100 Watt weniger nur maximal 5 % Leistung verliert.
Siehe PCGH Print-OC.
 
Wenn RDNA wie gemunkelt viel schneller ist, nimmt man natürlich diese und regelt die Spannung runter, damit man wieder bei 300-350 Watt ankommt. :-)
Mittlwerweile ist es ja schon fast so, dass man bei 100 Watt weniger nur maximal 5 % Leistung verliert.
Siehe PCGH Print-OC.

Wo wird das gemunkelt? Meine letzten Infos dazu waren dass Lovelace weiterhin mehr Shader haben wird als das größte RDNA 3 Modell trotz MCM? Gibt's da was neues?

Oh, und wenn jetzt Undervolting "erlaubt" ist, dann kann ich dazu nur sagen dass meine 3080 mit OC und UV keine 300 Watt unter Volllast zieht. Und ich damit weiterhin CP2077 mit RT Psycho, max Details und DLSS Quality auf WQHD mit 60 FPS zocken kann.
 
denn hier ist wesentlich relevanter was der Markt kauft und da hat nVidia offensichtlich weitaus mehr den Nerv getroffen als AMD und das trotz gemittelt höherer Preise und stellenweise auch weniger VRAM
Das kann doch jetzt NICHT Dein ernst sein ?!?
Du willst mir/uns allen ernstes sagen, der Markt schreit nach weniger VRAM, höheren Preisen und mehr Verbrauch,
und nVidia hat das erkannt und auf Grund dessen ihr Portfolio genau so gestaltet ??
Na dann gut Nacht um halb Acht. :wall:

MfG Föhn.
AMD ist es nicht gelungen mit RDNA2 irgendwelche Marktanteile zu gewinnen, im Gegenteil, sie haben gar noch Marktanteile verloren und der heutige Markt spielt noch mehr auf nVidia-Hardware als jemals zuvor
Aber NICHT weil ALLE grüne Lemminge sind, sondern weil nVidia mit SAMSUNG´s 8nm mehr liefern konnte,
als TSMC mit ihrem 7 nm Prozess mit Next Gen Konsolen, AMD CPU + GPU, Apple ...
Sag mal, Du liest schon NEWS und besuchst noch andere Seiten wie Computer Bild u.dgl. ? :klatsch:

MfG Föhn.
Ich weiß nicht wie du auf diese magischen 92,3 % kommst, denn der PCGH-Index sagt hier was anderes aus
Ich schrieb "ALLER" Games.
Jetzt nimmst einfach "alle" Spiele, jene welche die letzten 15 Jahre erschienen sind und ziehst die "paar" RT Games ab ...

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Die nächste Gen kann ich getrost überspringen und sowieso werde ich die nächsten 10 Jahre vermutlich nicht mehr aufrüsten. :ugly: Mein Aufrüstprogramm war mir dieses Mal dann doch zu teuer.
 
Ich schrieb "ALLER" Games.
Jetzt nimmst einfach "alle" Spiele, jene welche die letzten 15 Jahre erschienen sind und ziehst die "paar" RT Games ab ...

MfG Föhn.
Ist ja auch absolut relevant, ob man in 90% "ALLER" Games dann nur 180 statt 200 fps oder 360 statt 400 fps hat. ;-)
Welche Rasterizing-Spiele von 2005 - 2020 stellen die Ampere-Grafikkarten denn vor Performance-Probleme?

Viele viele Pyrrussiege, während dann bei knapp der Hälfte der fordernden Neuerscheinungen die RDNA2-GPUs aufgrund ihrer RT-Schwäche Mühe haben, mit deutlich günstigeren Ampere-GPUs mitzuhalten.
 
RTX4000er in ca. 1 Jahr würde mir gut gefallen. Hoffentlich zieht AMD zeitnah nach. Bin schon gespannt was diese Karten leisten werden.

Spätestens dann muss aber auch ein neuer Monitor her sonst lohnt ein Upgrade auf gefühlt 50TF nicht ^^
 
RTX40 ab Oktober '22 gefällt mir, meine Gamingkiste wäre dann mit der 3090er etwas über zwei Jahre unterwegs.
Der Super-Refresh wird übersprungen, lohnt sich für mich nicht. Außerdem trübt das Verfügbarkeitsdilemma und
der allgegenwärtige Scalpernate-Style den Spaß am Basteldrang.
 
Ich bin viel mehr darüber gespannt, wie viel ich für meine 3080ti bei Release einer 4080ti bekommen kann. Eine Generationen bis zum nächsten Aufrüsten überspringen, werde ich glaube ich nicht mehr. Stand jetzt lohnt es sich mehr die vorherige Gen zum guten Kurs zu verticken und upzugraden.
 
Zurück