Vor RTX-4000-Launch: Drastische Aussagen zum Lagerbestand an RTX 3000

Die 6900XT hat ~20TF FP32 und die 3090 ~35TF FP32, beide gleichschnell.
Oder gehen wir von der 2080ti aus.
Die 6900XT hat 45% mehr TF, ist aber nur 20% schneller.
Also was soll deine rumgerechne?
 
dabei ist die Formel für die rx6900xt sogar falsch (alle rechnen mit 2,1ghz)
5120*2*2,4ghz erreicht jede =24,5tf
ampere hat 88* 84*2*1,95ghz=28,8tf
Siehe 17% Differenz
Das die rx6900xt gleichzieht liegt am CPu limit bei Auflösungen unter 4k
Das werden wir bei der neuen cpu gen ab okt /ci13tb und ryzen 7000 sehen
+etwa 10% intel ud +20 -28% amd in singlecore
Das wird eng
amd liegt derzeit etwa 18% hinten
da ich selber keine rtx3090ti habe und keine ci9 12900k auf 1440p könnte ich das belegen
Nur testet keiner die gpu bei spielen ohne dxr, msaa und misst die gpu core load aus.
 
Auch eine nagelneue Karte kann schon nach ner Sekunde hinüber sein. Ich würde das nicht aufs Mining reduzieren. Und selbst wenn ein gewisses Risiko besteht, zahlt man ja auch oftmals deutlich weniger. Muss jeder selbst entscheiden.
Natürlich - meine Stichprobe der Größe Eins ist wahrscheinlich zu klein für Verallgemeinerungen:-). Man kann immer Glück haben. Für mich war das halt damals viel Geld, und ich hab mich echt geärgert, hatte das Risiko kleiner eingeschätzt.
 
dabei ist die Formel für die rx6900xt sogar falsch (alle rechnen mit 2,1ghz)
5120*2*2,4ghz erreicht jede =24,5tf
ampere hat 88* 84*2*1,95ghz=28,8tf
Siehe 17% Differenz
Das die rx6900xt gleichzieht liegt am CPu limit bei Auflösungen unter 4k
Das werden wir bei der neuen cpu gen ab okt /ci13tb und ryzen 7000 sehen
+etwa 10% intel ud +20 -28% amd in singlecore
Das wird eng
amd liegt derzeit etwa 18% hinten
da ich selber keine rtx3090ti habe und keine ci9 12900k auf 1440p könnte ich das belegen
Nur testet keiner die gpu bei spielen ohne dxr, msaa und misst die gpu core load aus.
Was rechnest du da bitte?
Und warum gibst du falsche Informationen raus?
3090 ist wenn dann 82*128*2*1,695GHz=35,581TF.
Zu deinen 88 Kernen pro SM, es sind 128 pro SM.
Each SM in GA10x GPUs contain 128 CUDA Cores, four third-generation Tensor Cores, a 256 KB Register File, four Texture Units, one second-generation Ray Tracing Core, and 128 KB of L1/Shared Memory, which can be configured for differing capacities depending on the needs of the compute or graphics workloads.
Aber den Teil aus dem Dokument hast du einfach weggelassen und was anderes behauptet.
 
...
Nichtsdestotrotz wäre jetzt eigentlich eine top Gelegenheit für Intel sich mit einer aggressiven Preisstrategie frühzeitig Marktanteile zu sichern.
Leider, wirklich LEIDER, haben sie scheinbar nichts in der Pipeline, was sich in dieser Leistungsregion verkaufen könnte, sonst könnten sie wohl wirklich die aktuelle Lage für einen Einstieg mit einem gewissen Furorefaktor nutzen.
_____

Topic: 0 Mitleid, 0 Verständnis. Halten die uns alle für geistig zurück geblieben dass sie denken, wir würden wegen solchen Berichten irgendwelche Karten, die immer noch über UVP sind, kaufen? Raff ich mal wieder nicht ...
 
Ich weiß, du sagst "z.B.", aber 399€ als AUFPREIS!?

Das sollte eigentlich selbsterklärend sein. Natürlich nicht für die kleineren Modelle, sondern für die Großen (z.B. RTX 4080(Ti). In Zeiten, wo der Euro weniger wert ist als jemals zuvor, es eine Teuerungsrate von fast 10% im Jahr gibt sollte man nicht erwarten, dass es GPUs für Normalpreis gibt. Insbesondere könnte man die Miner so ziemlich auflaufen lassen, und Mining wird aktuell wieder interessanter, da die Preise für Kryptos wieder anziehen.
 
Der Kaufpreis ist den Minern nahezu egal, dann dauerts halt ein paar Monate länger, bis die Karte sich amortisiert hat. lmao

400€ sind in jeglicher Hinsicht pervers als Aufpreis...

Musst Dir ja nur vorstellen, die 3080 verliert an Wert und wird bei Release der 4080 vermutlich auf 400-500€ fallen. 899€ UVP (749$) sehe ich bei der neuen 4080 quasi schon als gesetzt und 399€ sind dann, wie ich finde schon ein geschmeidiger Aufpreis für eine neue Karte. Das Geld habe ich in Vergangenheit immer als Aufpreis zahlen müssen, wenn ich meine alte Karte verkauft habe.
 
Erst sind es zu wenig Karten deshalb teurer jetzt sitzt man auf den Karten und dann werden die neuen teuerer, also ehrlich ich halte das ganze schon lange für Betrug auch während des Mining Booms... die Spieler wurden nur ausgenommen aber sie wollen es anscheinend auch so, mit der Begründung eigentlich habe ich die karte ja schon günstig bekommen ... oder ich brauche jetzt unbedingt neue Hardware.. letztendlich entscheiden wir am Ende was gezahlt wird da aber einige jeden Preis zahlen oder bereit sind Grafikkarten auf Kredit zu kaufen wird das wieder ein Fass ohne Boden! Ich würde die Konsumenten auch so ausnehmen und immer neue Geschichten erfinden um die Preise nach oben zu Schrauben die meisten wollen es so glauben alles was man ihnen vorlügt.

Ich für mich glaube keine der Geschichten mehr , wenn man mittlerweile sieht was wir nur für Tastaturen oder Mäuse zahlen haben die uns schon lange an der Angel....

Die Gier des Menschen ist halt Grenzenlos Nvidia und AMD haben in den letzten Jahren bestimmt den dicksten Gewinn eingefahren ist ja auch ein super Geschäft uvp 699 verkauft für 1200...
 
Erst sind es zu wenig Karten deshalb teurer jetzt sitzt man auf den Karten und dann werden die neuen teuerer, also ehrlich ich halte das ganze schon lange für Betrug auch während des Mining Booms... die Spieler wurden nur ausgenommen aber sie wollen es anscheinend auch so, mit der Begründung eigentlich habe ich die karte ja schon günstig bekommen ... oder ich brauche jetzt unbedingt neue Hardware.. letztendlich entscheiden wir am Ende was gezahlt wird da aber einige jeden Preis zahlen oder bereit sind Grafikkarten auf Kredit zu kaufen wird das wieder ein Fass ohne Boden! Ich würde die Konsumenten auch so ausnehmen und immer neue Geschichten erfinden um die Preise nach oben zu Schrauben die meisten wollen es so glauben alles was man ihnen vorlügt.

Ich für mich glaube keine der Geschichten mehr , wenn man mittlerweile sieht was wir nur für Tastaturen oder Mäuse zahlen haben die uns schon lange an der Angel....

Die Gier des Menschen ist halt Grenzenlos Nvidia und AMD haben in den letzten Jahren bestimmt den dicksten Gewinn eingefahren ist ja auch ein super Geschäft uvp 699 verkauft für 1200...

Angebot / Nachfrage, Inflation und Lieferketten sind dir anscheinend kein Begriff. Dass der Mining Boom abflaut ist Dir auch unbekannt. Glaub lieber an Verschwörungstheorien, das passiert vielen Menschen.
 
@Noofuu: Ich weiß ja nicht recht, ob das alles so Hand und Fuß hat was du schreibst. Ich habe mir 2014 den (immernoch im Einsatz befindlichen) i7-4790k für 350€ geholt. Zum gleichen Kurs komme ich heute an einen potenten 8-Kerner (Ryzen 7-5800X). 6 Jahre Entwicklung, und 120% Mehrleistung zum gleichen Kurs (inflationsbereinigt sogar ein gutes Stück weniger).

Was man für Mäuse, Tastaturen, Bildschirme zahlt bleibt jedem selbst überlassen. Es war damals wie heute möglich an gute, günstige Produkte zu kommen. Wer meint 150€ für eine RGB Tastatur mit 45 Extra-Tasten ausgeben zu müssen kann das ja tun, soll dann aber auch bitte nicht meckern.

Die Grafikkartenpreise schwanken mit der Kursentwicklung der Kryptocoins. Immer wenn es sich lohnt zu schürfen, gehen die GPU Preise hoch und danach wieder runter. Da kann man AMD/ Nvidia wenig vorwerfen. TSMC hatte sich während der Krise mal geäußert, dass sie durchaus mehr produzieren könnten, jedoch keine Aufträge haben, da viele Hersteller schlicht schiss haben, dass der Mining Boom von heute auf Morgen vorbei ist und sie dann auf den ganzen Karten sitzen. So ist es dann ja auch jetzt gekommen wie der Artikel hier zeigt.

Also immer locker durch die Hose atmen und nur das kaufen, was man braucht.
 
Zuletzt bearbeitet:
Moinsen. Ist aus meiner Sicht alles nachvollziehbar.

Ich dachte mir schon 2020: “Elektroschrott“.

Die Leistungsanforderungen kommender Games steigen drastisch und immer schneller, s. bspw. Unreal 5 Engine coming, und Raytracing (und sagt nicht: “ich brauche das nicht und nie“; vor einem Jahr war das vielleicht richtig, und brauche ich auch aktuell noch nicht, aber schaut euch mal die RT - Implementierung bei Cyberpunk 2077 und in den Außenarealen bei Metro Exodus Enhanced Edition genau an; saugeil, das wird Standard werden, und das will dann auch jeder haben).

Dabei laufen bereits seit spätestens Ende 2021 aktuelle Games auf größeren Monitoren in brauchbaren Auflösungen > 1080p mit Flaggschiff - Grafikkarten nur bei 60 FPS, auch wenn DLSS und FSR da - zu Lasten der Bildquali... - etwas gegensteuern.

Wieso gibt es eigentlich WQHD - oder 4k - Monitore mit mehr als 120 Hz? Die lastet ja sowieso quasi niemand aus.

Nvidia hat ferner bei der Grafikkarten-Generation 30xx beim VRAM 2020 gegeizt und viel zu wenig verbaut, im Gegensatz zu AMD. Ja, das Grafikspeicher - Management bei den 30xx scheint etwas besser zu sein. Ja, die AMD 60xx können eigentlich kein RT, aber NVIDIA eigentlich auch nicht, wenn man nicht aktuelle Games unter 60 FPS mit einer 3080 Ti oder einer 3090 für 2.000 EUR spielen will, und unter einer 3080 Ti läuft RT wg. der FPS schon bei aktuellen Titeln (ohne Unreal 5 Engine) nicht wirklich annehmbar.
8 GB VRAM bei einer 3070 und 3060 Ti (und 12 nur bei einer 3060, was habe ich gelacht und mich geärgert), und zunächst nur 10 bei einer 3080 / nur 12 bei einer 3080 Ti, obwohl da in 2020 schon absehbar war, dass das gaaanz schnell nicht mehr reichen wird?

Dazu gibt es hier bei PCGH eine Übersicht, zum VRAM - Bedarf.

Nvidia war da wohl etwas zu geldgeil. “Wir produzieren die Karten so, dass sich dann in zwei bis drei Jahren alle wieder neue Karten kaufen müssen.“ - ? Freue mich über alle, die das nicht mitmachen.

Und jetzt sitzen Nvidia und die Händler auf einem riesigen Berg überteuertem Elektronikschrott, den 3.000er - Karten: richtig so! Denn die Karten sind für aktuelle und künftige Spiele nicht geeignet. Und für ältere Games geht es viel günstiger, s. unten, unsere Variante.

Jeder, der sich jetzt noch eine Grafikkarte mit bis zu 12 GB VRAM kauft, muss wissen, dass man da sehr bald keinen Spaß mehr dran haben wird, will man aktuelle und künftige Titel zocken. Es sei denn, man spielt nur eSport - Games auf niedrigen Settings in 1080p (ist nicht mein Ding), und der Monitor hat maximal 27 Zoll. Oder man spielt nur Games bis 2022. Und geht mit dem Preset runter. Dann passt es.

Die beste Wahl ist für mich auch aktuell noch unsere RX 570 mit 8 GB VRAM für unter 200 EUR. Wir spielen alle Spiele bis 2021 oder 2022 auf Preset ultra oder eins drunter mit mindestens 60 FPS, wie Far Cry 6. Halt ohne RT (uns egal). Meistens sind es 90, egal, was die Benchmarks sagen. Oder viel mehr, bei Games vor 2021. Es gibt nichts, was wir spielen wollen, und nicht spielen können, und was nicht super aussieht, und womit wir nicht jede Menge Spaß haben. Und das bei 60 Grad C Karte und CPU, undervoltet, luftgekühlt, bei 24 Grad Raumtemperatur. 1080p, 27 Zoll, guter Monitor. Wir haben eine Liste mit 70 tollen Games, von 2007 bis 2021, die reichen uns, und die müssen wir erstmal schaffen ☺. Und dann nochmal mit Community - Mods ☺☺. Cascadia für Fallout 4: YEEEEAAAAH! Und die ganzen geilen Coop - Games laufen sowieso. Diverse ältere Games, aber auch Far Cry 5 im Coop mit 90 FPS auf maximalen Einstellungen. Absolut flüssig.

Für uns mit RX 570 und 8 GB VRAM genauso gut, wie in 4k auf größerem Screen mit einer 3090...

Wir warten ab, ob der Wahnsinn mal aufhört und man irgendwann zukunftstaugliche PC - Hardware kaufen kann, die bei angemessener P/L Ratio die Spiele der nächsten 4 bis 6 Jahre ab Erwerb wirklich flüssig und schön darstellen kann.

Und kaufen uns sonst eine X Box Series X für ? 700 EUR ?, machen mehr Sport und andere schöne Dinge zusammen.

✌☺
 
Zuletzt bearbeitet:
@Hero7320: Ich hab deinen Beitrag nur überflogen, aber die Aussage, dass ja eh niemand 4k 120Hz Monitore auslastet stimmt nur aus der Weltsicht heraus, dass stets AAA Titel gespielt werden. Sobald du ältere Games oder grafisch nicht so anspruchsvolle Games spielst machen diese Monitore durchaus Sinn. Ich mit meiner GTX 1080ti warte zB brennend auf so einen 4K 120Hz Schirm, der meinen Anforderungen genügt.
 
@Schleifer Moin. Ich musste mir zu dem ganzen Irrsinn mal mein Gesamtergebnis nach viel (15monatiger) Rechnerei und Hardwaretestleserei runterschreiben. Ich stimme dir eigentlich zu. Fazit: die 3.000er Karten braucht kein Mensch. Die packen die neuen und kommenden AAA - Titel nicht. Die geilsten Games sind sowieso älter, s. diverse Bestenlisten. Da reicht eine RX 570 8 GB VRAM, und ein Ryzen 5 2600(X?) für Spaß ohne Abstriche für alle Games bis 2021, teils 2022.
 
Zuletzt bearbeitet:
Apropo 4k
ada wird das auslasten können
Die ue5 city demo zeigt ja was möglich ist
rtx3060 etwa 7gb vram 1080p etwa 58fps alles auf maxed mit dxr ohne dlss
die rtx3090 ist etwa 120% schneller -70% =58*120/70=33fps in 4k
Die rtx4090 wird +170% (dxr Leistung) haben also dann 33*2,7=90fps auf 4k

mit dlss was nochmal um die 40% bringt sind das etwa 126fps
Siehe 120ps auf 4k machbar
und die demo ist schon ziemlich das härteste an dxr was derzeit geht einzig pathtracing frisst mehr
 
Und nu? RTX 3000 ist Elektronikschrott? Und ALLE kaufen RTX 4000? Da freut sich die Jacke und die Preise gehen wieder durch die Decke!
 
Zurück