RTX 4000: Livestream zu Geforce Beyond auf Youtube, letzte Rätsel von Nvidia

Ach, die 4080 ist dann so schnell wie die 3070, oder?

Und sicher weit entfernt von der 3080(Ti)... ;)

Worum geht es, um die Leistung oder wie der Chip heißt?

Welcher Chip verbaut ist und wo sich die reale Performance im Vergleich zur vorherigen Generation einreiht.

Bisher klingt es ja eher so als ob die RTX4080 12GB eher so abschneidet wie einst die 70er Varianten.
 
Falls jemand die Preise der 4080 noch nicht kennt.. War das jetzt ein zufälliger leak? Weil die Preise kann ich jetzt nicht mehr sehen
3080 UVP 699€ und jetzt die 4080 für 1469€. Das ist mehr als das doppelte für höchstwahrscheinlich nicht mal die doppelte Leistung. Tja dann wird man wohl in Zukunft nur noch gebraucht kaufen oder eben jede 5 Jahre wechseln!
 
Soweit ich es jetzt im Stream gesehen habe ist nur der VRAM "abgespeckt", oder hab ich was verpasst?
Für mich als WQHD Gamer kommt die 12 GB somit absolut in Frage, brauche keine 16 GB.

Da würde ich dann ~3x die 3080 Performance bekommen + 2 GB mehr VRAM für ~200€ mehr im UVP Vergleich. Ich überlege. :D
Baby 80er = weniger Shader und das auch nicht zu knapp. Bereits die 80er hat ja diesmal einen riesigen Abstand zur 90er.
Mich würde mal der FPS Gewinn ohne DLLS3.0 Interessieren. Die Messungen / Werbung mit 2-4 Facher Mehrleistung sind mit DLSS 3.0 schon möglich. Aber ohne DLSS ? Da gibt es nicht wirklich infos.

Erstmal muss der Mist aber eingepflegt werden in die Games und was haben die alles versprochen zum release von Ampere....

Das ist jetzt alles im Stream Werbe-blabla. Abwarten auf Test und ich geh jede Wette ein das in 2 Jahren vielleicht 20 Titel solche Technik unterstützen. Die SPiele die jetzt entwickelt werden enthalten das wahrscheinlich noch nicht mal.
Denke auch, das übliche Marketing wie in den letzten Jahren. Von RTX IO haben wir bis heute nichts gesehen. Das Moddertool sah aber schon beeindruckend aus muss ich sagen, feine Sache.

Alles in allem war der Stream aber extrem untransparent, man kennt keine Setting, nutzt stets DLSS bei Verwendung von RT bei Ada etc.

Ampere hat ja noch beeindruckd mit einer gewaltigen Mehrleistung und im Vergleich zu Turing(in der UVP) günstigerem Preis. Ada haut mich gerade mal so gar nicht von den Socken, vor allem der Preis ist völlig überzogen.
 
Unbenannt.PNG

wurde glaub schon genannt, hier nochmal auf einem Bild von der Österreichischen Seite
 
AMD hat eben getwittert, das die neue RDNA 3.0 am 3 November zum verkauf erscheint ^
Das klingt doch gut, dann weiß man direkt Anfang November was beide so anbieten.
Ich finde die Preise einfach abseits von gut und böse. Das ist einfach nur noch krank.

PC Gaming wird leider wieder absoluter Luxus.

Einziges Mittel dagegen: Old Gen kaufen, oder akutell noch auf AMD hoffen..
Naja die alten Gens sind ja immer noch sehr shnell, mit meiner 6800XT fehlt mir derzeit ehrlich gesagt nichts. Langsam werden die Dinger auch deutlich billiger, wenn sich das verstetigt fährt man mit der alten Gen besser (ein Schelm wer das für gewollt hält...)
 
Deshalb wurde die 4070 ja zur 4080. :ugly:
Und das traurige ist, viele werden das nicht verstehen. Die denken da ist nur der Speicher gekürzt, aber dass die Karte auch sonst keine 4080 ist, ja das wissen sie nicht.

Ich bin wirklich sprachlos. Hätte mir vor ein paar Jahren jemand erzählt, dass die Midrange xx70 Karten über 1000€ kosten, ja ich hätte wohl nur gelacht.

Ist einfach nur noch dreist und greedy.
 
Und das traurige ist, viele werden das nicht verstehen. Die denken da ist nur der Speicher gekürzt, aber dass die Karte auch sonst keine 4080 ist, ja das wissen sie nicht.

Ich bin wirklich sprachlos. Hätte mir vor ein paar Jahren jemand erzählt, dass die Midrange xx70 Karten über 1000€ kosten, ja ich hätte wohl nur gelacht.

Ist einfach nur noch dreist und greedy.
Ich habe in nem anderen Thread geschrieben, das die nächste "970-Gate" incoming. Nur Diesmal nicht Speichergate sondern Transistor-Gate ^^
 
Die preise sind unverschämt eine 12GB 4080 für 900€ kein Stück... Hoffe AMD wird was vernüftiges bringen. Wenn AMD kaum mehr verlangt als diesen Generation hat Nvidia große Probleme!(Ich hoffe es!)
 
Zurück