Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos

Ich denke AMD wird nur dort auf dem Papier konkurrenzfähig aussehen, wo Benchmarks ohne Raytracing und ohne DLSS zum Einsatz kommen. Sobald ein Spiel jedoch beides unterstützt könnte es sein, dass AMD total abgehängt wird.

AMD hat nur dann eine Chance, wenn sie mehr Speicher auf den Karten verbauen und Software zeigen können die das auch ausnutzt. Einfach nur mehr Speicher und dann kein Spiel vorführen das dank 16GB VRAM besser aussieht wird nicht reichen. Das wird dann ein zweites Radeon 7 Debakel.

Nvidia spielt meiner Meinung nach nicht ganz 100% ehrlich hier. Ich denke die 8GB 3070 und die 10GB 3080 sind die billigen Versionen deren Preis vor allem gut aussehen soll. Es haftet jedoch beiden der Makel an, dass der RAM so gering ist, dass man kaum höhere Einstellungen fahren kann, als eine der neuen Konsolen. Bei 700€ nur für die Grafikkarte würde ich schon erwarten, dass mein Spiel höhere Texturen fahren kann als eine 500€ Konsole. Wir werden sicherlich auch 16GB und 20GB Versionen der 3070 und 3080 sehen, das sind imo dann die "echten" Versionen mit dem "echten" Preis. Da werden auf jede Karte locker 100-150€ draufkommen.

Der Fortnite Deal sieht ganz danach aus, als stünde uns eine 200€ 3050 ins Haus die aus intern 540p mit DLSS ein 1080p Raytracing Bild für die Massen macht. So eine Karte könnte AMD richtig wehtun, weil es eine ganze neue Generation auf den Nvidia Hypetrain aufspringen lässt.
 
Die RTX 3080 reizt mich schon sehr, aber die 10 GB gehen mir gehörig auf den Zeiger. Die 3090 ist leider keine Alternative für mich, der Preis ist indiskutabel. Und wenn diese Graka noch zehnmal schneller wäre, no way.
Wenn AMD mit Big Navi jetzt endlich aus den Puschen kommen könnte? Und könnte Big Navi dann auch mindestens der RTX 3080 Konkurrenz machen? Biiieetäää! :heul:

Es kann drei Gründe für die „moderaten“ Preise geben.
1. Nvidia weiß ungefähr wie gut die AMD Karten performen und war gezwungen vorher auf AMD reagieren.
2. AMD performt nicht gut und Nvidia nutzt die andauernde Schwächen um AMD ein für alle mal aus dem PC Markt zu spülen (die Konsolen GPUs sprechen hier dagegen
3. Nvidia unterschätzt nicht die finanzielle Auswirkung der Pandemie auf Kaufkraft potenzieller Käufer und reagiert entsprechend
 
CPU und GPU sind aber mal 2 verschiedene Themen. Daher wenn AMD eine Konkurrenz rausbringt die sich da einreiht würde ich nicht mal eine Sekunde nachdenken wegen 300W. Die Watt gehen halt mal nach oben daran müssen wir uns gewöhnen sieht man ja an Pascal > Turing > Ampere

Das widerspricht aber dem was sich viele vorstellen. Man zahlt ja auch den Strom der für den gesamten Rechner anfällt. Bei CPUs mit geringer Leistungsaufnahme wedeln und dann bei GPUs ne Wildsauparty veranstalten, haha :lol:
 
Das widerspricht aber dem was sich viele vorstellen. Man zahlt ja auch den Strom der für den gesamten Rechner anfällt. Bei CPUs mit geringer Leistungsaufnahme wedeln und dann bei GPUs ne Wildsauparty veranstalten, haha :lol:

AMD hat aber nie gesagt das Sie effizent sein wollen bei der GPU. Da es auch NV nicht schafft warum sollte es bei AMD sein. Und wer sich eine Grafikkarte kaufen möchte in der Oberklasse dem ist auch bewusst das es hier keine 60 Watt GPU sein wird. Ich verstehe noch immer nicht warum du CPU und GPU in einen Topf wirfst.


Wie vermutet, da warte ich auf die Magazine. Da sehen wir dann den realen Unterschied. Das Video zeigt mir das noch nicht.
 
Also wenn man nach dem DF Video geht müsste eine 3080 grob über dem Daumen bei 1,5-facher Leistung der 2080Ti heraus kommen. Wird schon irgendwie hinhauen das die 3070 mit der 2080Ti konkurrieren kann, aber 8GB VRAM, wenn man die Karte länger als ein Jahr nutzen will, dürfte schon ein ziemlicher fail werden.
 
AMD hat aber nie gesagt das Sie effizent sein wollen bei der GPU. Da es auch NV nicht schafft warum sollte es bei AMD sein. Und wer sich eine Grafikkarte kaufen möchte in der Oberklasse dem ist auch bewusst das es hier keine 60 Watt GPU sein wird. Ich verstehe noch immer nicht warum du CPU und GPU in einen Topf wirfst.

Mit anderen Worten, die Leistungsaufnahme ist nur gutes Marketing solange man es kann.
Von 250W auf 350W bei Nvidia bedeutet ja nicht das AMD da zwangsläufig mitgehen muss.
 
Wäre schön, aber das kann ich mir, wie gesagt, nach den letzten Jahren nicht vorstellen.
Wenn man die 3080 erreichen könnte, wäre das schon ein Fortschritt.
Ich schätze max zwischen einer 3070 und einer 3080....und 16gb Vram... wäre natürlich Klasse wenn sie die 3080 schlagen würde.
Die big Navi wird denke ich mit 599€ kommen

Gesendet von meinem Redmi Note 9S mit Tapatalk
 
Die Spielehersteller werden sich hier anpassen und nicht höher gehen als die meisten Spieler verbaut haben.
Und wo ist das Problem das mal nachgeladen wird?

Die Hersteller passen sich an die Konsolen an. Waren da nicht 16 GB verbaut? 4GB für das System. Da blieben 12 GB für settings, die am
PC dann als normal bis high einzustufen sind.
 
Moin, so wie ich das sehe 3080 nicht verkehrt aber zu wenig vram, 3070 für fhd evtl noch, 3090 total überteuert. Und soweit ich weiß ist die 3090 nicht der vollausbau d.h. es wird eine noch stärkere Karte folgen (wurde ja auch schon was geleakt mit 48 GB vram) heißt dann halt nicht Titan. 3070 mit 16 und 3080 mit 20 GB werden bestimmt als Antwort auf die amd Karten kommen. Versteh überhaupt nicht wieso die Leute so gehyped sind wegen der Preise die sind eigentlich genau wie erwartet, und ich denke auch nicht dass die Preise eine Reaktion auf die vermeintliche Stärke von amd sind. Bin Mal auf die echte Performance gespannt. Und eine 2080ti wird auch weiterhin ihre daseinsberechtigung haben, drunter sieht's dann schon mauer aus. My 2 Cents.
 
Sehr komisch, wie da mit der Wattanzahl hin und her gesprungen wird.
Man darf gespannt sein, was da für ein Verbrauch unter welchen Bedingungen dann wirklich raus kommt.
8GB bei der RTX 3070 sind eigentlich noch frecher als die 10GB der RTX 3080. Das ist eine künstliche Begrenzung.

Die Hersteller passen sich an die Konsolen an. Waren da nicht 16 GB verbaut? 4GB für das System. Da blieben 12 GB für settings, die am
PC dann als normal bis high einzustufen sind.

Konsolen VRAM ist praktisch irrelevant für den VRAM Verbrauch am PC.
 
Wieviel hat denn die 2019 vorgestellte AMD 5700 XT nochmal? Nachdem auch schon Jahre zuvor die 480 mit 8 GB kam?
Ja, ist etwas lahm derzeit was den Speicherausbau betrifft, aber mit den neuen Konsolen wirds sowieso einen Schub geben (müssen)
Ja wahnsinnspreis. 480, 580, 680 -> Preis: 499$. Das war aber damals der schnellste Chip, also quasi die Titan.
Plötzlich wird klar: AMD kann nicht hinterher:
Somit: GF 780 - 650$
Stimmt schon, da sind 699 gar nicht so schlimm.
Nvidia weiß was die Kunden bereit sind zu zahlen. Würden sies nicht tun

Die 5700XT ist ja angeblich nicht mal so schnell wie eine 2070, wie hier gerne im Forum geschrieben wird. Und du vergleichst hier dir Ausstattung einer 3080, die deutlich über 2080 Ti performen kann, mit einer Karte die zwei Performance-Sektoren unter dieser Karte sein soll?
 
War schon eine gute Vorstellung gestern von Nvidia. Wenn es ein Sofortkauf-Buzzer gegeben hätte, ich wäre wohl dabei gewesen.

Nüchtern betrachtet stimmt die GPU-Power aller Karten, die Speicherausstattung der beiden kleinen Karten ist zu gering, die der 3090 fast zu viel des Guten.
Die Preise der 3070 und 3080 finden wir toll, das hat uns NVIDIA so gelernt. Die Preisdifferenz zwischen 3080 zur 3090 ist für den Leistungsunterschied viel zu groß. Sind 14 GB VRam mehr so teuer?

Letztendlich ist da ist noch viel Platz für NVIDIA ihre Supers und TI´s zu plazieren.

Ein Wort bzw. Frage noch zu DigitalFoundry: Wie können die Tests bringen, wenn es A) ein NDA gibt und B) laut Igorslab noch gar keine Treiber für die 3000ér Serie gibt?
 
Konsolen VRAM ist praktisch irrelevant für den VRAM Verbrauch am PC.
Es ist davon auszugehen, dass mehr RAM benötigt wird, weil das die Vergangeheit zeigt. Und wir sind grad an dem Punkt, an dem Spiele erschienen sind, die 8-11GB sprengen. Von daher haben die 3070 und 3080 einen arg faden Beigeschmack. Auf der anderen Seite ist die 3090, wo allerdings der Preis eine Frechheit ist, da Abseits vom Speicher nicht so viel Mehrleistung zu erwarten ist.
Persönlich, als Besitzer einer Karte mit 11GB, macht mir nVidia grade nur schlechte Angebote.:daumen2:

Edit:
Ein Wort bzw. Frage noch zu DigitalFoundry: Wie können die Tests bringen, wenn es A) ein NDA gibt und B) laut Igorslab noch gar keine Treiber für die 3000ér Serie gibt?
Natürlich gibt es Treiber, wie sollte nVidia sonst selbst testen? Woher willst du wissen, dass DF keinem NDA unterlag und woher haben sie dann die Karte gehabt?
 
Doch. DigitalFoundry vergleich in vielen Fällen ohne DLSS und RT.

DF hat nicht umsonst 'nen dicken Disclaimer am Anfang von diesem "Test" :
1. nur ausgewählte, von nV ausdrücklich vorgegebene Spiele
2. möglicherweise sogar vorgegebene Testszenen (mein persönlicher Spekulatius)
3. von nV ausdrücklich vorgegebene Beschränkung auf 4k

nV selbst hat auch nur einmal die Rasterizerleistung kurz gestreift , gleiches Borderline 4k wie DF vorgegeben. Das da nicht mehr kam, ist imho zumindest mal auffällig.

Nimmt man dann noch her, dass offenbar die SMs für Gaming-Ampere stark umstrukturiert wurden und vermutlich schlechter auszulasten sein werden als bisher, bleiben schon erhebliche Zweifel an den 70-80%, die DF als Leistungszuwachs auswirft. Mindestens ist das Cherrypicking at its best. Würde mich nicht wundern, wenn in 4k über 'nen größeren Game-Parcour 50-60 % bleiben und in FHD 30-40%. Falls es mehr wird, um so besser für uns. Ohne unabhängige Benches ohne nV-Vorgaben sehe ich dieses 3070=2080Ti jedenfalls mal überhaupt noch gar nicht.
Vom Speicher mal ganz ab.

'ne 3080 mit 20GB zu einem Preis um die 800,- Euro könnte imho aber attraktiv werden. Kommt aber auch erst in ein paar Monaten. :-)
 
Zurück