Geforce Ampere offiziell: RTX 3090 und RTX 3080 starten im September, RTX 3070 im Oktober - alle Infos

Krass was gerade bei eBay Kleinanzeigen abgeht. Über 150 RTX 2080ti auf den Markt geschmissen seit gestern Abend.
Das wird einen gewaltigen Erdrutsch im Gebrauchtmatkt auslösen, bis hinunter zu den kleinen Modellen.
 
Bitte verabschiede dich von den Gedanken, dass eine X70 noch 300-400 € Kosten wird. Die Zeiten sind längst vorbei. Sei froh, dass die Karte nur 499 $ (netto) kosten wird, alleine für die Leistung, die du bekommen wirst. Mich hätte es nicht gewundert, wenn sie 599$ gekostet hätte. Und denk auch mal dran, du kannst eine gebrauchte Karte heutzutage ohne großen Wertverlust verkaufen, selbst nach 2 Jahren. Grafikkarten sind richtige Statussymbole geworden wie Apple Produkte. Teuer aber wertstabil. Aber 8GB bei der 3070 sind natürlich lächerlich, das sehe ich auch so.

Sry aber daran ist überhaupt nichts Wert Stabil. Was glaubst du was die Leute nun noch für eine alte RTX 2070 zahlen werden ? :) Das wird nicht mehr wie 350 Euro sein. Intel CPUs waren sehr lange Wert Stabil, aber bei Grafikkarten hat man schon immer schnell Geld verbrannt.
 
Wow, die Preisghestaltung von NV hat mich jetzt doch positiv überrascht.
Das bedeuted, AMD muß jetzt liefern. Sowohl von der Leistung, als auch vom Preis/VRAM.
Mit dem Toppmodell wird man knapp hinter der 3090 bei gleicher Speichermenge sein. Dafür aber um die €1000,- VK liegen.
Mit der 3080 sehe ich es wie folgt: €100,- günstiger, bei identischer Leistung und 16GB VRAM.
Das Gegenstück zur 3070 wird evt. sogar gleichteuer sein, dafür mit ebenfalls 16GB VRAM un minimalst schneller.
Aber eins ist sicher: NV hat es AMD nicht leicht gemacht :-)
Ich will Tests Tests Tests
Gruß T.
 
Interessant ist, dass Nvidia es tatsächlich geschafft hat eine 700€ Grafikkarte wie ein Schnäppchen aussehen zu lassen (ich nehme mich da als Ex-Besitzer einer 2080Ti nicht aus). Da hat das NV Marketing in den letzten Jahren ganze Arbeit geleistet.
 
Hallo kann man sein Netzteil EVGA 750 Watt bei einer rtx 3080 weiter verwenden ich meine nur wegen den Anschlüssen?

Gesendet von meinem Phone 2 mit Tapatalk
 
Ich muss aber schon mal sagen.

Schon krass wie viel Leistung NVIDIA aus dem 8nm Samsung (= 10nm TSMC Prozess) so rausbekommt. In Sachen Fertigungsschritt hat AMD mit TSMCs 7nm schon mal einen Vorteil.
Bin gespannt, ob sie diesen auch für sich ausnutzen können.
 
Also wird der halbwegs informierte Gamer maximal 3XX Euro ausgeben für (m)eine 2080 Super :ugly:
Aber auch, wenn ich nach der Präsentation gestern sofort auf kaufen klicken wollte :D werde ich pers. abwarten bis AMD nachliefert und dann entscheiden ob meine noch bleibt oder es eine 3080 wird oder AMD. Denn ich bekomme meine 2080s in UWQHD schon in die Knie, wenn ich will
 
Die Speicherkrüppel 3070/3080 wird niemand wollen, wenn man bereits weiß, dass AMD mit 16GB auflaufen wird. Die Preise von NV sagen vor allem, dass AMD dieses Mal vorne sein wird. :daumen:
 
Also Preise und Verbrauch überaschen mich nicht wirklich. Mit den Leaks der letzten Wochen war eigentlich klar das die TGP bei um die 350W liegen wird. Preise überaschen auch nicht, wenn man sich die Finanzberichte aus den Investorentreffen vom Launch der 2080 und 2080ti mal anguckt. Dort wurde Nvidia von seinen Investoren abgestraft für die geringen Verkäufe der Topmodelle und vermutete die Preise als Grund. Nvidia hat mit der RTX2000er Serie einen Preispunkt erreicht über den sie nicht groß drüber gehen können, weil der Kunde nicht mit geht.

Was die neuen Karten angeht muss man erstmal richtige Tests abwarten. Die Richtung die im Digital Foundry Video gezeigt wurde ist schonmal ganz nett. Im mittel scheint die 3080 um die 60% schneller als eine 2080 zu sein was dann ca. 30% schneller als eine 2080ti wäre. Preis wäre für mich völlig in Ordnung aber mich stören die 10 GB VRAM. Die 11GB VRAM meiner 2080ti bekomme ich schon jetzt immer häufiger gut gefüllt und mit der neuen Konsolengeneration vor der Türe wird man wahrscheinlich eher mehr VRAM brauchen. 3090 wird aktuell gemunkelt das die 50-60% schneller als eine 2080ti sein soll und der Preis ist zwar hoch, aber wäre für mich noch verkraftbar. Bevor ich aber zu irgendeiner Karte greife warte ich erst darauf was AMD abliefert. Da hat man zuletzt auch Performance von 40-50% mehr als eine 2080ti in den Gerüchten gehört. Wenn dort dann die Speichermenge, die RT Leistung und der Preis passt, könnte es nach Ewigkeiten auch wieder eine AMD Karte werden.
 
Interessant ist, dass Nvidia es tatsächlich geschafft hat eine 700€ Grafikkarte wie ein Schnäppchen aussehen zu lassen (ich nehme mich da als Ex-Besitzer einer 2080Ti nicht aus). Da hat das NV Marketing in den letzten Jahren ganze Arbeit geleistet.

Genau das haben sie doch auch mit der GTX 1070 gemacht. Die wurde auch beworben, dass sie schneller ist, als die Titan (Maxwell).

Somit war eine Geforce x070er Karte das erste Mal bei Release über 400€ angesetzt. Glaube es waren sogar 499€ UVP. Die GTX 970 kostete damals ~330€ bei Release. :D


Schon traurig, dass hier alle erleichtert sind, dass eine 70er (und auch die 80er) Karte so "günstig" angeboten wird. Einerseits ist es aber auch wirklich irgendwo eine Erleichterung, weil AMD wohl doch etwas in den Taschen versteckt haben könnte. Lässt einen nur hoffen.. ;)

Naja immerhin keine Preiserhöhung. :daumen:
 
Aber erklärt dann doch trotzdem nicht wieso der Präsentationspreis und der Preis auf der Website identisch sind?

In Deutschland sind die Europreise zufällig identisch mit den Dollarpreisen. In Österreich schon nicht mehr, weil die eine höhere MWSt haben. Ist also tatsächlich reiner Zufall.
 
Boah, wenn das Mal kein Eigentor wird. 10GB sind einfach zu wenig, 1500€ einfach zuviel.

Aber wie vermutet wird die 3090 die Titan ersetzen, damit relativiert sich der Preis.
Die 3080 ist glaube ich eine echt geile Karte, der Preis ist für mich überraschend niedrig angesetzt, ABER 10GB Vram sind heute schon zu wenig um vorne mitzuspielen. Man erhält 80% der Leistung einer 3090, aber nur 35% des Speichers?
 
Ich muss aber schon mal sagen.

Schon krass wie viel Leistung NVIDIA aus dem 8nm Samsung (= 10nm TSMC Prozess) so rausbekommt. In Sachen Fertigungsschritt hat AMD mit TSMCs 7nm schon mal einen Vorteil.
Bin gespannt, ob sie diesen auch für sich ausnutzen können.

Samsungs 8nm ist in etwa das gleiche wie TSMCs 7nm, minimal schlechter. Aber TSMC hat meines Wissens nach keinen 10nm Prozess im Angebot, es gab 14 und 7.
 
Ich finde es wirklich amüsant wie auf einmal die 2xxx Serie schlecht gemacht wird weil die 3xxx Serie so toll ist :D Hier wird ja nun es so hingestellt als wäre alles unter einer 3070 nun ab Oktober unspielbar :D. Ich bereue meinen Kauf der 2080TI noch immer nicht und auch gar nicht nach dieser Präsentation. Ich warte auf echte Benches wo gezeigt wird das eine 3070 (8GB!!!) schneller ist als eine 2080TI. Ich lasse mich auch nicht von DLSS täuschen und schon gar nicht von Präsentationsvideos. Da warte ich mal bis die Magazin Seiten zeigen was es hier wirklich an Performance bringt.

Andere Frage? Wo ist denn nun der 12 Polige Stecker? Auf der NV wird von 2x 8 Pin gesprochen?

Auch finde ich die User nice die meinen eine 2080TI muss es jetzt für 400€ im gebrauchten Markt geben :D Wie sieht es dann mit den anderen Karten aus?

Vega= 29€
1080TI= 99€
RX 5700XT= 78€
2080= 240€

Echt putzig :D
 
Zuletzt bearbeitet von einem Moderator:
Die Speicherkrüppel 3070/3080 wird niemand wollen, wenn man bereits weiß, dass AMD mit 16GB auflaufen wird. Die Preise von NV sagen vor allem, dass AMD dieses Mal vorne sein wird. :daumen:

Eigentlich nicht. Die 1080 Ti war ebenfalls damals Bombe und preislich im Rahmen und das ohne zeitnahe Neuerscheinungen von AMD.
Wenn jetzt AMD auch mit 300+ Watt Karten kommt bin ich gespannt wie sie sich gegenüber der CPUs erklären, nachdem man sich ja dort mit Effizienz beckleckert.^^
 
Eigentlich nicht. Die 1080 Ti war ebenfalls damals Bombe und preislich im Rahmen und das ohne zeitnahe Neuerscheinungen von AMD.
Wenn jetzt AMD auch mit 300+ Watt Karten kommt bin ich gespannt wie sie sich gegenüber der CPUs erklären, nachdem man sich ja dort Effizienz auf die Brust geschrieben hat.^^

CPU und GPU sind aber mal 2 verschiedene Themen. Daher wenn AMD eine Konkurrenz rausbringt die sich da einreiht würde ich nicht mal eine Sekunde nachdenken wegen 300W. Die Watt gehen halt mal nach oben daran müssen wir uns gewöhnen sieht man ja an Pascal > Turing > Ampere
 
Für alle, die es noch nicht gesehen haben, hier einmal die technischen Daten der neuen GPUs: Aktuelle und vorherige Grafikkarten der GeForce-Serie vergleichen | NVIDIA

Also wenn man sich die CUDA-Kerne der 3080 und 3090 mal anschaut, ist das echt krank, was Nvidia da rausgehauen hat. Zum Vergleich: Eine 2080ti hat "nur" 4256 CUDA-Kerne, hingegen die 3080 über 8700 hat. Alleine deshalb müsste sie schon über 50% schneller werden. So einen krassen Leistungssprung gab es schon lange nicht mehr, aber ich will mich auch nicht zu früh freuen, weil nachher ist der Sprung doch viel geringer als erhofft/erwartet.

Der Sprung ist nur bei RT+DLSS da. Achtung. Die Rasterization Performance selbst wurde nirgends direkt mit vorherigen Gens verglichen.
 
Ich finde es wirklich amüsant wie auf einmal die 2xxx Serie schlecht gemacht wird weil die 3xxx Serie so toll ist :D Hier wird ja nun es so hingestellt als wäre alles unter einer 3070 nun ab Oktober unspielbar :D. Ich bereue meinen Kauf der 2080TI noch immer nicht und auch gar nicht nach dieser Präsentation. Ich warte auf echte Benches wo gezeigt wird das eine 3070 (8GB!!!) schneller ist als eine 2080TI. Ich lasse mich auch nicht von DLSS täuschen und schon gar nicht von Präsentationsvideos. Da warte ich mal bis die Magazin Seiten zeigen was es hier wirklich an Performance bringt.
Dieselbe Diskussion gab's damals mit der 1080ti und 2080.

Einfach mal die Benchmarks von vor 1,5 Jahren betrachten.
 
Irgendwie süß die ganze VRam Debatte. Jeder dreht sich das so hin wie er es braucht.
Die 3080 mit 10GB ist ja so ein Speicherkrüppel....aber wenn es darum geht die RTX 2080Ti niederzumachen wird eine 3070 dagegengestellt. Die ist ja genau so schnell/schneller als die 2080Ti. Und plötzlich ist es vollkommen uninteressant, daß die 3070 nur 8GB VRam hat.
 
Zurück