• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080 Ti soll noch kommen, aber später

DarkWing13

Software-Overclocker(in)
Leider glaube ich mittlerweile, dass sowohl Corona als auch überhöhte Hardware-Preise Phänomene sind, die bei weitem nicht so schnell wieder verschwinden werden wie viele hoffen und glauben, sondern die uns eher noch die kompletten restlichen 354 Tage des Jahres 2021 beschäftigen werden :(

Sind wir mal ehrlich: Sollte eine 3080Ti tatsächlich erscheinen und sollte sie sich in ein bis dahin unverändertes Preisgefüge einfügen müssen, dann wird die UVP bei mindestens 999 Euro liegen, und wirklich zu kaufen sein wird sie dann - dank Custom/Verfügbarkeits/Händler-Aufschlag - für irgendwas zwischen 1200 und 1400 Euro.

Wer aber aktuell eine Karte will oder braucht und wer tatsächlich bereit wäre, das zu bezahlen, der hat doch sowieso schon längst eine 3090 daheim, oder sehe ich das falsch?

Ich glaube inzwischen, das Corona schon längst Geschichte sein wird, die "Preisausschläge" uns aber auch in der Zukunft (neue GPUs) erhalten bleiben werden... ;)
 

theGucky

PC-Selbstbauer(in)
Meine Ansage von Anfang an war 3080Ti zum Sommer hin (Juni/Juli). Warscheinlich auch mit neuen Chip also kein GA102...
1. Fehlen noch immer genügend 2GB VRAM Chips.
2. Preislich ist Luft zwischen 3080 und 3090, aber Performance technisch eher nicht.
3. Wenn die 3080Ti wirklich einen fastgleichen bzw. denselben Chip hat als die 3090...würd es mich als 3090 Besitzer oder auch Händler anp....n.
Die Händler sitzen sowieso schon auf viele 3090er im Lager, die keiner mehr will...ist auch klar für Preise nahe der Titan....
 

cryon1c

Lötkolbengott/-göttin
Meine Ansage von Anfang an war 3080Ti zum Sommer hin (Juni/Juli). Warscheinlich auch mit neuen Chip also kein GA102...
1. Fehlen noch immer genügend 2GB VRAM Chips.
2. Preislich ist Luft zwischen 3080 und 3090, aber Performance technisch eher nicht.
3. Wenn die 3080Ti wirklich einen fastgleichen bzw. denselben Chip hat als die 3090...würd es mich als 3090 Besitzer oder auch Händler anp....n.
Die Händler sitzen sowieso schon auf viele 3090er im Lager, die keiner mehr will...ist auch klar für Preise nahe der Titan....

Sag das nicht.
Ich als 3090 Besitzer der auch ziemlich zeitig gekauft hat würde mich freuen wenn andere für weniger Geld eine 3080Ti bekommen können die dann nahezu gleich schnell ist.
Ich habe die Karte dafür eher geholt, die hat immer noch mehr VRAM und sehr gute Performance.

Die Händler werden sich auch nicht aufregen. Die teuren Karten gab es immer, die waren immer auf Lager und sind bei Händlern liegen geblieben. Die regen sich eher auf wenn Produkte erscheinen die gut aussehen, aber schlecht performen - wo man dann MASSEN davon rumliegen hat. Oder noch schlimmer - Produkte mit einer hohen Reklamationsrate, da geht der Händler an die Decke - verständlicherweise :D
 

LastManStanding

PCGH-Community-Veteran(in)
Also 1080Ti bis zur nächsten Generation, beider Hersteller. Wann ist das 2022 oder 23? Noch später?
Wie die Möhre am Stock, und der Kunde ist der Esel...! Kaum verfügbar nicht nur extreme UVP sondern auch noch 50% Teurer im Handel, ich nicht!!! Bin meinem Geld echt nicht Böse.

Wenn das Gerücht stimmt, "Releasen" sie wenigstens realistischerweise nicht noch ein Körperloses stück Hardware.
 

MH77x3

Kabelverknoter(in)
Ich vermag ehrlicherweise nicht so ganz den Einsatzzweck der High End Ampere Karten zu entschlüsseln.
4k mit Raytracing ohne DLSS wird bei kommenden Next Gen Titeln selbst mit einer 3090 keine FPS Wunder zaubern. 8k ist ohnehin Bullsh...
1440p dagegen sind dank DLSS mit Raytracing schon mit einer 3070 oder einer eventuell kommenden 3070 Ti solide möglich.

Am Ende zählt doch nur, was man mit dem bloßen Auge auf dem Monitor erkennt - und da sehe ich in der 3070er Reihe - meinetwegen auch als Ti oder Super - einfach das wesentlich bessere P/L Verhältnis.
Ich zahle doch nicht das Doppelte, um optisch kaum wahrnehmbare Unterschiede auf den Monitor zu bringen.

Das ist in etwa wie mit Supersportwagen. Was bringen mir die über 1000 PS von einem Bugatti Chiron auf einer durchschnittlichen europäischen Autobahn? Klar kann man theoretisch immer das Beste kaufen, aber der Nutzen flacht dann doch ziemlich ab.
Erst recht, wenn das Beste dann ziemlich schnell wieder out of date ist.

Wen will man heute noch mit einem iphone X beeindrucken? WA und YT laufen aber auch auf einem iphone 7 immer noch over the top.

Ich hätte mich beispielsweise als Käufer einer 2080 Ti im Februar 2020 zu Tode geärgert, wenn jetzt mit der 3070 eine konkurrenzfähige Karte für einen erheblichen Abschlag auf dem Markt ist. Ich muss immer schmunzeln wenn ich Komplettsysteme in Shops sehe, und dann die Systeme mit schlechterer CPU und 2080 Ti doppelt so teuer sind wie Komplettsysteme mit besserer CPU und 3070, obwohl beide vom selben Hersteller stammen.

Wer jetzt in dieser verückten Zeit unter Druck eine 3090 zu Wucherpreisen kauft, der wird sich eventuell in Q3 an den Kopf fassen. Es sei denn natürlich, dass Geld keine Rolle spielt.

Man sieht auch häufiger User Rigs mit unpassender CPU, in denen dann die CPU zum Flaschenhals wird.
Shit, um eine kommende 3070 Ti adäquat zu befeuern braucht es ohnehin eine sehr gute CPU. Selbst ein Ryzen 5 3600 ist da zu schwach auf der Brust, und würde bestimmt um die 15 FPS kosten.

Ich würde immo einfach die Entwicklung abwarten, solange meine alte GPU nicht defekt geht.
 
Zuletzt bearbeitet:

MADman_One

PCGHX-HWbot-Member (m/w)
Ich vermag ehrlicherweise nicht so ganz den Einsatzzweck der High End Ampere Karten zu entschlüsseln.
4k mit Raytracing ohne DLSS wird bei kommenden Next Gen Titeln selbst mit einer 3090 keine FPS Wunder zaubern. 8k ist ohnehin Bullsh...
1440p dagegen sind dank DLSS mit Raytracing schon mit einer 3070 oder einer eventuell kommenden 3070 Ti solide möglich.

Am Ende zählt doch nur, was man mit dem bloßen Auge auf dem Monitor erkennt - und da sehe ich in der 3070er Reihe - meinetwegen auch als Ti oder Super - einfach das wesentlich bessere P/L Verhältnis.
Ich zahle doch nicht das Doppelte, um optisch kaum wahrnehmbare Unterschiede auf den Monitor zu bringen.
Naja, das Problem warum Du es nicht entschlüsseln kannst hat meiner Meinung nach damit zu tun, weil Du von dem ausgehst was Du für sinnvoll hälst und den Rest abwertest bzw. ausblendest. Ich meine das nicht böse, aber Du bist halt nicht der allgemeine Maßstab. Es gibt immer Nutzer mit anderen Anforderungen als man selbst. Ich stimme Dir aber in sofern zu, als das man bei 3080 und erst Recht der 3090 nicht wegen einem tollen P/L angerannt kommen braucht. Und das Du nicht das Doppelte für für Dich kaum Wahrnehmbares zahlen willst ist auch vernünftig. Nur interessiert P/L nicht jeden Nutzer gleichermaßen und auch Vernunft ist beim Thema "Hobby" ganz schnell mal aus dem Fenster. Manche wollen einfach nur das Beste vom Besten haben und nVidia tut auch dieser Gruppe mit Freuden den Gefallen (und diese Gruppe meckert auch überdurchschnittlich wenig über die Preise).
Und andere wie ich brauchen einfach keine dreistelligen FPS in ihren Games. Ich spiele seit 7 Jahren ausschließlich in UHD, weil erst mein 40" und jetzt mein 48" nun mal UHD als native Auflösung haben und ich bei allem darunter dort Pixel zählen kann, 1440p ist da keine Option für mich und kleinere Bildschirme auch nicht, alles was ich spiele muss für mich in UHD laufen oder ich spiele es nicht. Mir reichen bei meinen Spielen glücklicherweise aber auch 45-60fps völlig aus, bis zur 1080ti hatte ich noch SLI im Einsatz um das hinzubekommen, seit der 2080ti ging es auch gut ohne SLI, mit der 3090 bekomme ich sogar mal dreistellige Werte.
Ich spiele keine schnellen Shooter sondern vorwiegend RPGs und Simulationen, Immersion ist mir da viel wichtiger als hohe FPS (deswegen große Bildschirme). Mit DLSS habe ich zudem bisher gute Erfahrungen gemacht, meine Spiele haben alle entweder DLSS oder laufen auch ohne schnell genug weil sie schon etwas älter sind. Ich sehe daher auch nicht, warum kommende Next Gen Titel ohne DLSS kommen sollten bzw ohne gespielt werden sollten. DLSS 2.0 auf Quality kann ich persönlich in den meisten Fällen nicht von echtem UHD ohne DLSS unterscheiden. Also nehme ich die Performance gerne mit.

Von daher bin ich persönlich froh, daß nicht nur reine Vernunftkarten für das Mittelsegment auf den Markt kommen sondern es auch was in der Oberklasse gibt.
In meinem Freundeskreis empfehle ich aber schon haupsächlich die 3060ti/3070 bzw. das vergleichbare Level von AMD, das P/L ist für die meisten Fälle da wirklich am besten. Ich meine damit jetzt nicht Dich, ich habe aber auch manchmal den Eindruck, manche 3070 Besitzer müssen sich unbedingt an den 3080/3090 Besitzern abarbeiten, als kämen sie nicht damit klar, daß manche mehr Geld für eine Grafikkarte ausgeben statt einfach mit der eigenen Wahl und dem gesparten Geld zufrieden zu sein.

Man sieht auch häufiger User Rigs mit unpassender CPU, in denen dann die CPU zum Flaschenhals wird.
Shit, um eine kommende 3070 Ti adäquat zu befeuern braucht es ohnehin eine sehr gute CPU. Selbst ein Ryzen 5 3600 ist da zu schwach auf der Brust, und würde bestimmt um die 15 FPS kosten.
Das ist so pauschal leider falsch. Bei welcher Auflösung denn, FHD ? QHD ? Je höher die Auflösung, desto unwichtiger die CPU, das kannst Du in jedem Test nachlesen. Spätestens in UHD ist es ziemlich egal, ob Du einen brandneuen Rocket-Lake, einen 5950X, einen 3000er Ryzen oder einen Threadripper nimmst, weil Du die FPS Unterschiede zwar noch messen aber nicht mehr spüren kannst, da die Grafikkarte limitiert. Und Du hast ja gerade selbst betont, das es auf das spürbare ankommt (siehe "Doppelter Preis für kaum Wahrnehmbares"). Daher weiss ich beim besten WIllen nicht, wo plötzlich die 15 fps herkommen sollen.
 
Zuletzt bearbeitet:

MH77x3

Kabelverknoter(in)
Naja, das Problem warum Du es nicht entschlüsseln kannst hat meiner Meinung nach damit zu tun, weil Du von dem ausgehst was Du für sinnvoll hälst und den Rest abwertest bzw. ausblendest. Ich meine das nicht böse, aber Du bist halt nicht der allgemeine Maßstab. Es gibt immer Nutzer mit anderen Anforderungen als man selbst. Ich stimme Dir aber in sofern zu, als das man bei 3080 und erst Recht der 3090 nicht wegen einem tollen P/L angerannt kommen braucht. Und das Du nicht das Doppelte für für Dich kaum Wahrnehmbares zahlen willst ist auch vernünftig. Nur interessiert P/L nicht jeden Nutzer gleichermaßen und auch Vernunft ist beim Thema "Hobby" ganz schnell mal aus dem Fenster. Manche wollen einfach nur das Beste vom Besten haben und nVidia tut auch dieser Gruppe mit Freuden den Gefallen (und diese Gruppe meckert auch überdurchschnittlich wenig über die Preise).

Nee, nee - keine Sorge - da kann ich mich selbst aus einem aktuellen Beitrag zitieren:
"Nichtsdestotrotz freue ich mich für jeden Gamer der schon heute mit einer 3080, 3090 oder RX 6900 XT in Verbindung mit einer nagelneuen High End CPU fantastische Bilder auf seinen Monitor zaubern kann.
Neid und Häme sind da unangebracht. Ich kann mich auch für eine teure Uhr, tolle Hifi Lautsprecher oder ein schönes Haus begeistern, wenn ich mir diese selber gar nicht leisten kann oder möchte." Zitat Ende

Mein Einwand entstammt rein einer technischen Überlegung. Ich gehe von der Prämisse aus, dass ab 4k en gros keine weitere sinnvolle Steigerung der Auflösung mehr stattfindet. Weiterhin vermute ich, dass der Leistungshunger der meisten Next Gen Games aufgrund der neuen Konsolen beträchtlich steigt.
Und da frage ich mich natürlich, ob die Ampere Generation vlt noch einen Ticken zu schwach ist, um jetzt schon aufzurüsten? Wer jetzt noch eine GPU Generation warten kann, der kitzelt eventuell dann wirklich schon richtig gute FPS bei 3440x1440 UWQHD bei Raytracing ohne DLSS aus seinem System, wo er oder sie bei einer 3080 noch Kompromisse eingehen muss. Das richtet sich aber nur an Vernunftsmenschen, und nicht an begeisterte Enthusiasten die ohnehin keine GPU und CPU Generation auslassen, und denen ich ohnehin sehr dankbar bin, weil deren early adopter Enthusiasmus wichtig für die weitere Entwicklung der Technologie ist.
 

MADman_One

PCGHX-HWbot-Member (m/w)
@MH77x3 OK, dann hatte ich da vielleicht falsch verstanden worum es Dir ging, danke für die Klarstellung :)

Ja, wie gesagt, bei dem Preisniveau kann ich eine 3080/3090 meinen Freunden auch nicht guten Gewissens empfehlen. Wenn überhaupt in der Breite interessant waren sie zur UVP oder knapp darunter und im Vergleich zu Turing. Aber die Preise hats ja nie gegeben. Und für den aktuellen Preis passt das Gebotene für die meisten wieder nicht. In sofern sind wir in der Praxis da gar nicht unterschiedlicher Meinung.
 

Todesklinge

Software-Overclocker(in)
Welche Ticker gibt es alle um an eine 3090 zum vernünftigen Preis zu kommen?
Bevorzugt 3090 FE füf 1500€ oder Asus 3090 TUF für um die 1600€.

Schaue schon seit Wochen, aber überall ausverkauft :(

Ich glaube die 3080 Ti ist für Weihnachten 2021 geplant, um dort noch mal nachlegen zu können. So hat man jedes Jahr eine zahlende Kundschaft.
 

MH77x3

Kabelverknoter(in)
Aber mal eine Frage an die wirklichen Experten hier:
Ich habe einen MSI 34" Monitor mit 3440x1440 geschenkt bekommen. (hätte ich mir selber nicht geholt, kann ich aber auch nicht weggeben, da ich sonst maximalen Ärger mit meinen Kindern und Enkeln bekomme, die mich damit überraschen wollten)
Den betreibe ich mit meiner jetzigen Combo aus 980 Ti und 6700K natürlich nicht in nativer Auflösung, sondern in 2560x1080. Damit erreiche ich in Red Dead 2 bei hohen Details immer noch solide 55 FPS.
Ich habe Shadow Cloud Gaming ausprobiert, und es sagt mir aus mehreren Gründe trotz 1 Gbit/s und echter Dual Stack Leitung nicht zu.

Wenn meine Grafikkarte nun wirklich in den nächsten Wochen kaputt geht (ich bete dass nicht), welche Kombo wäre dann für mich als nicht Enthusiasten sinnvoll, um Games wie AC oder Red Dead mit über 50 FPS in 3440x1440 zu zocken, und auch noch einige Jahre zukunftsfest zu sein?

Reicht da eine 3070 mit einer Intel i7 10700 CPU oder einem AMD Ryzen 7 3700X, oder vlt doch besser eine RX 6800? Welche Argumente sprechen für oder gegen eine der beiden Lösungen? Ich denke natürlich daran, dass eine neue Konsolengeneration auch Next Gen Games mit mehr Leistungshunger bedeuten wird, und hätte Angst mir mit der 3070 ein Ei zu legen, wenn das System ein paar Jahre laufen soll.
 
Zuletzt bearbeitet:

Manner1a

Freizeitschrauber(in)
Aber mal eine Frage an die wirklichen Experten hier:
Ich habe einen MSI 34" Monitor mit 3440x1440 geschenkt bekommen. (hätte ich mir selber nicht geholt, kann ich aber auch nicht weggeben, da ich sonst maximalen Ärger mit meinen Kindern und Enkeln bekomme, die mich damit überraschen wollten)
Den betreibe ich mit meiner jetzigen Combo aus 980 Ti und 6700K natürlich nicht in nativer Auflösung, sondern in 2560x1080. Damit erreiche ich in Red Dead 2 bei hohen Details immer noch solide 55 FPS.
Ich habe Shadow Cloud Gaming ausprobiert, und es sagt mir aus mehreren Gründe trotz 1 Gbit/s und echter Dual Stack Leitung nicht zu.

Wenn meine Grafikkarte nun wirklich in den nächsten Wochen kaputt geht (ich bete dass nicht), welche Kombo wäre dann für mich als nicht Enthusiasten sinnvoll, um Games wie AC oder Red Dead mit über 50 FPS in 3440x1440 zu zocken, und auch noch einige Jahre zukunftsfest zu sein?

Reicht da eine 3070 mit einer Intel i7 10700 CPU oder einem AMD Ryzen 7 3700X, oder vlt doch besser eine RX 6800? Welche Argumente sprechen für oder gegen eine der beiden Lösungen? Ich denke natürlich daran, dass eine neue Konsolengeneration auch Next Gen Games mit mehr Leistungshunger bedeuten wird, und hätte Angst mir mit der 3070 ein Ei zu legen, wenn das System ein paar Jahre laufen soll.
Für eine solide Antwort müsste man sich alle Benchmarks anschauen inkl. jeden aktuellen und zukünftigen Assassin´s Creed Teil. Dazu müssten alle Spiele per Monitoring überwacht werden, weil ab und zu nur 45 FPS zu bekommen mag hinhauen und an anderen Stellen sind es über 100 FPS. Nun, wäre damit eine Grafikkarte überdimensioniert oder unterdimensioniert? Generell soll beim neuesten Teil Assassin´s Creed: Valhalla eine AMD RDNA2 Grafikkarte sehr gut laufen, aber inwiefern sich das in der Optik niederschlägt, ist von hier aus schwierig zu beurteilen.

Der Aufwand, für genau diese Fragen die passenden Antworten zu haben, ist zu groß, zumal der Kommentar ja auch von jemandem gelesen werden muss, der das alles im Blick behält. Generell würde ich die kleinere Grafikkarte bevorzugen, in diesem Fall eine RTX 3070, es sei denn man muss unbedingt jetzt ganz viele Scheine loswerden. Immerhin reden wir hier von der Grafikkarte mit der besten Leistung pro Watt...da lässt sich schnell ein sinnvolles Einsatzgebiet finden. Dagegen spricht die Empfehlung vom GPU Guru, der 320 Bit Speicherinterface samt 10GB Video RAM für die 3070 besser gefunden hätte. Bis Preise und Verfügbarkeit sich wieder normalisieren, muss man schon viel Mühe investieren oder Glück haben, an irgendeine nagelneue Grafikkarte heranzukommen. Taugen bis dahin niedrige Details auf dem Monitor, mit Priorität auf hohe Sichtweite und Kantenglättung, falls noch nötig? Das wäre schön.

Ich meine, was geht es die Enkel etwas an, wenn Opa nicht in Motion Blur ertrinkt? :D
Die schlechte Verfügbarkeit der Bauteile kann stets als Ausrede herhalten und eine eigene Fabrik lohnt sich nicht.
 
Oben Unten