Geforce RTX 3080 Ti: Doch nur mit 12 GB und 10.240 Shadern?

aber zweitens bietet mir halt eine 6800XT kein G-sync für meinen Monitor an, so gesehen fallen die Radeons bei mir sowieso direkt weg.

Gibt halt auch Monitore, die beides können. Selbst die billigsten können das (z.B. Acer XF240H). Da Monitore im Schnitt deutlich länger genutzt werden als die PC-Hardware sollte man vielleicht nicht unbedingt eine mehrjährige Bindung eingehen und sich so selbst zwingen immer von dem gleichen GPU-Hersteller Grafikkarten kaufen zu müssen - egal was für Preise der gerade verlangt. Aber hey, vorausschauendes Kaufen und so.

Aber doch nicht bei einer 3080 mit 10 GB ! Irgendwo hört's ja auch mal auf.

Wir schreiben gerne in 3 Jahren noch einmal. Mal gucken, wer recht hat.

Sag mal, wie bist du eigentlich Mod bei PCGH geworden ?

U.a. weil ich nicht auf jeden blöden Spruch eingehe. :)

 
wsl. defekt :D
neu bzw. auch gebraucht ist das undenkbar bei einer uvp von 1500Euro!
ne leider neu -.- hat sie aber von nem Freund bekommen da der sich letztes Jahr, wo sie noch nicht so teuer waren, 2 gekauft hat um eine ab zubekommen. Die 2. bestellte Karte kam eher als die 1. und er konnte sie nicht mehr stornieren, da sie schon unterwegs war und hat die 1. dann an den einen Freund für 800€ verkauft. Freundschaftspreis halt. ^^
 
Zuletzt bearbeitet:
ne leider neu -.- hat sie aber von nem freund bekommen da der sich 2 gekauft hat um eine ab zubekommen. Die 2. bestellte karte kam eher als die 1. und er konnte sie nicht mehr stornieren, da sie schon unterwegs war und hat die 1. dann an den einen Freund für 800€ verkauft. Freundschaftspreis halt. ^^
welcher Freund schenkt seinem Freund 700 Euro einfach???
muss eine sehr gute Freundschaft sein! :)
 
Und wieder eine Karte die wahrscheinlich keiner zu normalen Preisen kaufen kann..
Aber 12 GB oder 16 bei AMD...
Glaub da merkt man bis jetzt keinen Unterschied...
Mal guckn was die Zukunft bringt
 
Ich sehe es ähnlich wie Raff vorne. 12GB klingen aus Salvage Sicht eher unlogisch da man effektiv bessere Chips bräuchte als bei der 20GB Variante. Also entweder GA102 hat extrem guten Yield, GDDRX6 hat extrem bescheidenen Yield oder die Nachricht ist schlicht Humbug.
 
neu bzw. auch gebraucht ist das undenkbar bei einer uvp von 1500Euro!
So undenkbar wie damals die 2080 Ti, die bei Preisen ab 1200€ für 400-500€ verkauft wurden? ;-)
Vor dem Ampere-Release wohlgemerkt, aber trotzdem. Kann dieses Mal wieder passieren. 500€ für die 3090 würde ich sogar für denkbar halten. Ist wahnwitzig, aber durchaus möglich.
 
Die 3080er /3090er Karten bieten gemessen am Stromverbrauch einfach zu wenig Leistung. Andersrum gesagt, für mich disqualfizieren sich die Karten, aufgrund von zuviel Durst. Mal sehen, vielleicht wird es eine 3060Ti. oder zum ersten mal eine mittlere AMD in Form der 6800, wobei mich bei AMD der relativ hohe Idle und 2D Verbrauch stört im Vergleich zu Nvidia. Wenn ich ehrlich bin, überzeugen mich alle nicht wirklich, wird schwierig einen Kompromiss zu finden.
 
12 GB ergibt mehr (un) Sinn als 20 GB. Wäre sonsz zu teuer. Gut für AMD. Fehlr nur noch RT.
Insgesamt ist die Generation wegen des orbitanten Stromverbrauchs unattraktiv.
Da wird streamen (Stadia, GeforceNow, etc.) interessanter.
 
Nur um 12GB ins Verhältnis zu setzten. Ich finds ok, aber kommt stark auf den Preis an.
Battlefield 5 in 4k Mit Raytracing kommt auf 10-11 GB bei der 3090.
12GB sind also knapp bemessen.
Battlefield 6 wird sicherlich nicht besser.
Durch schlaue Streamingengines fällt es vielen einfach nicht auf wenn sie zu wenig Vram haben....

Für 850€ wäre die 3080ti ein faires Stück Technik, bei weitem noch nicht so fair wie die 1080ti mit ihren 11GB, aber brauchbar.
Bei 20GB dürfte man von mir aus auch 1000€ für Custom Karten verlangen. Aber das ist Wunschdenken :motz:
Das ist nicht ganz richtig... Battlefield 5 lässt sich mit ner 3080 auf 4K mit Ultra Raytracing perfekt spielen (100+ fps und 7-8gb Auslastung des GPU-Speichers) mit DLLS Off sind es dann 50-80 fps und 8-9gb Speicher.

Die 3090 gibt einfach nur mehr her und pusht somit die FPS.
 
"Dadurch können die Radeon-Produkte vermutlich mit zunehmendem Alter profitieren, wie es bereits bei vergangenen Generationen mit üppiger Speicherausstattung der Fall war."

1, Man kauft Hardware nach aktuellem Bedarf... Zukunftssicherheit ist gerade bei Grafikkarten so eine Sache und spielt in diesem Preissegment eher eine untergeordnete Rolle.
2. Der Speicher bei RDNA2-GPUs bringt aufgrund der deutlich zu geringen Bandbreite nur wenig bis gar keine Vorteile - darauf zu wetten, dass sich das in Zukunft ändert: Siehe 1.
3. Aufgrund der aktuellen Preislage ist ein Erwerb zu einem vernünftigen Preis reine Glücksache und macht in Bezug auf Zukunftssicherheit auch wieder keinen Sinn - da wär es sinnvoller die aktuelle Hardware zu behalten und auf bessere Verfügbarkeit der nächsten Generation zu bauen.
4. Man sehe sich den Bericht dieser Seite über die Verwendung von Wafern seitens AMD an: RDNA2-GPUs dürften hinsichtlich ihrer Verfügbarkeit in absehbarer Zeit wohl nie wirklich günstig erhältlich werden.

Wenn man dringend Ersatz braucht, ist man natürlich in einer bescheidenen Position, allen anderen würde ich empfehlen die aktuelle Generation von nVIDIA und AMD auszulassen - auch aufgrund deren Verbrauchswerten.
 
AMD is auch nicht mehr der Preisbrecher. Weder bei GPUs, noch bei CPUs. Und wie oben schon mal erwähnt, brauche ich nicht im entferntesten 16GB. Aber da Radeon kein g-sync hat, isses eh witzlos für mich.

Jedenfalls sind nicht alle einfach "verbohrte" Nvidia-Fans.
Also einen 50 % Aufschlag zu rechtfertigen (des jeweiligen Spitzen Modell mit 1500 € zu 1000 €) wegen
einem G-Sync Modul würde meiner einer jetzt als VERBOHRT betiteln !
Da kauf ich mir lieber einen "günstigen" Free Sync Monitor, dann brauch ich auch KEINE 3000 € für die 4080/90 ausgeben, weil ich ja einen ach so tollen G-Sync Monitor habe.
Weißt was ich meine ?!?

MfG Föhn.
en kumpel von mir hat seine 3090 für 800€ bekommen :-|:ugly:
Auf DIN A 4 als Farbdruck bei ebay vielleicht ...

MfG Föhn.
 
Also so wie all die Jahre auch, als die x80 TI die Titans sogut wie obsolet machten?
nicht ganz eine Titan war ja was bissal anderes als eine 3090 vom Verkaufskonzept her.

siehe meinen Post #26

 
Also wer sich ne 10GB Karte für fast 1500€ kauft, hat den Schuss nicht gehört...:schief:
Oder es sind Menschen, die mit ihrem Arbeitgeber ein angemessenes Gehalt ausgehandelt haben. Für genug Menschen sind 1500,-€ nicht der Rede wert.

Das hört sich für die unteren 70% der Bevölkerung, die immer weiter in Armut abrutscht, zynisch an, aber die Bereicherung der oberen 30% und insbesondere der oberen 10% nimmt langsam absurde Züge an. Aber Hauptsache, immer schön auf die wirtschaftlichen Schwachen treten. Paketdienstmitarbeiter z.B. sind aktuell der Fussabtreter.
 
Zurück