Geforce RTX 3080 Ti: Gigabyte-Verpackungen für 20-GiByte-Modell in Umlauf geraten

Völliger Unsinn, wenn eine Karte out of Memory läuft hat die Ihr Lebensende erreicht.
Deswegen stellt man es so ein, dass der VRAM reicht, das habe ich oben beschrieben und die Texturen sind mit hoch statt ultra immer noch sehr gut. Aber gut, schmeiß deine Karte ruhig in den Müll, wenn ihr in irgendeinem Killersetting wo mal der Speicher ausgeht.:D
Wer Texturen reduziert, der kann auch noch seinen Atari ausbuddeln.
Ein kleinerer Texturpool reduziert nicht die Texturen.:-D
Aber ja, wenn man nicht auf maxultrasuperduper aufdrehen kann, sollte man PC Gaming besser gleich lassen und auf Handygaming setzen.
 
Zuletzt bearbeitet:
Nvidia verkauft erheblich mehr Karten als AMD. Offenbar sind die meisten Kunden anderer Meinung.
Eben, dass Nvidia dem Kunden mehr entgegenkommt als AMD.

Inwiefern kommt NVidia dem Kunden mehr entgegen als AMD?
Das ist so nicht richtig.
Denn AMD ist mit Treiberentwicklung und frei zugänglichen Features wie z.B. Freesync und FSR eindeutig im Vorteil und kundenfreundlicher als NVidia mit ihrer Einigeltaktik a la Gsync, DLSS und einem Treiber aus Xp Zeiten Anfang der Jahrtausendwende.
Ich glaube du meinst was anderes.
Wolltest du sagen: Käufer verlassen sich beim Kauf auf den Markennamen von nVidia?
Oder anders gesagt: die Käufer vertrauen blind darauf, dass der Händler einem schon das richtige Produkt im Fertig-PC anbietet oder in der Firma hinstellt?
Das sind wesentlich unterschiedliche Gesichtspunkte und Vorraussetzungen.
Bei vielen Leuten setzen sich irgendwelche Markennamen im Hirn fest udn danach wird gekauft.
Das ist wie Puma und Adidas (Spardirdas^^), Geha und Pelikan, Pepsi und Coca Cola, VW und Opel (Popel^^).
Womit man groß wird, oder was man zuerst hatte, was einem mal besonders gut gefallen hat und einem besonders positiv in Erinnerung geblieben ist, prägt man sich für lange Zeit ein und beeinflusst imemr (auch unbewusst) das Urteilsvermögen.
Und wenn diese Leute in Großhandelsketten tätig sind, werden natürlich auch diese Produkte bevorzugt weitergehandelt, angeboten und empfohlen ("da kann man doch nix falsch machen").
Das gelangt dann in die großen Elektronikfachmärkte und den kleinen Einzelhandel.
Jemanden vom anderen Produkt zu überzeugen ist sehr schwierig und ein langwieriger Prozess.
Nicht umsonst können Intel und Nvidia ihre 70-80 Marktanteile über Jahre udn Jahrzenhte hinweg aufrecht erhalten, auch wenn da mal Quarkprodukte auf dem Tisch liegen.
Wie sonst wäre es zu erklären, dass sich trotz überwältignder Testberichte der Ryzenserie weltweit kaum und sehr langsam nennenswerte Veränderungen bei den Anteilen ergeben?
Eigentlich hätte man doch recht schnell nennenswerte zweistellige Prozentbeträge an Umverteilung erwarten können.
Da gibt es Langzeitverträge, festgefahrene Meinungen aus lange zurückliegender "Erfahrungen" (einmal Firma x, immer Firma x"), nicht vorhandene Produkte oder leere Lagerbestände in den Läden, Unerfahrenheit (wer liest schon die PCGH und kann da ernsthaft mitreden?^^), etc. etc..
Ich möchte einfach mal wetten, wenn ich jetzt per Fingerschnipp die ausgelegte HAndelsware in allen Läden genau umkehren könnte, hätten wir ab morgen ein fast umgedrehtes Verkaufsbild.
Wenn dann statt 10 Intel Notebooks nur 10 AMd Notebooks rumliegen, wird der ungelernte Hiwi auch wieder nur das Pappschild ablesen und je nach Preisklasse dann das passende Gerät an den Mann bringen wollen, wofür er dann Verkaufsprovision auf sein geringes Grundeinkommen bekommt (soll ja die Verkaufslust stärken und geringe Umsätze einzelner Verkäufer dann auch ordentlich bestrafen).
Ich möchte an dieser Stelle übrigens erwähnen, dass ich kein AMD-Fanboy bin, wenn das jetzt wieder so aussehen sollte.
Im Endeffekt habe ich von allen Anbietern in den letzten 30 Jahre imemr wieder Produkte gekauft, eben auch nach Tests.
Ich denke mal Psychologen könnten zu der ganzen Geschichte noch einen ganzen Roman schreiben, ich höre jetzt mal auf, sonst schlafen auch noch die letzten Leser hier ein. ^^
 
Ich bleibe dabei sobald die ersten Next-Gen Titel ala Starfield erscheinen, werden alle 8 GB Karten in WQHD+RTX komplett ab saufen. 8 GB hatte bereits meine 5 Jahre alte 1070 und jetzt kommt NVIDIA um die Ecke und bringt die 3070/Ti wieder mit 8 GB. Aber hey solange NVIDIA drauf steht, werden es schon die ganzen Fortnite Kiddys kaufen.
 
Zuletzt bearbeitet:
Jeder der die GPU nicht zum Arbeiten benötigt und jetzt Rumnörgelt wegen unbestätigten Gerüchten über eine 3080Ti 20GB oder einer 3090(Super), hat sich eigentlich selbst verarscht.
Jeden Tag kommen neue Produkte, die meist "besser" sind als die Vorgänger.

Ich bin mir aber sehr sicher das die allermeisten Nutzer und Neukäufer von GPUs mit 8,10, und 12GB überwiegend zufrieden sind.
Der jenige der !nicht! zufrieden ist mit einem aktuellem ungezwungenen Neukauf hat schlicht und ergreifend Geld für etwas ausgegeben was er nicht hätte kaufen sollen. Jeder hat momentan schließlich auch die Wahl 16GB oder 24GB mit nahzu identischer Leistung zu kaufen.

Für mich;
Die 11GB (und Leistung) meiner Karte sind ab und an schon sehr knapp. U.a. weil PC Gaming für mich unbestreitbar und unmittelbar mit dem Thema Optik fest verknüft ist (ich achte extrem auf Details am PC).
Jedoch wecken die Aktuellen Preise bei mir ein massives unverständiss. Weshalb Ich für mich entschieden habe, nicht zu kaufen solange meine persönlichen Vorstellungen nicht erreicht sind.
Und das kann jeder so machen, mit allem was er haben möchte, statt zu Meckern.
 
Warum? Jeder macht eine Kaufentscheidung zu nem gewissen Zeitpunkt. Nur weil es was in der Zukunft gibt, heisst doch nicht das ich damals ungerecht behandelt wurde?

Wenn ich im Laden am Montag die Bananen für 2,99€ gekauft habe und die am Dienstag 1,99€kosten. Heisst das ja nicht, dass ich irgendwie ein Anrecht auf ne nachtragliche Preisanpassung häte.
Tja, nur waren die Gerüchte über die 1,99€ am Dienstag bereits 3 Wochen vorher bekannt, da liegt der Hund begraben.

Ps: Keine Autovergleiche, da bin ich raus.
 
Inwiefern kommt NVidia dem Kunden mehr entgegen als AMD?
Muss man das wirklich erklären?
NVDEC, CUDA, DLSS, RTX Voice, oft schneller bei Early Access und Nischengames.
Schnelleres Raytracing, bessere Anwendungsleistung, höhere Hash Rate, Nvidia hat fast überall die Nase vorn.
Mir fällt schon lange kein Grund mehr ein zu AMD zu greifen, denn günstiger sind die GPUs auch nicht.

Wolltest du sagen: Käufer verlassen sich beim Kauf auf den Markennamen von nVidia?
Ganz bestimmt nicht. AMD verkauft massenweise CPUs. Markenname egal.
 
Muss man das wirklich erklären?
NVDEC, CUDA, DLSS, RTX Voice, oft schneller bei Early Access und Nischengames.
Schnelleres Raytracing, bessere Anwendungsleistung, höhere Hash Rate, Nvidia hat fast überall die Nase vorn.
Mir fällt schon lange kein Grund mehr ein zu AMD zu greifen, denn günstiger sind die GPUs auch nicht.


Ganz bestimmt nicht. AMD verkauft massenweise CPUs. Markenname egal.
Je nach dem was man von dem Produkt erwartet,oder?!
Nicht jeder kauft ein Produkt was in der Theorie mehr könnte aber in der Realität mit den Futures nur Nischen bedient.
 
Zuletzt bearbeitet:
Ha, die TNT2 Ultra hab ich damals sogar gekauft, ich glaube von Diamond und ich hab dafür so um die 400DM bezahlt.
Das Teil war aber auch dann echt geil bis GeForce 256 um die Ecke kam... :ugly:

Das war in der Tat mein Argument um mich zu überzeugen. Früher hab ich jedes Jahr CPU, GPU, Mainboard, RAM, Netzteil aufgerüstet weil ständig irgendwas zu langsam war und das immer einen riesen Rattenschwanz nach sich gezogen hat. Den 3770K hatte ich 8 Jahre in Betrieb, die 1080 immerhin 4 Jahre (Und bei meiner Frau schafft das System noch einmal 5 Jahre in Full HD). Und bis auf die Grafikkarte sind die Kosten für PC Komponenten ja ganz ok.

Eigentlich war es meine Frau die meinte: früher hast du über die Zeit gesehen mehr ausgegeben und mich somit für die 3080Ti überzeugt :haha:

Für 1000€ hätte ich auch die 6900XT genommen und auf RT verzichtet.
Ist definitiv ne top Karte, hatte die Sapphire Nitro+ als Alternative zur MSI 3080Ti im Auge aber die Nvidia war dann doch günstiger.
Naja, wenn man RT auf der 6900xt einschaltet ist man immer noch so schnell wie mit der 3060 ohne RT.
Ich glaube das geht. Darauf verzichten MUSS man jedenfalls nicht und die 30% mehr RT-Leistung der 3080ti bringen auch nicht viel.
wenn es mit der 6900xt nicht mehr geht geht es mit der 3080ti auch nicht mehr. 20 zu 26 frames z.B.

Grüße
 
Ich bleibe dabei sobald die ersten Next-Gen Titel ala Starfield erscheinen, werden alle 8 GB Karten in WQHD+RTX komplett ab saufen. 8 GB hatte bereits meine 5 Jahre alte 1070 und jetzt kommt NVIDIA um die Ecke und bringt die 3070/Ti wieder mit 8 GB. Aber hey solange NVIDIA drauf steht, werden es schon die ganzen Fortnite Kiddys kaufen.
ich bin Besitzer einer 3070 TI, und die reicht für mich erst mal aus. Bis die Spiele kommen vergehen noch ein paar Jahre.
und da bringen mir 16 BG auch nichts wen die Karte zu langsam ist.
 
Naja, wenn man RT auf der 6900xt einschaltet ist man immer noch so schnell wie mit der 3060 ohne RT.
Ich glaube das geht. Darauf verzichten MUSS man jedenfalls nicht und die 30% mehr RT-Leistung der 3080ti bringen auch nicht viel.
wenn es mit der 6900xt nicht mehr geht geht es mit der 3080ti auch nicht mehr. 20 zu 26 frames z.B.

Grüße
Das mag sein aber der Vergleich hinkt irgendwie, 3060 ohne RT ist dann halt auch nur 3060.
Ich hab seit Jahren einen 4k Monitor und freue mich nun endlich mal alles auch in 4k zocken zu können und dank DLSS halt auch mit RT und 4k immer noch min 60FPS (zumindest was ich bisher getestet habe).

Grüße
 
Das geht ja auch AMD, hat einen anderen Namen und keine Zeitkomponente, dafür ist das mit allen Titeln nutzbar, welche Vulkan nutzen.
 
Das war auch eine komplett neue Generation die 1080. Vielleicht lehne ich mich auch zu weit aus dem Fester, aber 8 GB werden für Next-Gen Only Titel auf kurz oder lang zu wenig sein. Hier hast du schon mal einen Vorgeschmack und das ist nicht mal Next-Gen
Also fairerweise muss man anmerken dass der Artikel bis WQHD und (Hoch/Ultra) 8 GB Karten + RT als problemlos bescheinigt. Erst ab WQHD/UHD bzw. inkl Setting Albtraum reicht der vram (8gb) mit RT nicht aus.

Der Großteil der 3070/ti Spieler wird wohl nicht in UHD und kann auch mit Ultra leben. Darüber hinaus wird erwähnt dass es ausreicht den Regler eins nach links auf Ultra oder Hoch zu verschieben um den Problem entgegenzuwirken. Dabei soll es keine visuellen Unterschiede zwischen Albtraum und Ultra geben. Das Speichermanagment und die tatsache das RT nachgereicht, also erst nicht vorgesehen waren, spielt da auch eine Rolle. Letztendlich läufts ohne RT dann auch in Albtraum sehr gut. Also wenn dann ein Titel tatsächlich nicht so laufen sollte läsdt man RT off, sagen ja auch die AMDler das man problemlos auf das Feature verzichten kann.


Next Gen Games werden den VRam Bedarf auch nicht unmittelbar in unendliche Spheren heben, sie müssen immer noch performant ausgelegt werden müssen, da die Konsolen ein beschränktes Speicherbudget und Rechenleistung haben und diese mindestens mit 4K 30/60 FPS laufen müssen. So nah am PC wie diese Konsolengen aus Hardwaresicht ist, war sie noch nie.

Dabei müssen Spieleentwickler den gesamten Markt ansprechen, d.h. sie werden sich an der HW Bestückung der meisten potenziellen Kunden aus betriebswirtschaftlichen Gründen orientieren, so dass die Anforderungen sich nicht nur auf der neuen Highend Gen an Grakas orientiert. Es gibt nämlich auch noch das Midrange Segment mit 6-12 GB…

Im Gesamtmarkt sind 6xxxRX/3xxxRTX Karten wohl länger noch nur Nische. Bis 2024/25 werden 10/12 GB Karten keine nennenswerten Probleme bekommen in UHD. Vielleicht der ein oder andere Titel mit einer ganz hohen/übertriebenen Grafikoption in UHD, die aber auf der darunterliegen Stufe fast genauso bzw. Genauso gut aussieht und trotzdem super läuft. In WQHD wirds wohl gerade noch so reichen mit 8 GB, mit 10/12 sowieso. Einzig allein in UHD kann ich mir noch vorstellen das es in 1-2 Titel wohl mit 10GB u.U. knapp @Anschlag Setting werden kann.

Keine Frage für eine langfristige Haltbarkeit ist diese Bestückung nicht optimal, da hat AMD besser vorgesorgt, wobei man da wieder die Frage in den Raum werfen kann, ob dann der Chip noch für hohe Settings in 1-2 Jahren ausreichend Power hat, so das die 16 GB sinnvoll eingesetzt werden können. Siehe 580…
 
Zuletzt bearbeitet:
Die Karten sind noch lange nicht teuer genug, wenn man sich anschaut wie hoch das Interesse in solchen News immer ist.

Vor allem da laut diverser Nvidis Fanboys gar nicht mehrbals 12Gb nötig sind für High End Karten :D
 
Ob die nun 12, 16 oder wegen mir 36 GiB Speicher hat, sobald RTX 4000 da ist, wird doch eh wieder aufgerüstet :ka:
Genau das ist auch ein wichtiger Grund. Den allermeisten Enthusiasten/High End Käufern reichen 8-12GB sowiso zweifelsohne, da spielt es kaum eine Rolle nur weil mal ein aktueller Titel 2 Bit mehr benötigt.

Für die jenigen die Langfristiger kaufen über 1,2 oder mehr Genrationen für die macht es unter Umständen aber sehr wohl einen Unterschied. Ob High End und viel VRAM oder Midrange.

Bleiben die Preise so kaufe ich allerfrühstens die Nächste oder Übernächste Generation- und Spiele bis dahin eben N64 auf 100 Zoll Leinwand @1080p um gleichen Texturen am PC aus dem Weg zu gehen..., damit das Feeling auch zum Anblick des genutzten Gerätes passt.;):ugly::ugly:-Spaß mit ner Priese ernst.
 
Ob die nun 12, 16 oder wegen mir 36 GiB Speicher hat, sobald RTX 4000 da ist, wird doch eh wieder aufgerüstet :ka:
Ich hab mir gestern eine RTX 3080 Ti gegönnt, nachdem meine GTX 1080 abgeraucht ist. Nach fünf Jahren. Ich bin mir ziemlich sicher, dass dieses Mal wieder mindestens eine Gen ausgelassen werden kann. Ich gehe auch fest davon aus, dass durch Features wie DLSS durchaus noch einige Zeit an Nutzen mehr drin sein dürften.

Teuer genug war das Ding (leider) und da sollten sich selbst Enthusiasten zweimal überlegen, ob sie noch mal nächstes Jahr oder übernächstes Jahr aufrüsten wollen. :ugly:

Was? Ich habe heute schon spiele gehabt die an den 11Gigs meiner 2080Ti verreckt sind.
Mir fällt spontan kein Spiel ein, dass 11GB zum Frühstück frisst. Oder spielst du in UHD? Zugegeben, ich spiele in WQHD, aber die 8GB meiner ehemaligen GTX1080 waren bisher immer ausreichend.

Noch nie war eine TI überflüssiger wir diese.
Dann lieber gleich zu 3090 greifen.
Und dafür gleich mal 500 Euro mehr zahlen für vielleicht 4% mehr Leistung und VRAM, der auch in den nächsten Jahren vollkommen überdimensioniert ist oder früher oder später sowieso zweckfrei ist, weil die Leistung der GPU irgendwann nicht mehr den eigenen Ansprüchen gerecht werden kann.
 
Starfield kommt Ende nächstes Jahr und Stalker 2 kommt sogar noch früher.
Und dann verschiebt man und verschiebt, und verschiebt.

Bis wirkliches Next Gen Zeug kommt, dauerts noch mindestens 1 Gen an Grakas. Bis auf 4k reicht der Speicher der 3080 locker. Mit mehr DLSS wirds auch weniger ne Rolle spielen.

Ziehe eh UWQHD vor und da schafft weder Red Dead 2 auf Ultra noch was anderes es die 3080 auszulasten.
 
Zurück