RTX 3080 Ti: Release im Januar 2021 für 999 USD?

Noch nie hab ich mich so schwer getan eine neue Graka zu kaufen.
Ist doch dieses mal echt einfach. Ampere kannst im großen und ganzen in die Tonne pfeifen.
3090= zu teuer
3080TI = hätte, hätte, Fahrradkette. Wer weiß wann die kommt und zu welchem Preis. Ich denk unter 1100 € ist da nix und da kannst dir auch ne 6900XT holen
3080 = zu wenig Ram, enormer Verbrauch, 8nm Shit Prozess
3070 und darunter = zu wenig RAM, zu teuer

Das macht mir die Entscheidung sau einfach.
6800XT ist der Gewinner - 7nm, 16GB RAM, Spitzenleistung und RT
Wenn der Preis noch stimmt, war es das für mich erstmal 4 Jahre mit Nvidia.

Pascal-Nutzer sollen wechseln und genau das tue ich lederjacke. :schief:
 
Einfach mal zurücklehnen und bis Januar abwarten.
NV Karten sind eh nicht lieferbar und bei den neuen Karten von AMD wird es genauso sein.
Die Nachfrage ist einfach zu hoch.
Einfach den Markt sich stabilisieren lassen.
Eine 3080 Ti wäre schon interessant.
 
Als Nvidia ihre Karten präsentiert haben... kamen Lobgesänge...
"Oh 2080TI Leistung für 500.-- Euro" etc. Etc. Die grundsätzlichen Eckdaten klangen alle vielversprechend.

Dann kam der Release, Karten nicht verfügbar, Abstürze, Igors Hype wegen den Kondendstoren und nun auch wegen der Package Toleranzen. Und nun spricht man vom Totalausfall von Ampere...

Na was denkt ihr wie es bei AMD in 2 Monaten aussieht? Denkt ihr die werden keine Kinder Krankheiten haben, gut Lieferbar sein etc etc.

Auch AMD kocht mit Wasser... auch da werden berichte von usern mit Problemen kommen, und evtl. Findet Igor ja auch da etwas was er hypen kann.

Ampere ist für mich abgesehen von Vram immer noch eine gute Reihe, Leistungstechnisch gibts nix zu bemängeln.
 
Was soll das denn bringen? Es ist doch jetzt schon klar, dass nVidia kurz darauf schon Karten mit in 7nm gefertigten Chips bringen wird, wenn TSMC Kapazitäten frei hat (irgendwie wird nVidia sich da schon einkaufen). Das ist doch einfach nur der nächste Papiertiger der angekündigt wird, damit die Leute nicht jetzt schon eine AMD Karte kaufen weil von nVidia ja schon was "am Horizont"(trololol) ist.

Das ist alles einfach nur Realsatire. Täglich werden von Boardpartnern zig neue Modelle angekündigt, die alle in diesem Jahr nicht mehr real auf den Markt kommen. Und jetzt noch eine 3080TI? Mit dem selben Chip von Samsung? Ernsthaft?
 
Du solltest das "man" sinnvollerweise gegen ein "ich" tauschen, dann kann man mit deinem Post auch etwas anfangen auch wenn es dann nicht mehr als deine persönliche Ansicht darstellt und man nur hoffen kann das nicht jeder so was postet, denn ob einer nun rot, grün, lila, türkis oder fuchsia mag, ist nicht wirklich ein diskussionswürdiges Thema.
Für die Allgemeinheit wirst du jedoch trotz deines stringent verwendeten "man's" nicht sprechen. ;-)
Wer einen IQ über Zimmertemperatur hat und zudem in der Lage ist, den Kontext eines Beitrags zu erfassen (in diesem Falle den von mir zitierten Beitrag von Pu244, der "man" in exakt der gleichen Weise verwendet wie ich und an dessen Gebrauch dieses Worts ich in meiner Antwort einfach nur anschließe), dem ist auch klar, dass es sich hierbei trotz der Verwendung von "man" statt "ich" natürlich nur um subjektive Meinungen und Einschätzungen handelt. Von daher spar Dir doch einfach Dein pedantisches Geblubbere und nimm zur Kenntnis, dass mit der Verwendung von "man" nicht automatisch die Anmaßung verbunden sein muss, für "die Allgemeinheit" zu sprechen.
Es gibt Leute, denen kommt nichts anderes als eine Lewis 501 in den Schrank oder ans Bein, anderen dagegen reicht die 30-Euro-Jeans aus dem Kik. Der Markt ist da weitaus differenzierter strukturiert und dementsprechend gibt es mehr als genung Platz für die Hand voll GPUs, die die beiden großen Hersteller anbieten (bzw. bald anbieten werden).
Aha! Und was hat jetzt bitte das Thema Levi's vs. Kik-Jeans mit der Frage zu tun, was der Käufer einer 700-Euro-Grafikkarte üblicherweise oder mutmaßlich für Ansprüche an solch eine Karte hat?
 
Dann verwende doch einfach ein "ich" oder ist das ein psychologisch unüberwindbares Hindernis für dich?
Leute kaufen selbst in einer Produktkategorie mit vollkommen unterschiedlichen Absichten, kommen von unterschiedlichen Ausgangssituationen, haben völlig andere Preisvorstellungen und Bedürfnissen und dementsprechend gibt es da kein derart pauschalisierendes "man" (á la "jeder"). Dass es dich hier nun mit meiner Antwort "erwischt" hat, ist halt dein persönliches Pech. ;-) Da du aber derart frequent das "man" gebrauchtest, musst du mit so etwas rechen, insbesondere in einem öffentlichen Forum.
Das Problem ist schlicht, dass eine Vielzahl von Forenusern dieses verallgemeinernde "man" gerne als pseudoargumentativen Verstärker für teils schräge Behauptungen und rein persönliche Ansichten verwendet. Vielleicht war das tatsächlich nicht deine Absicht, aber dann lohnt es ggf. beim nächsten Post ein paar Sekunden mehr für die Formulierung aufzuwenden. ;-)

Und schlussendlich sorry, aber wenn du das Jeans-Beispiel nicht verstanden hast muss ich mich doch fragen, ob wir dann bei dem von dir zitieren "IQ über Zimmertemperatur" angekommen sind, wobei auch diese Formulierung (auf die Gefahr hin pedantisch zu wirken) sinnbefreit ist, da du lediglich eine unteren Grenzwert damit angibst, d. h. der IQ könnte bei 70 liegen, ebenso aber auch bspw. bei 150. ;-)
 
Zuletzt bearbeitet:
Bei NV bekommt man jede Genration was vernünftiges wird halt nur immer teurer. Nur weil AMD/ATI jetzt in 10 Jahren einmal was potentiell gleichwertiges liefern kann beginnt schon wieder der Abgesang auf NV.

Leute guckt euch mal die letzten GPU Generationen von AMD an. Da war nix brauchbares dabei.
Laber Laber Leberkäs ! Noch so ein Realitätsverweigerer à la Donald Trump bzgl. alles Fake NEWS und so ...

Nix brauchbares ?!? (siehe Anhang / Link) RX 580/90 - 1060,Vega 64 - 1080, Vega 56 - 1070, VII - 1080 Ti, 5700XT vs. 2070 Super !
Schneller und günstiger ergibt bei MIR zumindest ein besseres PL Verhältnis (FPS/€) welches bei "Deinem" Team Green schon immer "bekackt" war/ist.
Ja, saufen tuen sie (aber stört jetzt seit Ampere anscheinend auch keinen mehr) , und zu spät kamen diese jeweils.


MfG Föhn.
 

Anhänge

  • Bench .jpg
    Bench .jpg
    214,1 KB · Aufrufe: 65
Zuletzt bearbeitet von einem Moderator:
Also ich werde ganz bestimmt wieder bei NV zugreifen. Zumal alle halbwegs vernünftigen Monitore eh G-Sync haben. So lange es nicht mal einen HDR Monitor mir Freesync gibt kann AMD noch so tolle Karten auf den Markt bringen. 10 Jahre absolute Dominanz im GPU Markt haben halt ihre Spuren hinterlassen.

Ich freu mich auf die 3080Ti. Kann ich meine 3090 wieder zurückschicken und spare noch 600 Euro.
Diese pauschalen Falschbehauptungen, ohne vorher mal 5 Minuten in den Preisvergleich zu schauen, gehen mir echt auf den Sack...
Reichen dir 8 Monitore mit HDR 600 und Freesync Premium Pro?

Oder lieber die drei Monitore mit HDR 1000 und Freesync Premium Pro?

Wenn du bei den Features auf normales Freesync runter gehst, gibt es noch einen Monitor mehr, der HDR1000 beherrscht:

Selbst das teuerste Modell darunter kostet weniger als eine 3090.


Edit:
Zur Vollständigkeit mal die G-Sync Ultimate Monitore mit HDR100:

Immerhin deren 9 Monitore.
7 davon kosten mehr als eine 3090 real...
und 2 von denen kosten sogar das doppelte einer 3090.

Das ist dann wohl der "Ultimate" Aufschlag.

Oh, die 2 Modelle unter €2000 sollen nicht unerwähnt bleiben... eines für knapp €1640 und das andere für knapp unter €1900.
Tjoa....
 
Zuletzt bearbeitet:
Dann verwende doch einfach ein "ich" oder ist das ein psychologisch unüberwindbares Hindernis für dich?
Dann hör doch einfach auf, den Leuten mit einer unerträglichen Mischung aus mangelndem Sprachverständnis und penetranter Pedanterie ans Bein zu pinkeln, oder reicht dafür Deine Impulskontrolle nicht aus? Ich traue den Lesern dieses Forums zu, mein "man" genau so zu interpretieren und zu verstehen, wie es von mir gemeint war. Wenn Dir das nicht gelingt, ist das exklusiv Dein Problem.

Ich halte die Einschätzung, dass man an eine 700-Euro-Karte einen anderen Anspruch hat als an eine 300-Euro-Karte, für plausibel genug, um das für die Regel und nicht für die Ausnahme zu halten, und um das auch sprachlich zum Ausdruck zu bringen, schreibe ich konsequenterweise "man" statt "ich". Damit signalisiere ich einfach nur meine persönliche Einschätzung und Erwartung, mit dieser Beurteilung nicht ganz alleine zu sein. Dass ich mit dieser Einschätzung falsch liegen kann, versteht sich von selbst, aber das wird durch den Gebrauch von "man" auch in keinster Weise ausgeschlossen.

Der Gebrauch von "man" signalisiert NICHT das Postulieren unumstößlicher Wahrheiten, sondern schlicht die Erwartung, dass eine bestimmte Beurteilung von einigen/vielen geteilt wird. Sollte diese Erwartung tatsächlich falsch sein, kann und soll man das natürlich kritisieren, aber eben nicht dadurch, dass man den Gebrauch von "man" bemängelt, sondern dadurch, dass man darlegt, was mit besagter Beurteilung inhaltlich nicht stimmt.
 
Trotz Namen also eine 3090 mit weniger RAM und niedrigerem Takt um die TDP zu halten. Da ja die 3080 und 3090 leistungsmäßig ziemlich nah beieinander lagen, darf ich also für die quasi-3080 mit doppeltem RAM jetzt nicht nur den RAM Aufschlag zahlen sondern auch noch einen Leistungszuschlag für eine Zusatzperformance, bei der sich vermutlich bei PCGH-Redakteure ordentlich werden anstrengen müssen, um das überhaupt sauber rausmessen zu können.
Da finde ich das AMD-Angebot mit der 6800XT und ihren 16 GB VRAM für klar weniger Geld deutlich überzeugender. Vor allem wird dabei das nicht-Spiele spielen mit den Kunden belohnt. Eine 3080 mit mind. 14 GB RAM hätte ich glatt ja gekauft für den bisherhigen UV vermutlich auch für einen 100er mehr. 10 GB lass ich mir nicht unterjubeln. 20 GB brauche ich aber auch nicht. Alleine dafür 300 € Aufschlag ist schwer zu rechtferigen.
 
Ampere hat die geringsten Performance/Watt Verbesserung seit ... quasi immer. Die Performance ist nur auf Kosten der Stromaufnahme gestiegen. Selbst die 3070 sieht für mich unbrauchbar aus. War nicht noch bei der 1000 Serie und der 900 Serie von Rede dass sie die allgemeine Stromaufnahme senken wollen, da sie sich ja auch um die Umwelt Gedanken machen? Mit der 2000 Serie war das schon wieder vergessen und jetzt haben wir hier 300W+ Kaliber.
Die Stromkosten in D sind einfach zu hoch für solche Watt-Zahlen!
 
Diese pauschalen Falschbehauptungen, ohne vorher mal 5 Minuten in den Preisvergleich zu schauen, gehen mir echt auf den Sack...
Reichen dir 8 Monitore mit HDR 600 und Freesync Premium Pro?

Oder lieber die drei Monitore mit HDR 1000 und Freesync Premium Pro?

Wenn du bei den Features auf normales Freesync runter gehst, gibt es noch einen Monitor mehr, der HDR1000 beherrscht:

Selbst das teuerste Modell darunter kostet weniger als eine 3090.


Edit:
Zur Vollständigkeit mal die G-Sync Ultimate Monitore mit HDR100:

Immerhin deren 9 Monitore.
7 davon kosten mehr als eine 3090 real...
und 2 von denen kosten sogar das doppelte einer 3090.

Das ist dann wohl der "Ultimate" Aufschlag.

Oh, die 2 Modelle unter €2000 sollen nicht unerwähnt bleiben... eines für knapp €1640 und das andere für knapp unter €1900.
Tjoa....

Die Monitore sind alle Müll sry aber die Fake HDR Teile mit 8 Dimming Zonen kannst du echt vergessen. Auf das alberne HDR 600 gehe ich erst garnicht ein.

Guck die mal die Teile an die du da im Preisvergleich gefunden hast. Es gibt für Freesync keinen HDR Monitor der diese Bezeichnung verdient
Laber Laber Leberkäs ! Noch so ein Realitätsverweigerer à la Donald Trump bzgl. alles Fake NEWS und so ...

Nix brauchbares ?!? (siehe Anhang / Link) Vega 64 - 1080, Vega 56 - 1070, VII - 1080 Ti, 5700XT vs. 2070 Super !
Schneller und günstiger ergibt bei MIR zumindest ein besseres PL Verhältnis (FPS/€) welches bei "Deinem" Team Green schon immer "bekackt" war/ist.
Ja, saufen tuen sie (aber stört jetzt seit Ampere anscheinend auch keinen mehr) , und zu spät kamen diese jeweils.


MfG Föhn.

Wer hier labert lasse ich mal stehen. Vega 64 war ein totaler Flop und das sagen alle Tests. Die VII kam wann raus? Abseits davon das sie nach 6 Monaten EOL war. Aber klar was ne tolle Karte nur 2 Jahre zu spät ?

Die 5700xt als Top Karte rangelt sich mit der NV Mittelklasse . Wahnsinn was eine eindrucksvolle Karte.

Stimmt alle deine genannten Karten sind echt der Hammer. Wundert mich echt wie NV nur so einem Marktanteil schafft. Das kann nur am Marketing und den dummen NV Anhängern liegen ?
 
Zuletzt bearbeitet:
So ungern ich auch da Nvidia unterstützen will, aber wenn man halbwegs vernünftiges HDR bei nem Monitor haben will, bleiben nur die Gsync Ultimate Monitore.
 
Die Monitore sind alle Müll sry aber die Fake HDR Teile mit 8 Dimming Zonen kannst du echt vergessen. Auf das alberne HDR 600 gehe ich erst garnicht ein.

Guck die mal die Teile an die du da im Preisvergleich gefunden hast. Es gibt für Freesync keinen HDR Monitor der diese Bezeichnung verdient


Wer hier labert lasse ich mal stehen. Vega 64 war ein totaler Flop und das sagen alle Tests. Die VII kam wann raus? Abseits davon das sie nach 6 Monaten EOL war. Aber klar was ne tolle Karte nur 2 Jahre zu spät ?

Die 5700xt als Top Karte rangelt sich mit der NV Mittelklasse . Wahnsinn was eine eindrucksvolle Karte.

Stimmt alle deine genannten Karten sind echt der Hammer. Wundert mich echt wie NV nur so einem Marktanteil schafft. Das kann nur am Marketing und den dummen NV Anhängern liegen ?

Marktanteil weil keine Konkurrenz. Und ja die beinharten Orks vom grünen Auge sind leicht retardiert. Da wird ja von der verkrüppelten 970, über die Treiber bis zum Paperlaunch alles durchgewunken und gerne pro Generation 60% Aufpreis bezahlt. Jetzt erzählt man sich den Mythos der 700 Euro 3080, obwohl nur 3 Leute weltweit diese erhalten haben, realer Preis war da wo Jensen Lederstrumpf ihn haben wollte. Jetzt hoffen Sie das die ausgehungerten Fans zur 1300 Euro (denn das werden real die Customs kosten) Ti greifen.

Ich hoffe wirklich AMD hat nach der vermurksten 5700Xt mit ihren Treiberprobs und Blacksscreens was in der Pipeline, das dem Jens graue Haare beschert.

Raytracing? DLSS? Von was wird das unterstützt? Sind doch nur solche Luftargumente. Raytracing steckt in den Kinderschuhen, kostet zuviel Performance und macht Spiele oft nichtmal hübscher wenns ums Licht geht. Von den Techdemos wo wirklich alles reflektiert red ich nicht. Momentan ist es nur interessant wenn man alte Gurken aufhübschen will. Da reden wir dann bei der Generation 5090 nochmal drüber, momentan rangiert es auf einer Bedeutungsstufe mit Hairworks. Wird viel drüber geredet, aber ne sinnvolle Anwendung ist nicht in Sicht.

Ich hoffe das AMD da was bringt, damit dieses A*****lochverhalten von Nvidia aufhört. Klar sie hatten die besseren Karten, aber die Kundenverarsche über Jahre ist untragbar.
 
Jetzt erzählt man sich den Mythos der 700 Euro 3080, obwohl nur 3 Leute weltweit diese erhalten haben, realer Preis war da wo Jensen Lederstrumpf ihn haben wollte.

Ich finde es ja lustig wie Leute wie du das weiterhin glauben und einfach nicht verstehen, dass NVIDIA die Karten zu festen Preisen an die Bordpartner gibt, diese eine UVP machen und es dann erst an Großhändler und Händler geht und diese letztendlich erst den Preis machen den jeder zahlen muss.
Falls du den Schuldigen der „realen“ Preise der 3080 suchst solltest du eventuell mal ein Auge auf die Händler, ala Caseking, Alternate etc. werfen die diese absurden Margen einstreichen.
Und nein das hat noch nicht einmal etwas mit der Menge zu tun die die Händler geliefert bekommen. Sie spekulieren eben nur auf die Kunden die keine 2-3 Monate abwarten wollen und bereit sind quasi jeden Preis zu zahlen.
 
Natürlich sind die Nvidia Karten viel geiler als die alljährliche AMD-Verarsche - soweit sind wir uns hier ja alle einig....einzig der Speicher ist bei manchen AMD Modellen besser....welche ja mit Rohleistung strotzen obwohl die Rohleistung 60% geringer zum jeweiligen Konkurrenten ausfällt............auf 2020 Grafik möchte ich zudem beim Upgrade dieses Jahr auch nicht verzichten, weshalb ich meine rote Brille lieber weg lege und mich in schier endlosere Geduld übe.....999€ - sischer dat! (in einem Jahr evtl)
 
Ich finde es ja lustig wie Leute wie du das weiterhin glauben und einfach nicht verstehen, dass NVIDIA die Karten zu festen Preisen an die Bordpartner gibt, diese eine UVP machen und es dann erst an Großhändler und Händler geht und diese letztendlich erst den Preis machen den jeder zahlen muss.
Falls du den Schuldigen der „realen“ Preise der 3080 suchst solltest du eventuell mal ein Auge auf die Händler, ala Caseking, Alternate etc. werfen die diese absurden Margen einstreichen.
Und nein das hat noch nicht einmal etwas mit der Menge zu tun die die Händler geliefert bekommen. Sie spekulieren eben nur auf die Kunden die keine 2-3 Monate abwarten wollen und bereit sind quasi jeden Preis zu zahlen.

^ Nein, nein... wenn AMD CPUs wie der Ryzen 3950 und Ryzen 3900 über Monate -wenn überhaupt- nur zu Mondpreisen lieferbar sind, dann ist dies natürlich die Schuld der gierig-schmierigen Händler-Mafia.
Wenn aber nVidia oder Intel Produkte bei schlechter Lieferbarkeit nur zu Mondpreisen zu bekommen sind, dann ist dies selbstredend einzig und allein die Schuld von nVidia und Intel.

Wenn Du das nicht sehen kannst, dann bist Du bestimmt auch "retardiert". Du solltest da schon den Leuten Glauben schenken, die so super originelle Namen wie "Jensen Lederstrumpf" für den nVidia CEO auf Lager haben. Die geistige Reife solcher Personen sollte man schon neidlos anerkennen können.
 
Zurück