News Vorerst nur in den USA: Teilweise heftige Preissenkungen für RTX 3080

Dieser VRAM Hunger ist aber der neue Trend und der wird eher schlimmer als besser. Die meisten kaufen sich eine GPU nun mal nicht nur für ein Jahr, sondern für mehrere und dann nimmt man lieber mehr VRAM als zu wenig.
das ist doch abhängig von vielen Faktoren. Gerade in so einer Situation würde ich (vermutlich viele andere auch) eher 2x 450, nämlich jetzt und dann ein weiteres mal bei der übernächste Gen für 16/20 GB ausgeben als 899 einmal und dann mit 12 gb leben und keinen weiteren Leistungsschub. Darüberhinaus wette ich dass mit der 3080 alles noch in 2 Jahren gut spielbar sein wird bis WQHD.
Eben halt nicht mit maxed out sondern hohen presets und rt mittel/hoch. Da bin ich mir sicher!
 
Realtiät... für die 20 Spiele die es unterstützen juckt es mich genau 0,0.

0,0 ist das Deine Promille? Was Du meinst ist mir auch völlig wurst, denn darum ging es gar nicht.
Es ging darum das abgeschriebene Gerümpel von der NV-Resterampe (mal) nicht zu kaufen. Bspw. mit 10 GB VRAM kannste - bald - vergessen.
1. Es geht darum was NV mit DLSS vielleicht noch was erreichen könnte um diese VRAM-Lappen mittelfristig zu unterstützen. Wahrscheinlich kommt da nicht mehr viel an DLSS 2 /3/egal für die alten Gurken weil das 30-Zeugs von NV schon längs abgeschrieben ist. Bringt keine Kohle mehr! Kunden egal, so mein bisheriger Eindruck.
2. Macht NV nix, gehts den so korru*ten Spieleschmieden auch am A*sch vorbei. Wer unterstützt diese Karten noch? Und Kunden: sowieso egal. Da ändert sich auch nix mehr an diesem AaaaaAAaaaAAAaaAAAAaAAAAA-Gerümpel!
3. Solls NV sein lassen und mich mal kreuzweise sonstwo: Hier 0,0. Kauf ich mir ne neue Karte. Juckt mich das? 0,0
4. FSR ist dann deutlich besser! Ich kaufe dann ne NV bei diesem Support? Ne! AMD: Ja!
5. Juckt das NV? Ja, wenn die Resterampe nicht hirnlos abverkauft werden kann! Das geschieht nur wenn die Leutchen sich nicht mehr von diesen NV-Z*ckern veräppeln lassen und der E-Schrott (1-2 Jahre) endlich mal liegenbleibt! Bei 0,0 wird das wohl nix.
4. 0,0 ist völliger Blödsinn bzw. Geschmackssache denn andere Leutchen wollen einen DLSS-Support oder eben nicht. Das können sie viel besser als Du entscheiden! Auch die Spieleindustrie kann das besser, wenn sie will.
5. Und die 30-Serie-Kunden sind Premiumkunden. Mit denen sollte es sich keiner verscherzen! Außer man(n) ist total schwachsinnig. Aber das kommt ja zu oft vor.


Deshalb meine Schlussfolgerung: Selbst 500 Tacken sind für ne Billig-3080 zuviel wenns keinen DLSS-Support mehr für die RTX-30-Serie gibt. Technisch betrachtet sind das dann Auslaufmodelle, so auch NV. Stimmt: Kauf ne 4080 etc. blabla und wie langweilig. Immer das gleiche Marketinggequatsche. Was kommt danach ist die Frage: 0,0! :lol:

AMD möchte ich freundlichst bitten es besser zu machen! Bitte habt ein guten Support! Macht was an den Treibern und entwickelt FSR - auch als Open-Source - weiter!


Und unterstützt die Indie-Spiele-Programmier*innen bei der Entwicklung ihrer Games etc.!

Zu: AaaaaAAaaaAAAaaAAAAaAAAAA:
 

17.09.2020 - da wurde die Karte hier getestet. Heute dürfte "sowas" eigentlich nur noch ab ~300€ kosten. Selbst 500€ wären für so eine alte GPU eigentlich noch deutlich zu viel.


Stattdessen kostet das günstigste lieferbare Modell jetzt gerade 789€. Die UVP war seinerzeit bei (schon überzogenen...) 699€. Wie weiter vorne schon mehrfach geschieben, selbst wenn es die Karte jetzt ab 500€ geben würde, wäre das eher der normale Preis zum Release (oder kurz danach), aber sicher nicht nach über 2 Jahren.
 
Zwei Tage später nach der Nachricht: Günstigste verfügbare 3080 10GB ist MSI GeForce RTX 3080 VENTUS 3X 10G OC. Kostenpunkt: 1029USD bei Amazon.com. Satte 330USD über MSRP. Ich wittere fake news. Nahe am Dreifachen von den im Artikel kolportieren 419USD. Die 4070TI ist da ja noch attraktiver.
 
Die 3080 war/ist die unattraktivste Ampere-Karte und das nur wegen der "kleinen" VRAM Menge.
Die 3080 war die beste RTX3000 Karte... Man konnte die ja nunmal auch zur UVP Kaufen, wenn auch kurz und danach nur sporadisch. Dennoch, zur UVP unschlagbar und schlägt auch heute noch eine 6900XT um 17%, wenn man alle Spiele mit einbezieht. Also auch RT, alles andere wäre auch Cherrypicking.( IN 1440P)


Da ist es unerheblich, ob es im Jahr zwei große Spiele gibt, die aufgrund des knappen (was ja wirklich so ist) Vrams vielleicht schlechter laufen, oder mit der Lupe schlechter aussehen. (Man kann Texturen ja nicht nur vom Maximum zum Minimum stellen ;)

@PCGH Hierzu ein Spezial, oder Heftartikel. Nicht nur wie sich die Speicherbelegung entwickelt hat, sondern der tatsächliche Bedarf, in den speicherhungriegsten Spielen bei den Textureinstellungen vom Maximum zum Minimum. Dazu reichen zwei, maximal vier GPUs und zwei, drei Spiele in zum Beispiel 1440p, oder 1440p und 4k.
Weil NVIDIA GDDR6X Speicher verbaut und AMD nur GDDR6.
Sprich, der verbaute Speicher des aktuellen, grünen Line Ups ist bis jetzt schneller (weiß nicht welchen Speicher die 60er bekommen sollen)!
Macht das wirklich einen größeren Unterschied in diesem Fall? (Das es generell die Performance verbessert ist klar)

Woher kommen die Daten die in den VRam müssen, wenn der zu voll war. Die kommen doch dann aus dem Systemspeicher, oder nicht? Oder im schlimmsten Fall von einer SSD. Hier müssten doch dann eher PCIe5.0 SSDs Verbesserungen, sowie DDR5 mit möglichst hohem Takt.

17.09.2020 - da wurde die Karte hier getestet. Heute dürfte "sowas" eigentlich nur noch ab ~300€ kosten. Selbst 500€ wären für so eine alte GPU eigentlich noch deutlich zu viel.


Stattdessen kostet das günstigste lieferbare Modell jetzt gerade 789€. Die UVP war seinerzeit bei (schon überzogenen...) 699€. Wie weiter vorne schon mehrfach geschieben, selbst wenn es die Karte jetzt ab 500€ geben würde, wäre das eher der normale Preis zum Release (oder kurz danach), aber sicher nicht nach über 2 Jahren.
Bin voll bei dir, die Preise sind ein Witz. Woher kommen diese Preise für alte Hardware...

Jedoch waren die 699€ doch wohl eher normale Preissteigerung. Ein bisschen teurer wird alles, doch schon über die Zeit. Auch vor dem Hintergrund, das die 3090 nur 14% schneller war in 4k.
 
Zuletzt bearbeitet:
das hat einfach Metode bei Nvidia die verkaufen absichtlich Speicherkrüppel damit die Karten schneller altern und sie neue verkaufen können.
Das ist doch Unsinn, eine 3080 schlägt heute noch eine 6900XT aus der gleichen Gen um knapp 20%. Was bringen dir mehr Vram am Ende, wenn AMD dafür keine Leistung auf die Straße bringt, in Szenarien, wo der Vram dann auch benötigt wird? Hat man ja bei Hogwarts Legacy gesehen, nur mit Raytracing aktiviert kommt die 3080 da ins Schleudern, wegen dem Vram. Die 6000er von AMD hätten genug Vram, da kannst du es aber dann sowieso nicht nutzen, weil die Framerate dann brachial in den Keller geht. Ist am Ende egal, was du kaufst, beides bringt dir schon nix mehr.
 
Tja, dann spiel mal die richtigen Spiele mit Raytracing. Das die 10GB für WQHD mit max Details ein Flaschenhals sind ist ein Fakt, das wurde hier auf PCGH auch damals zu Release der Karte schon nachgewiesen. Für Hogwarts Legacy reichen ja sogar kaum die 12 GB der 4070 Ti in WQHD. Und das wird in der nächsten Zeit noch schlimmer werden.

Wirklich zukunftssicher ist man selbst für WQHD leider nur mit 16GB.
Nein, denn auch bei AMD bist du mit 16GB nicht zukunftsicher.

Man schaue sich mal die Tests der 4070TI an. Dann wird deutlich das man einen Tot sterben muss. Bei Nvidia ist es eben der Vram. Bei AMD werden viele Karten die hier gelobt werden frühzeitig an ihrer RT Schwäche altern.


Ich höre in letzter Zeit hier immer nur noch Zukunft. Was in zwei Jahren ist, kann hier keiner sagen.

Es müssen erstmal noch ein paar Spiele raus kommen, die auf neue Basis entwickelt wurden. Dann kann man sehen. Wie es in der nahen Zukunft aussieht.

Ja, es wird mehr Speicher gebraucht.

Die Frage bleibt, was ist besser... Die Texturen ein, bis zwei Grade runter zu stellen, oder RT runter zustellen, oder zu deaktiveren.

Optisch wird sich das im Normalfall nicht viel nehmen.
 
Man schaue sich mal die Tests der 4070TI an. Dann wird deutlich das man einen Tot sterben muss. Bei Nvidia ist es eben der Vram. Bei AMD werden viele Karten die hier gelobt werden frühzeitig an ihrer RT Schwäche altern.
Du stellst RT ja geradezu als ebenso wichtig wie VRAM dar.

Selbst wenn es so wichtig wäre (was es bei Weitem nicht ist), ist AMD hier nominell zwar schwächer unterwegs, hat in der absoluten Leistung mit 7900XT(X) aber doch klar auf NVIDIA Vorgänger Generation aufgeschlossen, die bis vor Kurzem noch das Maß der Dinge war.
Damit müssten diese dann ja doppelt obsolet werden sein: Schlechtes RT und wenig VRAM - das bringst Du aber nicht ein, warum?

Klingt für mich wenig neutral und ausgewogen.

Ebenso wenig waren die 3000er flächig für die UVP verfügbar. Der Markt (Mining / Scalper, später auch NVIDIA selbst) hatte durch die Bank über einen langen Zeitraum bis heute völlig überhöhte Preise.
Somit hatte die überpreiste Vorgängergeneration nur auf dem Papier eine attraktive UVP und begründet / stützt nun die Preispolitik der 4000er Serie. Warum gibt es wohl noch keine kleinere Karte als die 4070ti?
Das gewünschte Preisgefüge lässt sich bei gleichzeitigem hochpreisigen Abverkauf der alten Serie nicht sinnvoll aufbauen.

Ich lese hier von gewissen Usern sehr wenig Reflektion und Kritik dieser kundenunfreundlichen Vorgehensweise, die der Wettbewerb (AMD) natürlich gerne aufnimmt und sich in den Windschatten hängt. Schlechte Entwicklung für alle.

Hier, schau Dir die Preis/Leistungsentwicklung anhand der 70er Reihe von NVIDIA doch einmal an:
Habe mir erlaubt, die Preise und relativen Leistungen zum jew. Vorgängermodell einmal zu listen.
Alle Werte sind den PCGH Testveröffentlichungen entnommen, wobei anzumerken ist, dass die älteren Modelle noch kein adäquates Leistungsranking aufweisen und die jew. Spielebenchmarks gemittelt wurden. Die RTX 2070 weist eine auffällig starke Streuung der Leistungsdifferenzen auf zwischen etwa 10% und tlw. 60%, mit klarer Tendenz zum kleineren Wert.
Beim Test der 4070ti (mangels echter RTX 4070 in der Liste) wurde übrigens leider keine RTX 3070 in der Tabelle aufgeführt, ist, so dass die gleichschnelle 2080ti herangezogen wurde.
JahrModellVRAMUVPDiff UVP zum jew. VorgängerDiff Leistung zum jew. Vorgänger
2013GTX 7702 GB390,00 €n.a.n.a.
2014GTX 9703,5 + 0,5 GB330,00 €-15%25%
2016GTX 10708 GB500,00 €52%55%
2018RTX 20708 GB519,00 €4%30%
2020RTX 30708 GB499,00 €-4%45%
2023RTX 4070ti12 GB899,00 €80%50%
 
Zuletzt bearbeitet:
Du stellst RT ja geradezu als ebenso wichtig wie VRAM dar.

Selbst wenn es so wichtig wäre (was es bei Weitem nicht ist), ist AMD hier nominell zwar schwächer unterwegs, hat in der absoluten Leistung mit 7900XT(X) aber doch klar auf NVIDIA Vorgänger Generation aufgeschlossen, die bis vor Kurzem noch das Maß der Dinge war.
Damit müssten diese dann ja doppelt obsolet werden sein: Schlechtes RT und wenig VRAM - das bringst Du aber nicht ein, warum?

Klingt für mich wenig neutral und ausgewogen.

Ebenso wenig waren die 3000er flächig für die UVP verfügbar. Der Markt (Mining / Scalper, später auch NVIDIA selbst) hatte durch die Bank über einen langen Zeitraum bis heute völlig überhöhte Preise.
Somit hatte die überpreiste Vorgängergeneration nur auf dem Papier eine attraktive UVP und begründet / stützt nun die Preispolitik der 4000er Serie. Warum gibt es wohl noch keine kleinere Karte als die 4070ti?
Das gewünschte Preisgefüge lässt sich bei gleichzeitigem hochpreisigen Abverkauf der alten Serie nicht sinnvoll aufbauen.

Ich lese hier von gewissen Usern sehr wenig Reflektion und Kritik dieser kundenunfreundlichen Vorgehensweise, die der Wettbewerb (AMD) natürlich gerne aufnimmt und sich in den Windschatten hängt. Schlechte Entwicklung für alle.

Hier, schau Dir die Preis/Leistungsentwicklung anhand der 70er Reihe von NVIDIA doch einmal an:
Habe mir erlaubt, die Preise und relativen Leistungen zum jew. Vorgängermodell einmal zu listen.
Alle Werte sind den PCGH Testveröffentlichungen entnommen, wobei anzumerken ist, dass die älteren Modelle noch kein adäquates Leistungsranking aufweisen und die jew. Spielebenchmarks gemittelt wurden. Die RTX 2070 weist eine auffällig starke Streuung der Leistungsdifferenzen auf zwischen etwa 10% und tlw. 60%, mit klarer Tendenz zum kleineren Wert.
Beim Test der 4070ti (mangels echter RTX 4070 in der Liste) wurde übrigens leider keine RTX 3070 in der Tabelle aufgeführt, ist, so dass die gleichschnelle 2080ti herangezogen wurde.
JahrModellVRAMUVPDiff UVP zum jew. VorgängerDiff Leistung zum jew. Vorgänger
2013GTX 7702 GB390,00 €n.a.n.a.
2014GTX 9703,5 + 0,5 GB330,00 €-15%25%
2016GTX 10708 GB500,00 €52%55%
2018RTX 20708 GB519,00 €4%30%
2020RTX 30708 GB499,00 €-4%45%
2023RTX 4070ti12 GB899,00 €80%50%
Das kling nicht neutral, allein schon das du deine Wertung zu RT Details mit einbringst.

Es ist so, das es mehr Spiele in den letzten zwei Jahren gab, die bei AMD nicht spielbar waren (mit max Details, was auch RT inklusive bedeutet), als bei Nvidia (wegen zu wenig VRam).

Den opitschen Unterschied von Höchste Texturestufe zur zweihöchsten, oder gar mittleren stelle ich auf eine Stufe mit RT Details hoch/runter, oder aus. Es stellt beides einen annehmbaren Kompromiss da.

AMD hat nicht wirklich aufgeholt. Im Mittel der RT fähigen Spiele ist eine 4070TI schneller als eine 7900XTX.

Das nenne ich nicht dicht dran. Genau genommen ist die Situation gleich geblieben.
Die 3080 liegt 23% vor der 6900XT.
Die 4080 liegt 24% vor der 7900XTX, wenn man RT mit einbezieht.


Die Preisargumentation ist hinfällig, da AMD die Preise mitgeht und nur das billiger ist, das man auch schlechter ist. P/L ist nahezu gleich.

Kritik daran habe ich immer wieder geäußert, bei beiden Herstellern. Das die UVP bei AMD und Nvidia derart angestiegen ist, ist nicht zu rechtfertigen und ein Grund, warum ich auch vom Kauf eigentlich abschrecke. Dennoch werde ich mir in nicht all zu ferner Zukunft eine gebrauchte 3090(TI), oder eine neue 4070TI, oder eine 7900XT kaufen.

Ich würde gerne eine 7900XT kaufen und (spaßiger Weise, meine AMD Aktien damit noch unterstützen[nur ein paar]) die 20GB zu schätzen wissen. Auch die schwächere RT Leistung hielte mich nicht davon ab, da ich die Leistung nur für VR wirklich brauche, da ich ansonsten wieder nur in 1080p zocke, vielleicht demnächst mal 1440p, aber mir reichen auch mittlere, bis hohe Details. Also sollte eine 7900XT und eine 4070Ti, wie auch eine 3090 meinen Ansprüchen für den Flat Screen locker reichen.

Jedoch in VR (DCS und Quest 2, das ist halt die Priorität, das sind mehr als 90% der Zockerzeit) ist die 7900XT nicht so gut aufgestellt(geht da wirklich nur um DCS, in Komboi mit der Quest 2). Soweit mir bekannt.

Somit tendiere ich zu einer 4070ti, oder einer 3090.

Das ist meine persönliche Sichtweise. Die neutrale Sichtweise habe ich ja zuvor schon geschrieben.
 
Da kann man mal sehen, welche Gier Aufschläge da drauf sind und was möglich ist. Ich würde gerne mal wissen, ob die neuen Preise der Einkaufspreis ist.
Aber auch egal. Leider ändert sich ja unten nichts oder nicht genug. Ich schätze mal, bis zum Sommer-Herbst wird es so einige spannende Preisentwicklungen geben.^^
 
das ist doch abhängig von vielen Faktoren. Gerade in so einer Situation würde ich (vermutlich viele andere auch) eher 2x 450, nämlich jetzt und dann ein weiteres mal bei der übernächste Gen für 16/20 GB ausgeben als 899 einmal und dann mit 12 gb leben und keinen weiteren Leistungsschub. Darüberhinaus wette ich dass mit der 3080 alles noch in 2 Jahren gut spielbar sein wird bis WQHD.
Eben halt nicht mit maxed out sondern hohen presets und rt mittel/hoch. Da bin ich mir sicher!
Mensch Jackie, da sagst du was. Also mal angenommen ich käme mit 12GB VRAM nicht zurecht, bin ich zu blöd für irgendwas. Das geht auch billiger, nur gute Hardware zum Ramschpreis raushauen, da mache ich nicht mit. Dann lieber die Spieler im Regen stehen lassen, die dann ihrerseits weniger hochanfordernde neue AAA Spiele spielen, sondern anständig sich ihre Grafikkarte erwirtschaften, hoffentlich sinnstiftend im Sinne der Aufrüstmatrix. Um als Unternehmen zu überleben, muss man auch Kundenwünsche ignorieren, Jensen von Nvidia sagte das ja in 2011.
Jetzt sind wir also so weit, dass man GPUs erst dann zu vernünftigen Preisen kaufen kann, wenn der Nachfolger ein halbes Jahr draußen ist.
Viel besser also, als für 499€ eine RTX 3070 FE nicht kaufen zu können. ;)

--------------------------------------------------------------------

Im Wesentlichen begegnet uns die gleiche Problemstellung: Es ist noch nicht durchgedrungen, dass Preise abseits der UVP allgemein gesprochen Scalper-Preise sind und Nvidia damit nichts zu tun hat. Außerdem geben die AIB Partner jetzt mehr Geld aus führ ihre Kühllösungen, um ihrerseits auch mehr Einnahmen zu bekommen. Bestes Beispiel dafür ist die bunte Produktpalette bei der 4070 Ti. Wer faire Löhne für alle nicht gut findet, ist eine Spieler ohne Hirn oder hat einen Hass auf die Entwickler und Hersteller der Hardware anstatt auf die Alliierten oder so...auf seine Mitmenschen...was weiß ich.

Es gibt Szenarien, in denen Frame Generation und ein niedrigerer VRAM Bedarf sich im Wege stehen, klar, nur erklärt Phil im Video auch anhand einer Radeon RX 6600 XT und Harry Potter: Hogwarts Legacy, wie man den Speicherbedarf senken kann, ohne nennenswerte Einbußen bei der Bildqualität zu bemerken, womit sich für mich auch diese Problematik in Luft auflöst.

@FKY2000 : Nach diesem Namensschema müsste dann die GTX 1650, die schneller ist als eine GTX 770, entweder eine niedrigere UVP, einen niedrigeren Preis, haben, was der Fall ist oder aber bei der gleichen UVP müsste sie dann (R)TX 2070 heißen zur gleichen UVP der GTX 770. In beiden Fällen ist sie schneller und sparsamer mit mehr Features. Das kann man auf weitere Grafikkarten in der Tabelle anwenden. Wer immer den gleichen Preis fordert, bringt das Namensschema durcheinander und würde vermutlich beim einen oder anderen Lieblingsbenchmark traurig sein über nur moderate Verbesserungen von einer Generation zur nächsten. Und wie kommt man eigentlich auf die Idee, die 4070 Ti, die ja eine 4080 mit 12GB ist, als Nachfolger einer 3070 zu sehen, wenn die 3070 der Vorgänger der längst angekündigten 4070 ist. Zumindest muss so etwas nicht in der Tabelle stehen, zum Preis dass man die ganz aktuelle Entwicklung ausklammert. Das passiert mir auch ständig.

Also es gibt da noch leichte Probleme aufgrund unterschiedlicher Sichtweisen. Das ist völlig okay, nur lohnt es sich auf Details zu achten und so kommt man dann zu ganz anderen Schlussfolgerungen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

@xxxxx1 : Ja, das hängt ganz von der Wahrnehmung ab. Bei Best Buy waren die 3080 Karten schnell vergriffen, persönlich ist mir nur eine Ada Lovelace Karte bis hin zur 4070 Ti den Vollpreis wert, alles andere nur 50€ neu und 10€ gebraucht, weil für unter 50 Mücken neu kann ich eine GT 710 kaufen oder wahlweise Prozessoren mit integrierter Grafikeinheit völlig ohne Verluste bei der Effizienz oder Euros. Die Preise und damit zu einem gewissen Teil die Kaufbereitschaft der Kunden bestimmen die Händler. Immerhin gut ist, wenn Spieler Karten abkriegen neu mit Garantie und nicht alles den Scalpern in die Hände fällt.

Viele Grüße
 
Stattdessen kostet das günstigste lieferbare Modell jetzt gerade 789€. Die UVP war seinerzeit bei (schon überzogenen...) 699€. Wie weiter vorne schon mehrfach geschieben, selbst wenn es die Karte jetzt ab 500€ geben würde, wäre das eher der normale Preis zum Release (oder kurz danach), aber sicher nicht nach über 2 Jahren.
Tja, ein/zwei Gedanken dazu. Einerseits haben vor allem das Mining und auch die Pandemie dafür gesorgt, daß überzogene Preise trotzdem gezahlt wurden. Den Minern/Scalpern war es praktisch egal, was die Karten gekostet haben, vielen Gamern jedoch nicht. Und beim zwanghaft aufgelegten privatem "Nichtstun" haben dann doch mehr Leute trotz (zu) hoher Preise zugegriffen. Nach dem Motto: wenn ich schon nirgendswohin darf, dann gönn ich mir halt was gutes in Sachen Entertainment.

Von den tollen/ertragreichen Zeiten will vor allem Nvidia (wenn man deren Umsatz/Gewinn betrachtet) nicht wieder so schnell weg. Man hofft(e) wohl, daß die Gamer weiterhin ordentlich blechen. Daher immer noch die zu hohen Preise für die ollen Bildschubsen. Mir juckt's auch in den Fingern. Das es sich für mich wirklich LOHNT, müsste ich allerdings zur RTX4090 greifen.

Könnte ich, WILL ich aber nicht...

Gruß
 
Zuletzt bearbeitet:
Macht das wirklich einen größeren Unterschied in diesem Fall? (Das es generell die Performance verbessert ist klar)
Raff hatte kürzlich irgendwo geschrieben, dass das 2 GB ausmachen würde.
Also z.B. 10 GB GDDR6X sollten dann 12GB GDDR6 entsprechen.
Nagel mich aber nicht drauf fest, denn wo er das geschrieben hat, finde ich bestimmt nicht mehr.
 
Du stellst RT ja geradezu als ebenso wichtig wie VRAM dar.


Weil eben etliche nur wegen Raytracing aufgerüstet haben...für 1440p Raster und ein wenig angepasst hätte es die RTX 3070 wohl noch eine Weile getan. Wie wichtig das einem ist, ist eine individuelle Entscheidung.

Mit einer eigentlich nie vorhandenen UVP lässt sich das auch schön drastisch darstellen.
UVP.png


Die Realität sah aber ganz anders aus...und da bin ich mit 639€ für die RTX 3070 noch gut weggekommen.
Wie Du auf ein Leistungsplus von nur 50% kommst...ebenfalls an der Realität vorbei
Realität.png

1440p.png 2160p.png
 
Raff hatte kürzlich irgendwo geschrieben, dass das 2 GB ausmachen würde.
Also z.B. 10 GB GDDR6X sollten dann 12GB GDDR6 entsprechen.
Nagel mich aber nicht drauf fest, denn wo er das geschrieben hat, finde ich bestimmt nicht mehr.
Na, auf die Erklärung dazu wäre ich scharf...
Weil eben etliche nur wegen Raytracing aufgerüstet haben...für 1440p Raster und ein wenig angepasst hätte es die RTX 3070 wohl noch eine Weile getan. Wie wichtig das einem ist, ist eine individuelle Entscheidung.

Mit einer eigentlich nie vorhandenen UVP lässt sich das auch schön drastisch darstellen.
Anhang anzeigen 1418031

Die Realität sah aber ganz anders aus...und da bin ich mit 639€ für die RTX 3070 noch gut weggekommen.
Wie Du auf ein Leistungsplus von nur 50% kommst...ebenfalls an der Realität vorbei
Anhang anzeigen 1418032
Anhang anzeigen 1418033Anhang anzeigen 1418034
 
Da kommt einfach zu viel Unfug im Worte zusammen, was uns ausbremst die passenden System für jeden zu finden. Natürlich kann es an Unwissen liegen, aber wenn es wieder vorkommt und in Behauptungen formuliert wird, dann entweder wegen Lernresistenz oder weil es neue Leute sind. Auch wer zuhause eingesperrt war, hatte es wenn man schon mal von Spielen mit niedrigen Hardwareanforderungen etwas gehört hat, nicht allzu schwierig eine RTX 3080 nicht zu kaufen, vor allem wenn sie den vorher abgesprochenen Preisrahmen verließ. Während 699€ damals mehr Leuten okay schien, sind es heute weniger Leute, auch weil die 4070 und in Full HD auch eine 4060 Ti mit der 3080 Schlitten fähren wird. Alleine schon was die 5 Laptop GPUs 4090, 4080, 4070, 4060 und 4050 leisten finde ich toll. Preis Leistung wird besser, und wer unbedingt 16GB VRAM bei Nvidia haben möchte aber die 4080 nicht toll findet, muss ein Notebook mit einer 3080 mit 16GB kaufen, die fangen neu aber gerade erst bei 2.099€ an.
 
Weil eben etliche nur wegen Raytracing aufgerüstet haben...für 1440p Raster und ein wenig angepasst hätte es die RTX 3070 wohl noch eine Weile getan. Wie wichtig das einem ist, ist eine individuelle Entscheidung.

Mit einer eigentlich nie vorhandenen UVP lässt sich das auch schön drastisch darstellen.
Anhang anzeigen 1418031

Die Realität sah aber ganz anders aus...und da bin ich mit 639€ für die RTX 3070 noch gut weggekommen.
Wie Du auf ein Leistungsplus von nur 50% kommst...ebenfalls an der Realität vorbei
Anhang anzeigen 1418032
Anhang anzeigen 1418033Anhang anzeigen 1418034
Kollege hat sein 3070 auch für 499€ gekauft, kurz bevor die UVP angehoben wurde ✌️.
Da die UVP die angedachten Preise sind, würde ich schon diese vergleichen
 
Zurück