Geforce RTX 4090 angeblich im Oktober, RTX 4080 mit 12 und 16 GiB [Gerücht]

So gesehen dürfte ja kein Entwickler neue Spiele entwickeln, die Klassiker sind eh populärer.

Aber es gibt schon einige Spiele mit Raytracing (und dafür braucht man aktuell ja einfach mehr RT-Rohleistung), und es kommen auch noch einige: https://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Raytracing-Games-1371273/

Kein Entwickler ist übertrieben, aber wir müssen uns nur WoW ansehen. Kommt da ein neues WoW mit Global Illumination und Unreal 5 Graphik? Nein, da kommt ein Classic Aufguss von Wrath of the Lich King und auch "Retail" ist jetzt nichts weswegen Nvidia GPUs verkauft.

Auch die graphisch hochwertigen Spiele für den PC waren stets so konzipiert, dass eine PS4 das auch konnte. Da war nicht daran zu denken, dass das Spiel 16GB RAM und 8GB GPU-RAM obendrauf braucht. Die Dinge die wirklich Entwicklung kosten war stets auf Konsole getrimmt. Was der PC als Bonus bekam waren meist Features die man nicht entwickeln muss, wie höhere Auflösung oder höhere FPS, oder Features die Nvidia immer aggressiv beworben musste wie einfach sie doch zu integrieren sind und wie man das mit den Nvidia Tools für praktisch umsonst macht.

Die Frage wo der visuelle Apex des PCs ist, den stellt sich keiner, weil das nicht wirtschaftlich ist. Neues Diablo? Handyspiel? Neues Division? Handy Spiel? Neues Monkey Island? Handy Grafik, garantiert auf Ipad getrimmt, aber das traut man sich nicht so zu bewerben, aus dem Blizzard Fehler hat man gelernt. Fehlt echt nur noch das neue Crysis in der Aufzählung.

Cyberpunk existiert, aber es ist die Ausnahme und nicht die Norm. Selbst da geht es mit der RTX40 Serie darum höchste Auflösungen und fps zu pushen. Alles andere läuft auch auf Konsole und ich muss sagen, auch das sieht man dem Spiel an. Klar wird sich das ändern, aber nicht weil der PC schon immer viel größere viel detailiertere Welten hätte darstellen können, sondern weil die PC5 schneller nachladen kann.

Das macht den PC halt zum Hobby alter gutbezahlter Herren und die lässt Nvidia gerne über die Klinge springen. Da kauft man nicht nur die 4090, sondenr ein Stück Traum seiner Jugend in der man sich das Top-Gear nicht leisten konnte. Schade um die Nachhaltigkeit meines Hobbies.
 
Von den Seasonic würde ich dringend abraten, die haben nur ein Adapterkabel für auf 2x 8PIN, d.h. du ziehst im Zweifelsfall 300W pro Anschluss, das Doppelte der Spec :ugly:
In guten Asus Netzteilen steckt Seasonic Technik soweit mir bekannt. Also kannst du Seasonic oder Seasonic kaufen. :D Oder einfach jetzt noch gar nicht kaufen und erstmal warten bis noch mehr Netzteile auf den Markt kommen.
 
Jetzt scheint Nvidia auf die Kunden zu hören (Eco Karte, mehr VRAM optional) und das ist Dir dann auch nicht Recht. :schief:

Ob das wirklich eine Ecokarte ist, wird sich noch zeigen müssen. Wenn das Ding neben 16% weniger Strombedrauf und 25% weniger VRAM auch noch 15% weniger Leistung hat, dann ist das Teil nicht "Eco" sondern einfach nur abgespeckt.

Ich bezweifle mal, dass man das Teil wirklich "Eco" nennen wird können.

Das traurige ist ja, dass ihr Erfolg sich bestätigt.
Wer von dem GTX 970 3,5GB VRAM Krüppel betroffen war und noch bei der Firma kauft, hat die Kontrolle über sein Leben verloren.

Blöd nur, dass AMD/ATI seine Kunden auch nach Strich und Faden beschissen hat. Ich sag nur "poor Volta", der "Wundertreiber" für Vega, die schwache Spannungsversorgung der HD 4000er, der "Wundertreiber" der HD 2000er, die mangelnde Crossfirefähigkeit der X800er, DX 9.0b der X800er, nur DX 8.1 für die Radeon 9000, um mal die zu nennen, die mir da sofort in den Sinn kommen.

Ich hab mal 2010 eine Liste gemacht, wann die beiden ihre Kunden verarscht haben und sie ist bei beiden sehr lang geworden.

Matrox ist extrem kundenfreundlich, nur leider kann man auf deren Karten nicht gut zocken, echt schade.

Ich sehe schwere Zeiten für den PC Markt aufkommen...

Das ist eine Delle, die auch wieder vorbei geht.

Das große Problem, des Desktop PCs ist, dass es ihm an einer Killerapplikation fehlt. Es gibt für einen Normalo einfach keinen Grund mehr, warum man sich so eine Kiste ins Haus stellen sollte. Vor etwas über 20 Jahren war das anders. Da hat sich das, dank Napster, eBay und dem CD Brennen eigentlich jedem erschlossen.

Heute bleibt fast nur noch das PC Gaming und extrem rechenintensive Ding, wie Videokompression. An beiden nagt das Cloud Computing.

Hinzu kommt noch, dass ein Gaming PC, vor 20-40 Jahren, nach etwa 3 Jahren vollkommen veraltet war, da die Technik sich so schnell entwickelte. Heute liegt dieser Zeitpunkt bei wohl 8-10 Jahren, wenn man Pascal als Grundlage nimmt. Das macht es zwar insgesamt günstiger (auch wenn man das nicht glauben will), führt jedoch zu geringeren Verkaufszahlen.

Die UVP von Ampere war doch in Ordnung im Vergleich zu Turing.

2080 UVP 850 zu Release
3080 UVP 699 zu Release

Lass doch einfach diese maßlosen Übertreibungen...

Da hast du dir aber ein sehr schönes Beispiel rausgesucht.

Nehmen wir doch einfach mal die stärksten Normalokarten einer Generation.

GTX 680: 499€
GTX 980Ti: 749€
GTX 1080Ti 819€
RTX 2080Ti 1249€
RTX 3090 1499€

Man sieht: eine ganz klare Verteuerung. Die Preise haben sich in einem Jahrzehnt verdreifacht (!). Mal schauen, wie es mit der RTX 4090(Ti) weitergeht.

(die RTX 3090Ti hab ich jetzt mal weggelassen, auch wenn sie hervorragend ins Argumentationsmuster gepasst hätte, da der Miningboom die Preise verzerrt hat)
 
In guten Asus Netzteilen steckt Seasonic Technik soweit mir bekannt. Also kannst du Seasonic oder Seasonic kaufen. :D Oder einfach jetzt noch gar nicht kaufen und erstmal warten bis noch mehr Netzteile auf den Markt kommen.
Ich habe Asus nur nicht erwähnt weil ich mir die im Gegensatz zu den Seasonic gar nicht erst angeschaut habe ^^ Wenn die auch Adapter verwenden dann haben die das gleiche Problem
 
Kein Entwickler ist übertrieben, aber wir müssen uns nur WoW ansehen. Kommt da ein neues WoW mit Global Illumination und Unreal 5 Graphik? Nein, da kommt ein Classic Aufguss von Wrath of the Lich King und auch "Retail" ist jetzt nichts weswegen Nvidia GPUs verkauft.
MMOs waren noch nie grafische Top Titel. Bei den Mengen an Spielern gleichzeitig ist das auch schlicht (noch) nicht machbar.

Auch die graphisch hochwertigen Spiele für den PC waren stets so konzipiert, dass eine PS4 das auch konnte. Da war nicht daran zu denken, dass das Spiel 16GB RAM und 8GB GPU-RAM obendrauf braucht. Die Dinge die wirklich Entwicklung kosten war stets auf Konsole getrimmt. Was der PC als Bonus bekam waren meist Features die man nicht entwickeln muss, wie höhere Auflösung oder höhere FPS, oder Features die Nvidia immer aggressiv beworben musste wie einfach sie doch zu integrieren sind und wie man das mit den Nvidia Tools für praktisch umsonst macht.
Da gebe ich Dir nur teilweise Recht, es gibt auch einige Beispiele für gute Ports mit deutlich besserer Grafik abseits von höherer Auflösung/FPS. Aber generell über alle Spiele betrachtet hast Du natürlich Recht. Die absoluten Grafik-Perlen gibt es trotzdem nur auf dem PC, egal ob exklusiv oder Port.


Cyberpunk existiert, aber es ist die Ausnahme und nicht die Norm. Selbst da geht es mit der RTX40 Serie darum höchste Auflösungen und fps zu pushen. Alles andere läuft auch auf Konsole und ich muss sagen, auch das sieht man dem Spiel an. Klar wird sich das ändern, aber nicht weil der PC schon immer viel größere viel detailiertere Welten hätte darstellen können, sondern weil die PC5 schneller nachladen kann.
"Alles andere läuft auch auf Konsole", "auch das sieht man dem Spiel an"? WQHD mit max Details und RT Psycho, (natürlich auch DLSS Q) bei 60 FPS möchte ich auf einer Konsole sehen. Grafik Perlen sind eben selten, das war aber schon immer so.

Das macht den PC halt zum Hobby alter gutbezahlter Herren und die lässt Nvidia gerne über die Klinge springen. Da kauft man nicht nur die 4090, sondenr ein Stück Traum seiner Jugend in der man sich das Top-Gear nicht leisten konnte. Schade um die Nachhaltigkeit meines Hobbies.
Ich glaube Du siehst die Vergangenheit etwas zu rosig, da war es nämlich kaum anders abgesehen davon dass man spätestens alle 2 Jahre alles neu kaufen MUSSTE um überhaupt die neuen Spiele halbwegs gut zocken zu können.

Ob das wirklich eine Ecokarte ist, wird sich noch zeigen müssen. Wenn das Ding neben 16% weniger Strombedrauf und 25% weniger VRAM auch noch 15% weniger Leistung hat, dann ist das Teil nicht "Eco" sondern einfach nur abgespeckt.

Ich bezweifle mal, dass man das Teil wirklich "Eco" nennen wird können.
Empirisch betrachtet läuft Ampere meist etwas über dem Sweetspot. Wenn jetzt die 4080 als 285W und 340W Variante kommt, dann ist es schon sehr wahrscheinlich dass die kleinere näher am Sweetspot läuft. Aber das ist alles Spekulation, habe ich ja auch so geschrieben.


Da hast du dir aber ein sehr schönes Beispiel rausgesucht.

Nehmen wir doch einfach mal die stärksten Normalokarten einer Generation.

GTX 680: 499€
GTX 980Ti: 749€
GTX 1080Ti 819€
RTX 2080Ti 1249€
RTX 3090 1499€

Man sieht: eine ganz klare Verteuerung. Die Preise haben sich in einem Jahrzehnt verdreifacht (!). Mal schauen, wie es mit der RTX 4090(Ti) weitergeht.

(die RTX 3090Ti hab ich jetzt mal weggelassen, auch wenn sie hervorragend ins Argumentationsmuster gepasst hätte, da der Miningboom die Preise verzerrt hat)
Ich liefere ein Beispiel was Dir nicht gefällt und Du kommst mit den teuersten Karten der jeweiligen Generation an. Na ob das jetzt so viel besser gewählt ist...

Nehmen wir doch mal die 60er Karten:
660 - 225€
760 - 240€
960 - 200€
1060 3GB - 220€
1060 6GB - 280€
2060 - 369€
3060 - 329€

Ja, insgesamt natürlich gestiegen, Inflation und höhere Herstellungs-Kosten. Aber eben auch nicht so wild wie Dein Beispiel...
 
Nehmen wir doch einfach mal die stärksten Normalokarten einer Generation.

GTX 680: 499€
GTX 980Ti: 749€
GTX 1080Ti 819€
RTX 2080Ti 1249€
RTX 3090 1499€

Gutes Argument, ich schlage noch eine andere Metrik vor und das ist die Chipgröße. Denn Nvidia kauft je keine Chips, die kaufen ganze Wafer. Dann wird geschaut was man aus den Chips machen kann, ob das eine 2070 ist, oder eine 2060, halt das berühmte binning.

Unter dem Aspekt schlage ich vor, was ist ein konstanter Input und dafür nehme ich den 400mm² Chip. Der Wafer ist immer gleich groß, der Chip ist immer ähnlich groß, also was macht Nvidia aus 400mm² Chip? Ja ich weiß, es gibt Extremfälle wo richtig große Chips in richtig kleinen Karten verbaut werden, aber das sind die Normalfälle.

680/670/660Ti alles drei ein 294mm² Chip, die 670 und 660Ti sind zum Teil deaktiviert/defekt (berühmte Teildefekte im Siliziumrechner).

770/760 alles beide ein 294mm² Chip, die 760 ist zum Teil deaktiviert.
780/Titan = 561mm² in zwei Binnings

980/970 alles beide ein 400mm² Chip, die 970 ist zum Teil deaktiviert.

1080/1070 alles beide ein 314mm² Chip, die 1070 ist zum Teil deaktiviert.
1080Ti/TitanX alles beide ein 471mm² Chip

2060/2070 alles beide ein 445mm² Chip, die 2060 ist zum Teil deaktiviert.
2070S/2080/2080S alles drei ein 545mm² Chip, je nach binning
2080Ti/TitanRTX alles beide ein 754mm² Chip plus binning

3060-12G = 276mm²
3060Ti - 3070Ti alles 392mm² Chips
3080 - 3090Ti alles 628mm² mit verschieden Binnings.

RTX 40 Gerücht: die oberen Consumerkarten wieder so bei 600mm²


Aus Sicht von Nvidia wird natürlich auch der preis pro Wafer teurer. Über mehrere Generationen hinweg sehen wir, dass GTX10 in Relation sehr klein war, was sich beim preis positiv bemerkbar machte und dass RTX20 nicht nur größer ist, sondern eigentlich auffällig groß im Vergleich mit allem vorher. Ein 445mm² Chip in einer 60er Karte wirkt geradezu grotesk.

RTX30 ist der Spagat aus normal dimensionierten Chips wie früher bis zur 70er Serie (vor allem der 970 - 3070 Vergleich drängt sich auf) und der puren 628mm² Unvernunft.

Es wird aber auch deutlich dass die Preise nur eine Richtung kennen können, wenn die Chipgrößen nur nach oben gehen und der Konkurrenzdruck dazu zwingt auf Prozesse umzusteigen, bei denen auch die Wafer ein Premium kosten. Das hat Nvidia aber nicht davon abgehalten, dass in den Geschäftszahlen das "Cost of Product" in Relation zu den Erlösen immer noch für offene Kinnladen sorgt. Kurzgesagt, Nvidia fässt seine Gewinnspanne nicht an, die geben alles sofort an den Kunden weiter. Unter der Betrachtung sind die Faktoren nicht gut. Teure TSMC Wafer, Chipgrößen wie bei RTX30, keine wirklich neue Architektur. Das könnte RTX40 komplett auffressen und dafür sorgen, dass die neue Generation keine bessere Preis/Leistung hat wie die alte. Lasse mich gerne überraschen, aber es sieht nicht danach aus.
 
Empirisch betrachtet läuft Ampere meist etwas über dem Sweetspot. Wenn jetzt die 4080 als 285W und 340W Variante kommt, dann ist es schon sehr wahrscheinlich dass die kleinere näher am Sweetspot läuft. Aber das ist alles Spekulation, habe ich ja auch so geschrieben.

Ich schätze mal nicht, dass Nvidia da einfach die normalen Chips, für weniger Geld verkauft, nur um irgendwelche Ökos glücklich zu machen, die aber garantiert nicht glücklich sein werden, da 285W immer noch pervers viel ist.

Ich wette jetzt schon, dass das stärker deaktivierte Chips sind, da hat man auch bei der GTX 1060 so gemacht.

Nehmen wir doch mal die 60er Karten:

Du pickst dir einfach Beispiele raus, die dir in den Kram passen. Die 60er sind stark verzerrt. Einerseits wird deren Leistung und Preis immer an die jeweilige Konkurrenzsituation angepasst, daher auch die starken Schwankungen. Zum anderen sind die einstigen 80er Karten zu 90Ti Karten aufgestiegen und die jetzigen 80er entsprechen eher den früheren 70er, die wiederum den 60ern Entsprechen.

Mit den größten Karten hat man das Problem einfach nicht, da sieht man klar und deutlich, was Sache ist. Das passt dir einfach nicht ins Konzept.

Konstruktive Kritik: wegen solcher Dinge wirst du eben von einigen gelegentlich als Nvidia Fanboy bezeichnet. Was für Nvidia gut ist wird willkommen geheißen und wenn es nicht der Fall ist, dann wird solange herumgebogen, bis es passt.

Fakt ist: Nvidia hat die Preise insgesamt massiv erhöht.
 
Es wird aber auch deutlich dass die Preise nur eine Richtung kennen können, wenn die Chipgrößen nur nach oben gehen und der Konkurrenzdruck dazu zwingt auf Prozesse umzusteigen, bei denen auch die Wafer ein Premium kosten. Das hat Nvidia aber nicht davon abgehalten, dass in den Geschäftszahlen das "Cost of Product" in Relation zu den Erlösen immer noch für offene Kinnladen sorgt. Kurzgesagt, Nvidia fässt seine Gewinnspanne nicht an, die geben alles sofort an den Kunden weiter. Unter der Betrachtung sind die Faktoren nicht gut. Teure TSMC Wafer, Chipgrößen wie bei RTX30, keine wirklich neue Architektur. Das könnte RTX40 komplett auffressen und dafür sorgen, dass die neue Generation keine bessere Preis/Leistung hat wie die alte. Lasse mich gerne überraschen, aber es sieht nicht danach aus.
Keine neue Architektur? Woher nimmst Du die Info? Gibt es News die ich übersehen habe? War nicht eins der Gerüchte dass die entweder INT oder FP32 Aufteilung ggf. aufgegeben wird?

Außerdem lässt Du in Deiner ganzen Rechnung einen wesentlichen Kostenfaktor völlig außen vor: Feature Entwicklung. Raytracing Cores und DLSS waren (und sind weiterhin) nicht umsonst.
Ich schätze mal nicht, dass Nvidia da einfach die normalen Chips, für weniger Geld verkauft, nur um irgendwelche Ökos glücklich zu machen, die aber garantiert nicht glücklich sein werden, da 285W immer noch pervers viel ist.

Ich wette jetzt schon, dass das stärker deaktivierte Chips sind, da hat man auch bei der GTX 1060 so gemacht.
Könnte sein, werden wir sehen. Vielleicht sehen wir auch gar keine zweite 80er Karte. :schief:

Du pickst dir einfach Beispiele raus, die dir in den Kram passen. Die 60er sind stark verzerrt. Einerseits wird deren Leistung und Preis immer an die jeweilige Konkurrenzsituation angepasst, daher auch die starken Schwankungen. Zum anderen sind die einstigen 80er Karten zu 90Ti Karten aufgestiegen und die jetzigen 80er entsprechen eher den früheren 70er, die wiederum den 60ern Entsprechen.

Mit den größten Karten hat man das Problem einfach nicht, da sieht man klar und deutlich, was Sache ist. Das passt dir einfach nicht ins Konzept.

Konstruktive Kritik: wegen solcher Dinge wirst du eben von einigen gelegentlich als Nvidia Fanboy bezeichnet. Was für Nvidia gut ist wird willkommen geheißen und wenn es nicht der Fall ist, dann wird solange herumgebogen, bis es passt.

Fakt ist: Nvidia hat die Preise insgesamt massiv erhöht.
Na sicher, ich bringe 2 Beispiele die DIR nicht in den Kram passen. Da zählt ja nur Dein beliebig gewähltes Top Modell. Wo sind denn die Titans in Deiner Liste? Konnte man die als "Normalo" nicht kaufen? So gesehen ist die Top Karte sogar billiger geworden...

Ich bringe 2 Beispiele in denen die Preisentwicklung von Turing zu Ampere runter gegangen ist, aber die zählen nicht. Da kann ich nur schmunzeln...
 
Die 12 GB für die 80er sind auch wirklich absolutes Minimum was man derzeit abliefern sollte, wobei man eigentlich schon mehr bieten muss derzeit um wirklich nachfrage zu generieren und mir scheint gerade diese Nachfrage ist derzeit überhaupt nicht im Markt vorhanden.
 
Na sicher, ich bringe 2 Beispiele die DIR nicht in den Kram passen. Da zählt ja nur Dein beliebig gewähltes Top Modell.

Sie sind halt eben nicht beliebig gewählt, das ist ja das schöne. Keine >Verzerrungen inerhalb der Serie, einfach das beste, was Nvidia für Normalos vorgesehen hat.

Wo sind denn die Titans in Deiner Liste? Konnte man die als "Normalo" nicht kaufen?

Die Titan haben einerseits das Problem, dass sie das abgreifen sollen, was die extremsten Enthusiasten zu zahlen bereit sind und das hat sich eben extrem gesteigert, besonders bei der Tian V und Titan RTX. Dann gibt es diese Karten auch nicht in jeder Generation, Ampere hat gar keine bekommen und Volta hängt in der Luft. Aber auch da ist der Preis mit 949€, 999€ 3x 1199€, 3199€ und 2749€ auch extrem gestiegen, sieht man von der Titan V ab.

Noch ein wichtiger Punkt: diesmal gab es keine Titan. Ob die je wieder kommen ist fraglich, da sie Nvidia den Profimarkt kaputt gemacht haben.

So gesehen ist die Top Karte sogar billiger geworden...

Titan 949€
Titan Black 999€
Titan X 1199€
GTX Titan 1199€
Titan Xp 1199€
Titan V 3199€
Titan RTX 2749€

Gut, die letzte ist tatsächlich günstiger geworden, aber der Trend hat ganz klar nach oben gezeigt. Leider sind sie wohl eingestellt worden, sodass die weitere Entwicklung Spekulation ist, sofern nicht doch eine echte Titan rauskommt.

Ich bringe 2 Beispiele in denen die Preisentwicklung von Turing zu Ampere runter gegangen ist, aber die zählen nicht. Da kann ich nur schmunzeln...

Wie gesagt: die Karten haben auch einen Abstieg hinter sich. Diese solide Mittelklasse von früher findet sich heute eher bei der RTX 3070.
 
Wie gesagt: die Karten haben auch einen Abstieg hinter sich. Diese solide Mittelklasse von früher findet sich heute eher bei der RTX 3070.
Ahja. Und die Einführung der 3050 als Einsteigerkarte lässt die 3060 somit aufsteigen? Man müsste also die 3060 mit der 2070 vergleichen?

329€ (3060) vs 629€ (2070)

Selbst wenn ich die 3060ti heranziehe mit 400€ ist das eine Vergünstigung. Die 2060 Super hat übrigens 420€ UVP, die originale 2060 369€. Auch dann, wenn ich den Aufstieg nicht einbeziehe, sehe ich es trotzdem anders.

Bei den Top Modellen hast Du Recht, aber das als Maß der Dinge zu nehmen ist weit ab von jeglicher Kundenrealität. Von diesen Karten werden nur wenige im Vergleich zu den 60er / 70er Karten verkauft, also sollte man auch dort vergleichen.
 
Sie sind halt eben nicht beliebig gewählt, das ist ja das schöne. Keine >Verzerrungen inerhalb der Serie, einfach das beste, was Nvidia für Normalos vorgesehen hat.



Die Titan haben einerseits das Problem, dass sie das abgreifen sollen, was die extremsten Enthusiasten zu zahlen bereit sind und das hat sich eben extrem gesteigert, besonders bei der Tian V und Titan RTX. Dann gibt es diese Karten auch nicht in jeder Generation, Ampere hat gar keine bekommen und Volta hängt in der Luft. Aber auch da ist der Preis mit 949€, 999€ 3x 1199€, 3199€ und 2749€ auch extrem gestiegen, sieht man von der Titan V ab.

Noch ein wichtiger Punkt: diesmal gab es keine Titan. Ob die je wieder kommen ist fraglich, da sie Nvidia den Profimarkt kaputt gemacht haben.



Titan 949€
Titan Black 999€
Titan X 1199€
GTX Titan 1199€
Titan Xp 1199€
Titan V 3199€
Titan RTX 2749€

Gut, die letzte ist tatsächlich günstiger geworden, aber der Trend hat ganz klar nach oben gezeigt. Leider sind sie wohl eingestellt worden, sodass die weitere Entwicklung Spekulation ist, sofern nicht doch eine echte Titan rauskommt.



Wie gesagt: die Karten haben auch einen Abstieg hinter sich. Diese solide Mittelklasse von früher findet sich heute eher bei der RTX 3070.


????
Ist doch GUT wenn der Preis hoch ist!!! Dann ist die Verfügbarkeit umso wahrscheinlicher!!!
 
Sie sind halt eben nicht beliebig gewählt, das ist ja das schöne. Keine >Verzerrungen inerhalb der Serie, einfach das beste, was Nvidia für Normalos vorgesehen hat.



Die Titan haben einerseits das Problem, dass sie das abgreifen sollen, was die extremsten Enthusiasten zu zahlen bereit sind und das hat sich eben extrem gesteigert, besonders bei der Tian V und Titan RTX. Dann gibt es diese Karten auch nicht in jeder Generation, Ampere hat gar keine bekommen und Volta hängt in der Luft. Aber auch da ist der Preis mit 949€, 999€ 3x 1199€, 3199€ und 2749€ auch extrem gestiegen, sieht man von der Titan V ab.

Noch ein wichtiger Punkt: diesmal gab es keine Titan. Ob die je wieder kommen ist fraglich, da sie Nvidia den Profimarkt kaputt gemacht haben.



Titan 949€
Titan Black 999€
Titan X 1199€
GTX Titan 1199€
Titan Xp 1199€
Titan V 3199€
Titan RTX 2749€
Bis zur Titan Xp war ich dabei. Da fand ich die Preise für das Plus an Mehrleistung OK. Aber Titan V und RTX Titan sind zu teuer für das bisschen Plus an Spieleleistung.
 
Parallel warnt der Katastrophenschutz davor, die 14 tägigen Vorräte im Falle eines Blackouts wahr zu nehmen.
"Ich plädiere dafür, die Empfehlung des Bundesamts für den Katastrophenschutz ernst zu nehmen, wonach Bürger für 14 Tage Wasser und Lebensmittel im Haus haben sollen"


Klar...

"Bitte kauft wieder wie behinderte Zombies die Läden leer!"
War ja beim Corinna-Lockdown auch "notwendig"...
Die ganzen Hirnis sitzen aber wohl eh noch auf Tonnen von Nudeln, Konserven und Klopapier.
 
  • Haha
Reaktionen: QIX
Ahja. Und die Einführung der 3050 als Einsteigerkarte lässt die 3060 somit aufsteigen? Man müsste also die 3060 mit der 2070 vergleichen?

Ich meinte im gesamten Portfolio. Bis zur GTX 680 waren die 80ern Karten die besten. Nun sind aber auch noch die 80Ti, 90 und 90Ti hinzugekommen. Damit sind die 60er relativ gesehen abgerutscht. Zumal die 40er Karten quasi eingestellt wurden.

Bei den Top Modellen hast Du Recht, aber das als Maß der Dinge zu nehmen ist weit ab von jeglicher Kundenrealität. Von diesen Karten werden nur wenige im Vergleich zu den 60er / 70er Karten verkauft, also sollte man auch dort vergleichen.

Der Punkt ist, dass man es so sehr einfach vergleichen kann. Die größte Karte, ohne Profifunktionen, das ist relativ einfach und man hat auch nichts mit Nvidias Planungen innerhalb der Serie zu tun. Es ist egal, wenn AMD mal eine bessere Mittelklassekarte herausgebracht hat und Nvidia deshalb die Preise senken mußt oder umgekehrt. Diese Effekte verzerren eben die 60er.

Insgesamt hat Nvidia die Preise massiv erhöht und das ist auch logisch. Sie haben bei der ersten Titan mitbekommen, dass einen großen Teil der Kundschaft gibt, die auch deutlich über 500€ zahlen, nun galt es diese zu melken. Deshalb beträgt UVP der RTX 3090 auch 1499€ und nicht 499€, die lange Zeit als obere Grenze galt, über der man nur Flops einfuhr (GeForce 2 Ultra, 8800 Ultra, die ganzen Doppelkarten und die 6GB Version der HD 7970. Wärte die Titan in den Läden liegen geblieben, dann würden die besten Karten heute deutlich weniger kosten (und ja, sie hatten auch keinen so imposanten Kühler und wären wohl etwas schwächer), vermutlich 499€ oder 599€.

Das zu leugnen hat halt eben keinen Sinn. Wenn ich mich recht erinnre, dann kreidest du den AMDlern immer an, sie würden denken, ihre Lieblingsfirma sei die Wohlfahrt. Das ist völlig richtig, nur denkst du genauso über Nvidia. Nvidia nimmt halt eben was geht, direkt oder indirekt.

Die 60er Karten hatten übrigens auch mal den zweitbesten Chip und nicht den dritt oder viertbesten. Die heutigen 60er sind eigentlich 50er.

 
Zurück