News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Ich bin sehr gespannt, was die nächsten technologischen Schritte sind. Und freue mich auf die nächsten Generationen von NVIDIA und AMD. Vieles läuft ja auf mehr Siliziumfläche heraus. Bei Apple hat man gesehen, was man mit grosser Chipfläche und einem effizienten Takt alles erreichen kann.
Chiplets senken die Produktionskosten, allein schon deshalb wird NVIDIA an Chiplets forschen.
Früher oder später wird NVIDIA auch die Chiplets-Technologie brauchen, es sind also keine gesparten Entwicklungskosten damit zu warten bis man sie braucht. Im Gegenteil, wenn sie mit der Entwicklung warten bis sie sie brauchen, geraten sie unter Druck und dabei können Fehler entstehen.
Es ist daher Sinnvoll bereits vorher Chiplets zu entwickeln und auch praktische Erfahrungen damit zu sammeln, gerade dann wenn man einen Vorsprung bei der Leistung ggü. der Konkurrenz hat. Dann kann man nämlich auch noch konkurrenzfähige Ware auf den Markt bringen, wenn man keine Bestleistung abliefern konnte.
Nvidia forscht doch schon länger an den Chiplets. Der Schritt wird auch bald aus folgenden Gründen kommen:
  • Bei TSMC-N3-Verfahren wird die maximale Chipgrösse wieder kleiner
  • Alle IO Transistoren, die externe Leitungen treiben müssen, können nicht mehr kleiner werden (Stichwort IO-Chiplets)
  • SRAM-Zellen und DRAM-Zellen werden auch mit neuem Verfahren kaum kleiner
  • Produktion der Chips im neuen Verfahren wird immer teurer. Wenn man kleinere Chips baut ist der Ausschuss wegen weniger Fehler viel kleiner.
Chiplets sind sicher eine gute Antwort auf die obigen Probleme, aber man muss auch die Technologie im Griff haben. Man sieht es ja bei AMD, dass sie nicht ganz so einfach ist. Da muss NVIDIA auch noch Erfahrungen sammeln. Leider macht man dies nur, in dem man die Technologie auch einsetzt.

Ich stelle mich darauf ein, dass wir auch eine Generation lang Stillstand haben können, weil es mit der neuen Technologie Probleme gibt.

Vielleicht sehen wir auch ein ganz anderen Ansatz, da den wir gar nicht denken.
 
Ich bin sehr gespannt, was die nächsten technologischen Schritte sind. Und freue mich auf die nächsten Generationen von NVIDIA und AMD. Vieles läuft ja auf mehr Siliziumfläche heraus. Bei Apple hat man gesehen, was man mit grosser Chipfläche und einem effizienten Takt alles erreichen kann.

Nvidia forscht doch schon länger an den Chiplets. Der Schritt wird auch bald aus folgenden Gründen kommen:
  • Bei TSMC-N3-Verfahren wird die maximale Chipgrösse wieder kleiner
  • Alle IO Transistoren, die externe Leitungen treiben müssen, können nicht mehr kleiner werden (Stichwort IO-Chiplets)
  • SRAM-Zellen und DRAM-Zellen werden auch mit neuem Verfahren kaum kleiner
  • Produktion der Chips im neuen Verfahren wird immer teurer. Wenn man kleinere Chips baut ist der Ausschuss wegen weniger Fehler viel kleiner.
Chiplets sind sicher eine gute Antwort auf die obigen Probleme, aber man muss auch die Technologie im Griff haben. Man sieht es ja bei AMD, dass sie nicht ganz so einfach ist. Da muss NVIDIA auch noch Erfahrungen sammeln. Leider macht man dies nur, in dem man die Technologie auch einsetzt.

Ich stelle mich darauf ein, dass wir auch eine Generation lang Stillstand haben können, weil es mit der neuen Technologie Probleme gibt.

Vielleicht sehen wir auch ein ganz anderen Ansatz, da den wir gar nicht denken.

Man kann davon ausgehen dass Nvidia diverse MCM-ES hat fertigen lassen und weiterhin fertigt. Bei den Summen die in R&D gesteckt werden (glaube das sind immer so 10-15% vom Gewinn, jedes Jahr) wird einiges in die MCM Entwicklung fließen.
 
Über die GPU Preise regen sich die Leute bei den plötzlichen Anstiegen natürlich auf. Aber im vieljährigen Mittel istz es eigentlich nicht mehr gestiegen als andere Dinge.
Schon ziemlich enorm, wenn man berücksichtigt, dass eine 4070 eher einer 4050/4060 der vorherigen Gen entspricht. Man muss sich halt die 4090 anschauen und wieviel Prozent der Leistung relativ zum Flaggschiff geleistet wird.
Wobei eine 4070ti gerade in neueren Titeln meistens vor der 3090ti liegt.
In niedrigen Auflösungen, oben rum geht ihr doch meist die Puste aus.
 
Ich dachte immer Technischer Fortschritt bedeutet mehr Leistung fürs gleiche Geld zu bekommen.
Und nicht mehr Geld für Mehr Leistung zu zahlen!
Bei den CPUs bleibt aber komischerweise alles stabil. Vor 15 Jahren haben CPUs auch 500-1000€ gekostet. Heute kriegt man auch für 500-600€ Topmodelle. Trotz Inflation, Waferpreisen, Lieferkettenproblemen, neuen teuren Fertigungen, und immer mehr Aufwand noch was aus der Sprungvorhersage rauszukitzeln.

Die CPU-Sparten haben halt kein Blut geleckt im Mining-Boom, die GPU-Sparten schon.
 
Es steigert die Performance nunmal nicht, das ist immer noch falsch. Es erhöht die Anzahl der dargestellten Bilder, aber es verbessert eben nicht die Latenz die in vielen Titeln wo es auf FPS ankommt wichtig sind. FG ist kein Teufelszeug, aber es führt in meinen Augen aktuell dazu, dass Nvidia marketingtechnisch die Dummheit einiger Nutzer für sich nutzt und das ist echt schlimm, vor allem da sie es aktuell ja nichtmal nötig haben und Dinge wie die reine Leistung, wie DLSS 2.x in den Vordergrund stellen müssten, wo sie effektiv große Vorteile haben. Stattdessen wird aber der Nutzer für Dumm verkauft und es wird flächendeckend so getan, als ob FG die doppelte Performance liefert, was Quatsch ist.

P.S.
Nicht falsch verstehen, FG kann helfen, keine Frage. Aber niemals nicht kann ein FG Frame im Ansatz soviel wert sein wie ein echter Frame, es wird aber eben so getan.
Solange das Endergebnis stimmt und bei der Bildqualität keine Einbußen hingenommen werden müssen, ist mir als Nutzer egal wie die FPS zustande kommen. Beides ist bei FG der Fall - äußerst überzeugend sogar. Die allerwenigsten Titel haben zudem Latenzprobleme, das ist somit kein Argument.

Nvidia verkauft hier auch niemanden für dumm. Die Performance wird in vielen Fällen eben schon verdoppelt.
 
Schon ziemlich enorm, wenn man berücksichtigt, dass eine 4070 eher einer 4050/4060 der vorherigen Gen entspricht. Man muss sich halt die 4090 anschauen und wieviel Prozent der Leistung relativ zum Flaggschiff geleistet wird.

In niedrigen Auflösungen, oben rum geht ihr doch meist die Puste aus.
Nein, eher nicht mehr so, was ich an Benchs gesehen habe.
Prozentual verliert die zwar oberhalb WQHD stärker. Aber ich sehe immer öfter das die 4070ti auch in UWQHD und 4K mindestens gleichschnell bleibt.

Dazu verbraucht selbst eine OC 4070ti halt weit weniger, als eine 3090ti.

Darüber hinaus hat man auch die aktuellen Features. Einzig die Speichermenge ist ein Wermutstropfen.
Bei den CPUs bleibt aber komischerweise alles stabil. Vor 15 Jahren haben CPUs auch 500-1000€ gekostet. Heute kriegt man auch für 500-600€ Topmodelle. Trotz Inflation, Waferpreisen, Lieferkettenproblemen, neuen teuren Fertigungen, und immer mehr Aufwand noch was aus der Sprungvorhersage rauszukitzeln.

Die CPU-Sparten haben halt kein Blut geleckt im Mining-Boom, die GPU-Sparten schon.
Echt,

mein Phenom II X6 1055t hat seiner Zeit zu Release 200€ gekostet. Das war die zweitschnellste Mainstream CPU von AMD.

Was kostet denn heute ein 7800X3D?

Der 2600k hat meine ich auch ziemlich genau 300 gekostet. Der 3820 war sogar noch minimal günstiger, als der 2600k.

Der 3820 war die drittschnellste CPU von Intel (Für Spiele sogar vorerst die schnellste).

Was kostet heute ein 13900k, ein KS, oder ein 13700k?

Wir haben heute nur den Vorteil das für den absoluten Großteil der Spiele, einfach noch ältere CPUs reichen.
 
Zuletzt bearbeitet:
Echt,

mein Phenom II X6 1055t hat seiner Zeit zu Release 200€ gekostet. Das war die zweitschnellste Mainstream CPU von AMD.

Was kostet denn heute ein 7800X3D?

Der 2600k hat meine ich auch ziemlich genau 300 gekostet. Der 3820 war sogar noch minimal günstiger, als der 2600k.

Der 3820 war die drittschnellste CPU von Intel (Für Spiele sogar vorerst die schnellste).

Was kostet heute ein 13900k, ein KS, oder ein 13700k?

Wir haben heute nur den Vorteil das für den absoluten Großteil der Spiele, einfach noch ältere CPUs reichen.

This. Und gab es da nicht zur letzten und vorletzten Gen auch einen kleinen Aufschrei als AMD die Preise der CPUs erhöht hat? :schief:
 
Solange das Endergebnis stimmt und bei der Bildqualität keine Einbußen hingenommen werden müssen, ist mir als Nutzer egal wie die FPS zustande kommen. Beides ist bei FG der Fall - äußerst überzeugend sogar. Die allerwenigsten Titel haben zudem Latenzprobleme, das ist somit kein Argument.

Nvidia verkauft hier auch niemanden für dumm. Die Performance wird in vielen Fällen eben schon verdoppelt.
Nein, nein und nein.

Nochmal, ja FG hat einen Nutzen, allerdings ist dieser gering und keinesfalls kann man die FG FPS voll rechnen! Die Latenzthematik ist und bleibt da, auch wenn Reflex es wirklich eindrucksvoll schafft, das Thema zu kompensieren, so erreicht man nunmal keine Verbesserung der Latenz (bzw. in recht unerheblichem Maßstab) und kann einen nicht spielbaren Titel somit nicht spielbar machen. (noch dazu wo Reflex ja auch ohne FG funktioniert).

FPS sind das eine und hier kann FG helfen, keine Frage. Aber ein Spiel mit 30fps (mit DLSS aktiv, also nur ohne FG) wird durch FG nicht wirklich spielbarer, zumindest in den Szenarien wo die Latenz problematisch ist, was bei 30fps in vielen Spielen der Fall ist.

Nvidia verkauft hier auch niemanden für dumm. Die Performance wird in vielen Fällen eben schon verdoppelt
schon, genauso wie sie es bei DLSS und Co. gemacht haben (ich will hier keineswegs auf NV rumhacken, AMD macht dies ja genauso und auch Intel verspricht immer wieder Sachen, die nur bei genauer Betrachtung Illusion bleiben). Fakt ist doch, dass die Performance nicht verbessert wird, wenn man die Auflösung reduziert oder Zwischenbilder einfügt. Aber dann vieleicht auch eine Definitionssache, FPS sind seit DLSS und FG in meinen Augen nicht mehr gleichzusetzen und durchaus gekonnt zu differenzieren, RT macht die Sache dann eben nochmals komplizierter, da man mittlerweile in mind. 3 wenn nicht 4 Auflösungen und diversen unterschiedlichen Settings testen muss, mit allen Vor und Nachteilen. Aber die Performance einer Karte ist in meinen Augen die native Leistung ohne softwareseitige Verbesserungen.


Dazu verbraucht selbst eine OC 4070ti halt weit weniger, als eine 3090ti.
Das eine 4070ti die bessere Karte ist, brauchen wir nicht zu bereden, aber wie gesagt, 4N gegen 8nm Samsung sind eben auch ein Brett.


Das war die zweitschnellste Mainstream CPU von AMD.
Wobei man eben fair sein muss, der Mainstream, bzw. die CPUs haben sich immer mehr vom HEDT in den Mainstream verlagert, ein 7900X(3D) und Co. wäre vor ein paar Jahren noch etwas für HEDT gewesen, heute läuft das im Consumerbereich durch.
 
Nein, nein und nein.
Er hat keine Fragen gestellt...

Nochmal, ja FG hat einen Nutzen, allerdings ist dieser gering und keinesfalls kann man die FG FPS voll rechnen! Die Latenzthematik ist und bleibt da, auch wenn Reflex es wirklich eindrucksvoll schafft, das Thema zu kompensieren, so erreicht man nunmal keine Verbesserung der Latenz (bzw. in recht unerheblichem Maßstab) und kann einen nicht spielbaren Titel somit nicht spielbar machen. (noch dazu wo Reflex ja auch ohne FG funktioniert).
Die Latenzerhöhung durch FG wird fast komplett durch Reflex ausgeglichen. Einen nicht spielbaren Titel spielbar zu machen ist übrigens nicht das Ziel von FG. Es geht darum "gerade so" flüssig spielbare Titel deutlich flüssiger in der Darstellung werden zu lassen. Ein weiteres Ziel von FG ist die CPU-Limitierung zu umgehen.

Sagen wir Du spielst ein Spiel mit nativ 60 FPS. Wenn Du jetzt FG einschaltest, dann hast Du plötzlich 100+ FPS bei fast gleicher Latenz. Da kannst Du noch so Zeter und Mordio schreien, das ist definitiv besser als weiter mit 60 FPS zu spielen (natürlich wenn es keine großen Artefakte gibt).


FPS sind das eine und hier kann FG helfen, keine Frage. Aber ein Spiel mit 30fps (mit DLSS aktiv, also nur ohne FG) wird durch FG nicht wirklich spielbarer, zumindest in den Szenarien wo die Latenz problematisch ist, was bei 30fps in vielen Spielen der Fall ist.
Korrekt. Wurde auch nie so beworben wenn ich mich Recht erinnere. Ich meine sogar dass Nvidia gesagt hat dass sie FG ab 50-60 FPS aufwärts empfehlen.

schon, genauso wie sie es bei DLSS und Co. gemacht haben (ich will hier keineswegs auf NV rumhacken, AMD macht dies ja genauso und auch Intel verspricht immer wieder Sachen, die nur bei genauer Betrachtung Illusion bleiben). Fakt ist doch, dass die Performance nicht verbessert wird, wenn man die Auflösung reduziert oder Zwischenbilder einfügt. Aber dann vieleicht auch eine Definitionssache, FPS sind seit DLSS und FG in meinen Augen nicht mehr gleichzusetzen und durchaus gekonnt zu differenzieren, RT macht die Sache dann eben nochmals komplizierter, da man mittlerweile in mind. 3 wenn nicht 4 Auflösungen und diversen unterschiedlichen Settings testen muss, mit allen Vor und Nachteilen. Aber die Performance einer Karte ist in meinen Augen die native Leistung ohne softwareseitige Verbesserungen.
Wenn die FPS bei gleichbleibender Bildqualität steigen, dann ist das sehr wohl ein Performance-Gewinn. Ist doch vollkommen EGAL ob das per Hardware oder Software erreicht wird. Oder sind Performance Gewinne durch Treiber jetzt auch aus den Bewertungen raus zu nehmen? Ist ja nur Software, man müsste also immer mit den Auslieferungs-Treibern testen?

Das eine 4070ti die bessere Karte ist, brauchen wir nicht zu bereden, aber wie gesagt, 4N gegen 8nm Samsung sind eben auch ein Brett.
Das Fähnchen dreht sich....

Wobei man eben fair sein muss, der Mainstream, bzw. die CPUs haben sich immer mehr vom HEDT in den Mainstream verlagert, ein 7900X(3D) und Co. wäre vor ein paar Jahren noch etwas für HEDT gewesen, heute läuft das im Consumerbereich durch.
und dreht sich.... Da wird natürlich sofort relativiert wenn man mit Fakten ankommt.
 
Wobei eine 4070ti gerade in neueren Titeln meistens vor der 3090ti liegt.

Ich zweifle eher aus anderem Grund daran.
Ich denke eher das aus produktpolitischen Gründen eine 5070 deutlicher von einer 4090 entfernt sein wird.
Da gibt es ein Problem in deinem Gedankengang.
Die 3080Ti, 3090 und 3090Ti waren sehr eng beinander. Generell war RTX 3000 sehr eng beinander.
RTX4000 hat größere Abstände und vorallem die 4090 ist weit vor allem anderen.

Zwischen einer 3070Ti und einer 3090Ti sind ~59%. Zwischen der 3070 und der 3080 war es 30%. Zwischen einer 4070 und einer 4080 sind ~58%, zu einer 4090 sind es ~102%.
Selbst wenn die nächste Gen 60% mehr auf die Waage bringt, kann die 5070 die 4090 nicht übertrumphen.
Eine 5070Ti wäre auch ein wenig langsamer. Eine 5080 hingegen könnte schneller als die 4090 sein.
 
Da gibt es ein Problem in deinem Gedankengang.
Die 3080Ti, 3090 und 3090Ti waren sehr eng beinander. Generell war RTX 3000 sehr eng beinander.
RTX4000 hat größere Abstände und vorallem die 4090 ist weit vor allem anderen.

Zwischen einer 3070Ti und einer 3090Ti sind ~59%. Zwischen der 3070 und der 3080 war es 30%. Zwischen einer 4070 und einer 4080 sind ~58%, zu einer 4090 sind es ~102%.
Selbst wenn die nächste Gen 60% mehr auf die Waage bringt, kann die 5070 die 4090 nicht übertrumphen.
Eine 5070Ti wäre auch ein wenig langsamer. Eine 5080 hingegen könnte schneller als die 4090 sein.
Wenn die neue Gen 60% schneller ist, ist die 5080 schon noch defutlich vor der 4090.
RT wird immer wichtiger, also nehme ich mal den RT Parcour und da ist die 4090 37% schneller, als die 4080 in 4k.

Damit wäre eine 5080 noch 17% vor der 4090. Das ist ok und auch in etwas was ich erwarte.
Deswegen gut möglich das eine 5070ti halt "nur" bei 94% der 4090 landet. Das wäre aber immer noch ok.

Dann halt mit OC noch 5-8% raus holen ;), wird trozdem dann noch deutlich sparsamer bleiben im Normalfall.

das alles ist eine Frage was Nvidia vor hat, nicht was möglich ist. Da könnte es für Nvdia sogar interessanter sein, in der nächsten Gen 5070 und 5080 wieder etwas näher an die 5090 heran zu führen, um ggf.s Preise der 5070ti mit über 1000€ schmackhafter zu machen.

Wir werden sehen was Nvidia vor hat.
 
Echt,
mein Phenom II X6 1055t hat seiner Zeit zu Release 200€ gekostet. Das war die zweitschnellste Mainstream CPU von AMD.
Was kostet denn heute ein 7800X3D?
Der 2600k hat meine ich auch ziemlich genau 300 gekostet. Der 3820 war sogar noch minimal günstiger, als der 2600k.
Der 3820 war die drittschnellste CPU von Intel (Für Spiele sogar vorerst die schnellste).
Was kostet heute ein 13900k, ein KS, oder ein 13700k?
Wir haben heute nur den Vorteil das für den absoluten Großteil der Spiele, einfach noch ältere CPUs reichen.
2600k ~300€, 7700k ~330€, 5800X3D ~350€ (heute unter 300€) habe ich gekauft.
Der 7800X3D wird auch noch fallen, heute ist der bei 379€.
Meine Mainboards waren auch alle unter 170€. Ich liege also bei ca 500-600€ für CPU+Mainboard+RAM.

Keiner zwingt jemanden immer die neuste Technik zu kaufen. Generell bei CPUs war das nie der der Fall, da kann man oft sehr gut 5-6 Jahre warten, auch wenn die Grafik Sprünge macht, die gehen die Sprünge eher auf die Leistung der GPU.
Wenn FG und FSR3 weiter verbreitet sind, dann kann die CPU vielleicht noch länger halten.

Bei den GPUs ist dies schwieriger, wenn man alle Einstellungen im Spiel maxen will.
Selbst ne 4090 kriegt dies heute in 4k ohne DLSS nicht in allen Spielen hin... und man sitzt immer noch in den Anfängen von UE5 und RT...

Aktuell sehe ich das nächste CPU Upgrade von meinem 5800X3D Richtung Zen 6 oder 7, noch AM5 aber eher nahe dem EOL von AM5. GPUs Upgrades hingegen sehe ich mich derzeit alle 1-2 Gen, wenn der Sprung jeweils groß genug ist (für mich +60%, selber Verbrauch).
 
Zuletzt bearbeitet:
Nein, nein und nein.
Naja, Ansichtsache. Aber da müssen wir beide uns nicht auch noch austauschen ;)
Nochmal, ja FG hat einen Nutzen, allerdings ist dieser gering und keinesfalls kann man die FG FPS voll rechnen!
Soweit geh ich mit.
Aber es ist ein nicht zu ignorierender Mehrwert. Hast du Framegeneration in letzter zeit mal ausprobiert, also objektiv?

Ich war positiv überrascht und es fühlt sich bei mir zu Hause auf einer 4070ti in CP77 mit PT in 1440p doch schon wie echte Fps an.
Klar wird es irgendwo einen Bereich geben, in denen man es auch negativ merkt (ähnlich zu mGPU Zeiten, in denen der Papierzugewinn, nicht dem gefühlten entspricht), aber im Selbstversuch war ich überrascht wie gut das geht.

(Nur am Rande ich zocke sehr viele Shooter, wie BF, CoD, oder Doom, da brauche ich auch am besten um 120Fps)
Die Latenzthematik ist und bleibt da, auch wenn Reflex es wirklich eindrucksvoll schafft, das Thema zu kompensieren, so erreicht man nunmal keine Verbesserung der Latenz (bzw. in recht unerheblichem Maßstab) und kann einen nicht spielbaren Titel somit nicht spielbar machen. (noch dazu wo Reflex ja auch ohne FG funktioniert).
Für mich ist es egal ob Reflex auch ohne FG funktioniert. Weil ein Inputlag der mir nicht negativ auffällt, ist mir schnuppe ;).


FPS sind das eine und hier kann FG helfen, keine Frage. Aber ein Spiel mit 30fps (mit DLSS aktiv, also nur ohne FG) wird durch FG nicht wirklich spielbarer, zumindest in den Szenarien wo die Latenz problematisch ist, was bei 30fps in vielen Spielen der Fall ist.
Da geh ich wieder mit.
Aber ich habe ein weiteres Beispiel, für die ganzen neuen Tricks.

Ohne DLSS und FG sagen wir 29-37Fps. Dann mit DLSS Q 39-51 Fps und mit DLSS Q + FG sind es 57 - 74.

Das ist tatsächlich im Falle von Cyberpunk bei mir genau der Unterschied zwischen nicht spielbar und spielbar.
Es fühlt sich sogar sehr gut an. Spätestens mit DLSS B. Da sind es bei mir dann auch im Worstcase über 60Fps und meistens eher an die 80.
schon, genauso wie sie es bei DLSS und Co. gemacht haben (ich will hier keineswegs auf NV rumhacken, AMD macht dies ja genauso und auch Intel verspricht immer wieder Sachen, die nur bei genauer Betrachtung Illusion bleiben).
Bin mir an dieser Stelle nicht sicher ob du so objektiv an die Sache ran gehst ( ist jetzt auch wirklich weiß Gott nicht negativ gemeint)
Fakt ist doch, dass die Performance nicht verbessert wird, wenn man die Auflösung reduziert oder Zwischenbilder einfügt.
Doch. PCGH hat mehrfach Bildvergleiche angestellt und dabei zuletzt auch wieder festgestellt das DLSS Q nicht selten besser aussieht, als nativ. Dabei dann auch noch mehr Fps... Also verbesser es die Performance!
Aber dann vieleicht auch eine Definitionssache, FPS sind seit DLSS und FG in meinen Augen nicht mehr gleichzusetzen und durchaus gekonnt zu differenzieren, RT macht die Sache dann eben nochmals komplizierter, da man mittlerweile in mind. 3 wenn nicht 4 Auflösungen und diversen unterschiedlichen Settings testen muss, mit allen Vor und Nachteilen.
Das ist sicher alles nicht einfach geworden dadurch ;)
Aber die Performance einer Karte ist in meinen Augen die native Leistung ohne softwareseitige Verbesserungen.
Das halte ich für eine überholte herangehensweise, bei der man sich selbst hinters Licht führt.
Das eine 4070ti die bessere Karte ist, brauchen wir nicht zu bereden, aber wie gesagt, 4N gegen 8nm Samsung sind eben auch ein Brett.
Habe den Faden verloren.
Wobei man eben fair sein muss, der Mainstream, bzw. die CPUs haben sich immer mehr vom HEDT in den Mainstream verlagert, ein 7900X(3D) und Co. wäre vor ein paar Jahren noch etwas für HEDT gewesen, heute läuft das im Consumerbereich durch.
Uff, ist mir Latte.

Bei einem 7950 ok, aber bei einem 7800X3d eher nicht. Zumal die heutigen Sockel auch jetzt nicht mit Lanes um sich werfen. Aber beim 7950 könnte ich das nachvollziehen.
Das war kein Abverkufspreis!
Das war kein Abverkufspreis!
, 5800X3D ~350€ (heute unter 300€)
Das war schon Abverkauf.
habe ich gekauft.
Der 7800X3D wird auch noch fallen, heute ist der bei 379€.
Das ist richtig. Der ist schon mächtig gefallen, für die kurze Zeit. AM5 verkauft sich wohl nicht so Bombe. (Plattform ist recht teuer, als die Boards)
Meine Mainboards waren auch alle unter 170€. Ich liege also bei ca 500-600€ für CPU+Mainboard+RAM.
II X6 1055T plus Crosshair iV (müsste es gewesen sein) 355€
I7 3820 plus ASrock X79 mAtx 450€
6700k plus Z170itx 510€
13400F plus B660 DDR5 itx 410€ ( mit einem 13700k wäre ich bei 620€),

mit einem Z Board nochmal min plus weiter 30€, also schon 650€
Keiner zwingt jemanden immer die neuste Technik zu kaufen. Generell bei CPUs war das nie der der Fall, da kann man oft sehr gut 5-6 Jahre warten, auch wenn die Grafik Sprünge macht, die gehen die Sprünge eher auf die Leistung der GPU.
Wenn FG und FSR3 weiter verbreitet sind, dann kann die CPU vielleicht noch länger halten.
Hat aber nichts primär damit zu tun, ob CPUs auch teurer geworden sind.
Bei den GPUs ist dies schwieriger, wenn man alle Einstellungen im Spiel maxen will.
Selbst ne 4090 kriegt dies heute in 4k ohne DLSS nicht in allen Spielen hin... und man sitzt immer noch in den Anfängen von UE5 und RT...

Aktuell sehe ich das nächste CPU Upgrade von meinem 5800X3D Richtung Zen 6 oder 7, noch AM5 aber eher nahe dem EOL von AM5. GPUs Upgrades hingegen sehe ich mich derzeit alle 1-2 Gen, wenn der Sprung jeweils groß genug ist (für mich +60%, selber Verbrauch).

Gesunde Einstellung.
 
Zuletzt bearbeitet:
Echt,

mein Phenom II X6 1055t hat seiner Zeit zu Release 200€ gekostet. Das war die zweitschnellste Mainstream CPU von AMD.

Was kostet denn heute ein 7800X3D?
Die fetten Intels haben damals auch 500-900 gekostet. Und nein, der 7800X3D ist kein Mainstream.

War aber ne echt schöne Zeit damals, als AMD noch über P/L gekommen ist.
 
Die fetten Intels haben damals auch 500-900 gekostet. Und nein, der 7800X3D ist kein Mainstream.
Ok, hatte ich so nicht in Erinnerung. Aber der 7800X3d ist natürlich Mainstream.
War aber ne echt schöne Zeit damals, als AMD noch über P/L gekommen ist.
Das war schon was, hatte meinen 1055t damals direkt aus der Packung auf den Boden geklatscht und dann erstmal die Pins wieder gerade gebogen ;).

Lief noch viele Jahre, dank starke Optimierung auch recht Potent.
 
RT wird immer wichtiger
Hier mal die größten Launches 2023:

Baldurs Gate 3
Starfield
Diablo IV
Star Wars Jedi: Survivor
Remnant 2

Rate mal, wie viele davon RT unterstützen.. Es sind null Prozent. Ich glaube sogar viele Hersteller haben endlich verstanden, dass RT die Verkäufe nicht ankurbelt. Wie auch, wenn nur ein Bruchteil es nutzen kann und das Spiel dadurch den Ruf bekommt ein "Performance-Killer" zu sein (auch wenn man es deaktivieren kann). Und Konsolenentwcikler stecken die Performance natürlich auch lieber in andere Sachen.

Sorry, aber RT ist und bleibt ein Nischen-Witz. Ich würde sogar behaupten es ist vorerst gescheitert, auch wenn Raff das nicht gerne wird. DLSS/FG (die ja glaube ich nur aus Not wegen der miesen RT-Performance entstanden sind) sind für mich die wahren Next-Gen-Features.
 
Hier mal die größten Launches 2023:

Baldurs Gate 3
Starfield
Diablo IV
Star Wars Jedi: Survivor
Remnant 2

Rate mal, wie viele davon RT unterstützen.. Es sind null Prozent. Ich glaube sogar viele Hersteller haben endlich verstanden, dass RT die Verkäufe nicht ankurbelt. Wie auch, wenn nur ein Bruchteil es nutzen kann und das Spiel dadurch den Ruf bekommt ein "Performance-Killer" zu sein (auch wenn man es deaktivieren kann). Und Konsolenentwcikler stecken die Performance natürlich auch lieber in andere Sachen.

Sorry, aber RT ist und bleibt ein Nischen-Witz. Ich würde sogar behaupten es ist vorerst gescheitert, auch wenn Raff das nicht gerne wird. DLSS/FG (die ja glaube ich nur aus Not wegen der miesen RT-Performance entstanden sind) sind für mich die wahren Next-Gen-Features.
Du hast bestimmt Recht! RT ist ein Witz der sich nicht durchsetzt.

Hier nochmal ein Link, der neutraler aufzeigt, welche Spiele mit RT sind und das auch in 2023.

 
Hier mal die größten Launches 2023:

Baldurs Gate 3
Starfield
Diablo IV
Star Wars Jedi: Survivor
Remnant 2

Rate mal, wie viele davon RT unterstützen.. Es sind null Prozent. Ich glaube sogar viele Hersteller haben endlich verstanden, dass RT die Verkäufe nicht ankurbelt. Wie auch, wenn nur ein Bruchteil es nutzen kann und das Spiel dadurch den Ruf bekommt ein "Performance-Killer" zu sein (auch wenn man es deaktivieren kann). Und Konsolenentwcikler stecken die Performance natürlich auch lieber in andere Sachen.

Sorry, aber RT ist und bleibt ein Nischen-Witz. Ich würde sogar behaupten es ist vorerst gescheitert, auch wenn Raff das nicht gerne wird. DLSS/FG (die ja glaube ich nur aus Not wegen der miesen RT-Performance entstanden sind) sind für mich die wahren Next-Gen-Features.
Sorry aber das ist Unsinn.
Star Wars nutzt btw sehr wohl RT...

Zu den größten Releases zählt definitiv Hogwarts Legacy (nutzt RT), Star Wars Jedi Survivor (nutzt RT) und Resident Evil 4 (nutzt RT).
RT hat sich schon lange durchgesetzt und ist praktisch in fast jedem neuen Spiel dabei, Spiele wie Starfield sind dahingehend eher Ausnahmen.
 
Zurück