News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Hoffentlich wird der Leistungssprung in der Mittelklasse dann ähnlich wie zwischen Turing und Ampere, also eine 5070 mit der Leistung einer 4090.
Wagt meiner einer zu bezweifeln. Die 4070 mit 12 GB kommt nicht mal an der 3080 mit 10 GB vorbei.
 

Anhänge

  • 4070 Bench.jpg
    4070 Bench.jpg
    413 KB · Aufrufe: 53

Anhänge

  • Red vs Green.jpg
    Red vs Green.jpg
    341,2 KB · Aufrufe: 51
  • FPS Watt 144 Hz.jpg
    FPS Watt 144 Hz.jpg
    293,3 KB · Aufrufe: 32
  • Watt Idle.jpg
    Watt Idle.jpg
    418,8 KB · Aufrufe: 29
  • Watt Messung.jpg
    Watt Messung.jpg
    340,6 KB · Aufrufe: 51
Zuletzt bearbeitet von einem Moderator:
Ich habe gesagt wie zwischen Turing und Ampere, und nicht Ampere und Lovelace.

Und da war die 3070 so schnell wie die 2080ti.

Cherry Picking vom Feinsten, Nvidia ist in punkto Leistung und Effizient weit vor AMD.
I know ! Und mein Vergleich war/ist von der letzten zur jetzigen Gen. Deshalb auch die "Bedenken".

Schon klar, ein jedes mal wenn Team Red den längeren haben sollte, ist´s "Cherry" par excellence :daumen:
 
Zuletzt bearbeitet von einem Moderator:
Naja. Die 3090 war ja auch schon nicht sooo furchtbar günstig. Sie ist nicht dir richtige Bemessungsgrundlage

980Ti 650&
TitanX 1000$
1080Ti 700$
TitanX 1200$
2080Ti 999$
3080Ti 1200$
3090 1500$
3090Ti: 2000$
4090 1600$
sofern die Gerüchte zu dieser Stimmen...
4090Ti um 2000$

Und im gleichem Maß sind die Wafer-Kosten gestiegen. Deine Bemessungsgrundlage lässt das komplett außen vor, obwohl es wohl der größte Faktor ist...

Also ja die Preise sind ganz schön gewachsen. Aber wir haben ja jetzt künstliche Beatmung DLSS/FSR.
Dann kommt uns die Mittelklasse nicht nur vom Preis her so vor wie die Oberklasse, nein auch die fps werden gepusht!
:ugly:
Schlimmer wird noch wenn AMD tatsächlich "nur" MIttelklasse in der nächsten Gen. baut und Nvidia weiter immer größere Zahlen mit allem anderen macht und Gaming immer unlukrativer wird für NV.
Dann können die jeden Preis aufrufen und die Enthusipasten Zahlen ohne mit der Wimper zu zucken. Wie immer halt!

Ich dachte immer Technischer Fortschritt bedeutet mehr Leistung fürs gleiche Geld zu bekommen.
Und nicht mehr Geld für Mehr Leistung zu zahlen!
Wenn man genug Geld drauf schmeißt kann man nahezu jedes Materielle Problem lösen das ist kein Fortschritt...
Die Bezahlte Summe steigt wieder stark Antiproportional zur Leistung Bei Computern.
vor einigen Jahren war es anders herum

Sehr schade finde ich das persönlich. Aber jeder kann halt kaufen was er "will".

Wann kommt eigentlich die 4080Ti für´n Tausi?^^

Bekommt man ja auch. Eine 4070 bekommt man für ~650€. Diese ist ungefähr so leistungsstark wie eine 3080 10GB, kostet weniger und hat mehr Features (Frame Generation). Also erhält man, in diesem Beispiel, gleich viele FPS für weniger Geld. Mit Frame Gen dann sogar mehr FPS.


Ist mir etwas zu pauschal die/Deine Aussage/Behauptung.
Ist mir etwas zu hart cherry-picked was Du da ausgräbst, vorallem schön mit Ampere reingemixt. Mach Dich nicht lächerlich...
 
Da bin ich echt gespannt. Weil sagen wir mal Blackwell kann dann FG+ also mit 2 Zwischen Bildern:
also Render bild FG bild FG Bild Render Bild.
Dann stelle ich mir die Frage wie fühlt sich das an ? Wie hoch ist die Latenz, wie sieht das aus?
Ich meine FG hat ja jetzt schon Problem hier und da.

Ich sags mal so du kannst nur eine Bestimmte Anzahl an Bilder berechnen ohne nicht die komplette Render pimpline durchzugehen, denn irgendwann muss ich den Input des Spieler wieder mit berechnen . (ich hoffe man versteht was ich meine).

Natürlich wäre es Super wenn wir mit nur einen teil der Rechnen Leistung der 4090 das Selbe Ergebnis erzielen können was Optik und Latenz angeht.

Also da FG + Reflex die Latenz schon nicht erhöht habe ich keine Bedenken, das es für egal was eine brauchbare Lösung gibt.

Nimm die Nativ leistung der 4090. Mit DLSS und FG(+Reflex) bekommst du die gleiche Leistung bei 4070ti, oder spätestens der 4080. (Speicher mal ausgenommen).

Ich habe FG selbst ausprobiert.

Weder sieht man beim Spielen im jetzigen Zustand Artefakte, noch spüre ich eine höheren Inputlag.

Probiert mit der 4070ti in 1440p und Cyberpunk2077 mit PathTracing.

Läuft super, sieht super aus.

Das es etwas dauert das es öfter eingesetzt wird und es auch manchmal dauert, bis es rund läuft, das ist ein Problem, das alle Anfänge von etwas neuem mit sich bringen.

Ich selbst kann aus Erfahrung nur Werbung, für DLSS und FG machen. (Das gilt im Regelfall auch für FSR)

Jetzt merkst du plötzlich 5ms? Oder wie erklärst du, das es sich für dich nicht geschmeidig anfühlt? Ich meine die Latenz stieg ja nur von 34 auf 39ms. Das kann man doch nicht merken. Ich meine ja nur, weil du zuvor 15ms als nicht merkbar festgehalten hast.

Außerdem kann ich bei CP77 nicht feststellen das es mit FG nicht mehr geschmeidig wäre. Und ich zocke auch zu über 90% Ego Shooter, wie BF, CoD, oder auch Doom mit normal um 120-150Fps, weil ich empfindlich bin.
Dass sich NV die Mehrleistung einer 5080 bezahlen lässt.
Und 500 € mehr sind für NV/User nicht extrem sonders "Peanuts" :-P
Verstehe diese Aussage nicht. Das ist Nvidia Feindlich.

Mal ehrlich Leute, nach der R9 290X hat sich AMD bei der Preis / Leistung, im High End Bereich nicht mehr mit Ruhm bekleckert. Aber Nvidia erfährt ständig und überall eine Hetze, bezüglich Preise usw.

Was ist da bloß falsch gelaufen.
 
Zuletzt bearbeitet:
Jetzt merkst du plötzlich 5ms? Oder wie erklärst du, das es sich für dich nicht geschmeidig anfühlt? Ich meine die Latenz stieg ja nur von 34 auf 39ms. Das kann man doch nicht merken. Ich meine ja nur, weil du zuvor 15ms als nicht merkbar festgehalten hast.

Außerdem kann ich bei CP77 nicht feststellen das es mit FG nicht mehr geschmeidig wäre. Und ich zocke auch zu über 90% Ego Shooter, wie BF, CoD, oder auch Doom mit normal um 120-150Fps, weil ich empfindlich bin.
Ne, das Bild habe ich genommen um zu zeigen das selbst mit Reflex+FG die latenz schlechter sein kann als Nativ (gemeint ist kein FG) ohne Reflex. Was aber nach meiner Meinung kein passender vergleich ist. Da
Reflex ja auch ohne Fg verwendbar ist (manchmal).

TLDR:
Ich finde ein Guter Latenz Test ist immer unter den gleichen umständen entstanden und nicht ich aktiviere FG und dann noch ein anders feature um den Nachteil von FG zu verringern.

Aber wie gesagt finde FG spannend, ich finde nur das es halt ein Feature ist das noch Arbeit braucht.
Von Verbreitung, einen gewissen Standard an Qualität (diese schwankt teils stark finde ich je nach game) und Optische Artefakte gibt es leider auch noch hier und da.

Wie gesagt von den 6 Titeln oder so die ich besitze in denen FG verfügbar ist.
War Redfall das einzige in dem es für mich einen Mehrwert gab. Mal schauen ob die Anzahl mit der Zeit wächst.
 
Ne, das Bild habe ich genommen um zu zeigen das selbst mit Reflex+FG die latenz schlechter sein kann als Nativ (gemeint ist kein FG) ohne Reflex. Was aber nach meiner Meinung kein passender vergleich ist. Da
Reflex ja auch ohne Fg verwendbar ist (manchmal).

TLDR:
Ich finde ein Guter Latenz Test ist immer unter den gleichen umständen entstanden und nicht ich aktiviere FG und dann noch ein anders feature um den Nachteil von FG zu verringern.

Aber wie gesagt finde FG spannend, ich finde nur das es halt ein Feature ist das noch Arbeit braucht.
Von Verbreitung, einen gewissen Standard an Qualität (diese schwankt teils stark finde ich je nach game) und Optische Artefakte gibt es leider auch noch hier und da.

Wie gesagt von den 6 Titeln oder so die ich besitze in denen FG verfügbar ist.
War Redfall das einzige in dem es für mich einen Mehrwert gab. Mal schauen ob die Anzahl mit der Zeit wächst.
Ich gehe immer stark nach meiner eigenen Erfahrung, sofern möglich.

Reflex habe ich noch nie benutzt. Erstmalig jetzt mit FG.
Außerdem finde ich, sollte man nur danach gehen, ab wann es einen störenden Inputlag gibt. Das ist bei FG+Reflex eher die Ausnahme.
 
Die 4090 hat auch ungefähr soviel im Vergleich zur 3090 zugelegt
Die 3090 war aber insgesamt eine absolute Enttäuschung, dazu kam ein recht ordentlicher Schritt im Bereich der Fertigung dazu. Es ging von Samsung 8nm hin zu N4 von TSMC und der Schritt für Blackwell wäre verhältnismäßig klein, 15% mehr Leistung wären dem Prozess geschuldet, mehr dann auch nicht. Dazu kommt, dass 2,5 fache Leistung aus der 4090 am Ende nur mit FG rauskommt. Wenn NV nicht daran arbeitet bald nur noch jedes zehnte Bild zu berechnen, kann ich mir daher 2,5 fache Leistung so mit einer Wahrscheinlichkeit von 0% vorstellen. Technisch am Ende einfach nicht realisierbar.

Es steigert in jedem Fall massiv die Performance. Was soll daran "sehr beschränkt sinnvoll" sein?
Es steigert die Performance nunmal nicht, das ist immer noch falsch. Es erhöht die Anzahl der dargestellten Bilder, aber es verbessert eben nicht die Latenz die in vielen Titeln wo es auf FPS ankommt wichtig sind. FG ist kein Teufelszeug, aber es führt in meinen Augen aktuell dazu, dass Nvidia marketingtechnisch die Dummheit einiger Nutzer für sich nutzt und das ist echt schlimm, vor allem da sie es aktuell ja nichtmal nötig haben und Dinge wie die reine Leistung, wie DLSS 2.x in den Vordergrund stellen müssten, wo sie effektiv große Vorteile haben. Stattdessen wird aber der Nutzer für Dumm verkauft und es wird flächendeckend so getan, als ob FG die doppelte Performance liefert, was Quatsch ist.

P.S.
Nicht falsch verstehen, FG kann helfen, keine Frage. Aber niemals nicht kann ein FG Frame im Ansatz soviel wert sein wie ein echter Frame, es wird aber eben so getan.
 
Außerdem finde ich, sollte man nur danach gehen, ab wann es einen störenden Inputlag gibt. Das ist bei FG+Reflex eher die Ausnahme.
Ich nutze aktuell im Laptop FG (Starfield und Diablo IV), bei Diablo komme ich mit und ohne FG in einen sehr spielbaren Bereich, hier nutze ich FG immer auf Akku (RTX4070) und finde es wirklich OK. In Starfield (gut, kein offiziell unterstütztes Spiel) empfinde ich FG dagegen als katastrophal, nicht weil es schlecht aussieht, aber weil es nichts bringt und das Spiel nicht von unspielbar zu spielbar wandelt, obwohl ich nahezu konstant 60fps habe (nur mit OSD gelesen), habe ich dennoch unfassbar viele Hänger und Reduzierungen der Auflösungen etc. Ich hab zwar mehr FPS als ohne FG, aber es ist genauso unspielbar. Am Ende habe ich bei Starfield die Qualität nun auf Mittel (trotz DLSS 3.5 FG Mod und 50% Skalierung) und ich kann es spielen, aber auch hier wieder, erst wenn es auch ohne FG geht, kann ich FG sinnvoll nutzen.

Für mich ist FG aktuell eine absolute Spielerei und ehrlicherweise kann ich mir nicht vorstellen, dass es mehr wird. Spiele die ohne FG laufen können mit FG noch etwas besser und flüssiger ausschauen, mehr wird FG aber nie leisten können, das ist einfach schon ein technischer Umstand den man nicht wegdiskutieren kann.
Nein ging es nicht. Es ging von 8nm Samsung zum 5nm 4N Prozess. 4N ist immer noch nicht N4…
Sorry, falsch rum geschrieben, 4N. Aber nur zur Info, es gibt ja auch gar keinen echten 4nm Prozess, TSMC bietet 7nm, 5nm und 3nm an und rund um diese Strukturen werden dann eben verbesserte Verfahren angeboten, die aber eben grds. in der Strukturgröße der Eltern bleiben. 4N, ebenso wie N4, N4P sind alles 5nm Prozesse.
 
Ich gehe immer stark nach meiner eigenen Erfahrung, sofern möglich.
Ich auch. Gerade das Cyberpunk Beispiel ist bei mir Persönliche Erfahrung Zocke in 4k mit DLSS Qualität in der Regel mit PT aktiv. Habe dort so ca 40 FPS. Das fühlt sich etwas träge an. Aktiviere ich FG fühlt es sich immernoch Träge an sieht aber glatter aus, hat aber Artefakte beim Fahren und anderen schnellen Bewegungen. Was es für mich unnützlich macht.
Da ich ein teils hässlicheres Bild habe und Trotzdem noch ein unrundes Spiel gefühl.
Dann nutze ich lieber DLSS Balanced oder Deaktiviere PT um dann gut über 60 FPS zu kommen. Wo ich dann ein Flüssiges Bild habe ein schönes Spielgefühl und keine Artefakte.

TLDR: Dort wo ich FG bräuchte kann ich es nicht sinnvoll nutzen. Weil es den teil der mich am meisten Stört nicht behebt.
 
Wird dann die 5070/5070 Ti. Einer von diesen wird sicher die Leistung einer 4090 (wohlmöglich etwas mehr) haben. Hoffe wir landen dann nicht bei 1000€ für midrange. :ugly:
Rechne lieber nicht damit, so einen Boost wie RTX3xxx zu RTX4xxx wird es in meinen Augen nicht geben, die 5070Ti wird vermutlich die 4080 schlagen, aber nicht in den Bereich der 4090 kommen. Zumindest gibt es Stand jetzt keinerlei Anhaltspunkte die etwas in der Art vermuten oder hoffen lassen.
 
Die 3090 war aber insgesamt eine absolute Enttäuschung, dazu kam ein recht ordentlicher Schritt im Bereich der Fertigung dazu. Es ging von Samsung 8nm hin zu N4 von TSMC und der Schritt für Blackwell wäre verhältnismäßig klein, 15% mehr Leistung wären dem Prozess geschuldet, mehr dann auch nicht. Dazu kommt, dass 2,5 fache Leistung aus der 4090 am Ende nur mit FG rauskommt. Wenn NV nicht daran arbeitet bald nur noch jedes zehnte Bild zu berechnen, kann ich mir daher 2,5 fache Leistung so mit einer Wahrscheinlichkeit von 0% vorstellen. Technisch am Ende einfach nicht realisierbar.

Beim Rastern ist man ja bereits am Ende der Fahnenstange angelangt, noch mehr Shader bekommt man vermutlich noch weniger gut ausgelastet. Wobei Blackwell ja eine komplett neue Architektur haben soll, vielleicht hat Nvidia etwas gefunden um die Shader-Auslastung zu verbessern.

Daher stimme ich Dir, unter Vorbehalt, zu. Beim Rastern wird man eher nicht x2,5 der Leistung einer 4090 erreichen. Beim Raytracing / Pathtracing und der Tensor Leistung dagegen denke ich dass diese Steigerung durchaus möglich ist.
 
Ich auch. Gerade das Cyberpunk Beispiel ist bei mir Persönliche Erfahrung Zocke in 4k mit DLSS Qualität in der Regel mit PT aktiv. Habe dort so ca 40 FPS.
Bei mir das selbe nur in 1440p.
Das fühlt sich etwas träge an. Aktiviere ich FG fühlt es sich immernoch Träge an sieht aber glatter aus, hat aber Artefakte beim Fahren und anderen schnellen Bewegungen.
Weder fühlt es sich bei mir dann noch zu träge an, noch sehe ich Artefakte. Habe auch extra immer wieder schnelle Bewegungen gemacht zum probieren.
Was es für mich unnützlich macht.
Aus deiner Sicht und deiner Erfahrung nachvollziehbar.
Da ich ein teils hässlicheres Bild habe und Trotzdem noch ein unrundes Spiel gefühl.
Dann nutze ich lieber DLSS Balanced oder Deaktiviere PT um dann gut über 60 FPS zu kommen. Wo ich dann ein Flüssiges Bild habe ein schönes Spielgefühl und keine Artefakte.

Das habe ich auch schon öfter gedacht. So groß ist der Performanceunterschied nicht mehr, zischen DLSS B, oder gar DLSS P, im Vergleich zu DLSS Q + FG.
TLDR: Dort wo ich FG bräuchte kann ich es nicht sinnvoll nutzen.
Ich schon, CP77 ist bei mir mit PT halt der Unterschied zwischen gut spielbar und eben nicht.
DLSS Performance probiere ich nicht. Dann lieber Q + FG.
Weil es den teil der mich am meisten Stört nicht behebt.
Wie gsagt, auf Basis deiner Erfahrung nachvollziehbar. Wobei ich eigentlich eher gedacht hätte das du weniger Problem haben müsstest.

4080, oder 4090?
Wird dann die 5070/5070 Ti. Einer von diesen wird sicher die Leistung einer 4090 (wohlmöglich etwas mehr) haben. Hoffe wir landen dann nicht bei 1000€ für midrange. :ugly:
Da die 4070ti schon bei 900€ liegt, wird die 5070ti (ich hoffe auch das die auf 4090 Niveau liegt) dann sicherlich bei 1000 bis 1100€ liegen.
 
Bei mir das selbe nur in 1440p.

Weder fühlt es sich bei mir dann noch zu träge an, noch sehe ich Artefakte. Habe auch extra immer wieder schnelle Bewegungen gemacht zum probieren.

Aus deiner Sicht und deiner Erfahrung nachvollziehbar.


Das habe ich auch schon öfter gedacht. So groß ist der Performanceunterschied nicht mehr, zischen DLSS B, oder gar DLSS P, im Vergleich zu DLSS Q + FG.

Ich schon, CP77 ist bei mir mit PT halt der Unterschied zwischen gut spielbar und eben nicht.
DLSS Performance probiere ich nicht. Dann lieber Q + FG.

Wie gsagt, auf Basis deiner Erfahrung nachvollziehbar. Wobei ich eigentlich eher gedacht hätte das du weniger Problem haben müsstest.

4080, oder 4090?

Da die 4070ti schon bei 900€ liegt, wird die 5070ti (ich hoffe auch das die auf 4090 Niveau liegt) dann sicherlich bei 1000 bis 1100€ liegen.
Schauen wir mal. Ich konnte meine 4070 Ti für 850€ zum Release schießen. Wenn es am Ende 950€ werden, dann ist das halt so. Die 1000€ Marke gefällt mir nur einfach nicht. Dass die Preise sowieso schon absurd sind, steht ja außer Frage.
 
Schauen wir mal. Ich konnte meine 4070 Ti für 850€ zum Release schießen.
Ich habe für meine 870 bezahlt... Release war aber mindestens 899€ (Außer irgendeine Rabattaktion) deswegen habe ich das genommen. ;)
Wenn es am Ende 950€ werden, dann ist das halt so. Die 1000€ Marke gefällt mir nur einfach nicht. Das die Preise sowieso schon absurd sind, steht ja außer Frage.

Dann sind aber auch alle anderen Preise absurd.
Käse, Benzin, Autos, usw.

Über die GPU Preise regen sich die Leute bei den plötzlichen Anstiegen natürlich auf. Aber im vieljährigen Mittel istz es eigentlich nicht mehr gestiegen als andere Dinge.
4090.
Für PT in Cyberpunk mit 4k als Bildschirmauflösung bräuchte ich zum Spielen ca 50% mehr performance als das was eine 4090 mir im Moment bietet.
Ich glaube ich würde in 4k und PT mit Cyberpunk zurecht kommen ;).

Aber klar, ich nehme auch 100% Mehrleistung gegenüber einer vermutlichen 5090.
Ist mir etwas zu pauschal die/Deine Aussage/Behauptung.
Meinst du das ernst, oder ist dieser Post eher Satire?
 
Zuletzt bearbeitet:
Zurück