News Nvidia Geforce RTX 5060: Ist das die kleinste Blackwell-GPU?

Was ich noch sehr fraglich finde ist das Thema MFG. Man kann eben nicht aus 23fps mal eben 150 machen, wegen Inputlag. Dazu kommt anscheinend noch heftiges Ghosting / Tearing, besonders wenn man die Kamera schneller horizontal bewegt (
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
, ab 4:38). Bin da leider noch sehr skeptisch. Aber davon wird abhängen, was die Karten letztendlich wert sind.

Edit: hab das Video mal gestoppt in dem Moment der Kamerabewegung:

1736696094851.png
 
Zuletzt bearbeitet:
Die Leute kaufen ja eh ohne nachzudenken bzw sich damit auseinanderzusetzen, man sieht seit über 10 Jahren das sich nVidia alles erlauben kann und die ahnungslose Masse es abfeiert.
Die haben ja alle eh keine Ahnung was sie tun und nur du hast den Durchblick.
Aber ich verstehe wie dein Denken funktioniert. Du denkst die AMD Karten sind besser und so suchst du den Schuldigen für die Misere dann in irgendwelchen non-existenten Fanboys.
Das ist gerade mal eine 50er Karte und trotzdem wird es in Massen verkauft.
Wäre die Konkurrenz ja dann auch oder? Die B580 ne B550er und die RX 9060 ne 9050er?
Konsistentes Portfolio mit durchgehender Verbesserung? Neeee
Geht vorerst aufgrund des SI nicht anders.
 
Was ich noch sehr fraglich finde ist das Thema MFG. Man kann eben nicht aus 23fps mal eben 150 machen, wegen Inputlag. Dazu kommt anscheinend noch heftiges Ghosting / Tearing, besonders wenn man die Kamera schneller horizontal bewegt (
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
, ab 4:38). Bin da leider noch sehr skeptisch. Aber davon wird abhängen, was die Karten letztendlich wert sind.
Damit müssen wir uns jetzt alle arrangieren.
Die Karten hersteller werden die Karten kaum noch schneller machen, stattdessen kommt die nächste Generation mit noch mehr ai bildern daher. Die 5070=4090 aussage war schon alarmierend genug um zu wissen wo die reise hingeht.
 
Die haben ja alle eh keine Ahnung was sie tun und nur du hast den Durchblick.
Aber ich verstehe wie dein Denken funktioniert. Du denkst die AMD Karten sind besser und so suchst du den Schuldigen für die Misere dann in irgendwelchen non-existenten Fanboys.

Wäre die Konkurrenz ja dann auch oder? Die B580 ne B550er und die RX 9060 ne 9050er?

Geht vorerst aufgrund des SI nicht anders.
Der DAU? Typischer Media Markt, Online PC Käufer? Nope niemals, komm ins PCGH Discord und überzeug dich selbst. Die kennen Geforce und das zählt, die Aussage 5070 schlägt 4090 ist absolut fehlleitend. Aber damit man sowas weiß muss man sich mit der Materie auseinanderstzen, wie du, ich und viele andere User in Foren und co, dafür gibts die ja. Je nach Preisklasse kann auch eine Intel Karte besser sein, die wenigstens User brauchen spezifische Features von einem der drei. (Besonders wenn man sieht das nVidia quasi nen Monopol mit 90% hat, CUDA, DLSS, FG, RT und co wird ein Großteil z.B. der Steam User, nichtmal kennen).

Je nach Ausbau des SI, % Anteil der Shader im Verhältnis zum Vollausbau usw, klar doch. Gibt ja nun genügend Generationen an denen man das vergleichen kann usw. Wie ist die Einteilung, wo wird extra beschnitten usw.

Das ist wahr, so eine Generation wird ja nicht von heute auf morgen designt. Aber den hochbzehalten Ingenieuren der Hersteller ist ja bereits bewusst welche Menge RAM es gibt, was passt an welches SI, etwas später ggf auch gibt es Salvage Varianten z.B. Arc B570 mit 10GB usw. Da seit Jahren so einen dermaßenen Stillstand zu haben und Karten mit Sollbruchstelle zu produzieren, ist halt frech und gegen den Kunden. Dazu steigende Preise usw. nVidia als bestes Bsp. weiß natürlich das die Karten dann schneller ausgewechselt werden müssen. Anstatt z.B. bei der Leistung der 5080 direkt auf ein 320 Bit Bus zu gehen.
 
Die Karten hersteller werden die Karten kaum noch schneller machen
Doch - das können sie aber im Wesentlichen nur noch mit besserer Fertigungstechnologie, und die gab es diesmal nicht (RTX4000 und 5000 sind beide im Wesentlichen TSMC-4nm). Ohne den Sprung von GDDR6 auf 7 wäre es noch weniger geworden.

Wirklich schneller (pro Watt und pro Chipfläche und pro Euro...) wirds erst wieder, wenn GPUs in 2nm produziert werden. TSMC startet die Massenproduktion 2025, für große Chipflächen wie GPUs wirds aber traditionell später da der Prozess dafür sehr gute yields haben muss, sprich schätzungsweise 2026 - und dann kommen erst HPC Chips mit denen man mächtig Schotter verdient bevor man irgendwelche Spielerkarten baut. Mit letzteren (und damit mit dem nächsten nennenswerten Effizienz-/Performancesprung) rechne ich als mal vorsichtig 2027.
Videocardz ist noch konservativer:
1736687426761.png
 
Der DAU? Typischer Media Markt, Online PC Käufer?
Die kaufen das, was schon beim letzten mal gut war. Ganz normale Käuferbindung. Wenn du mit etwas das letzte mal zufrieden warst, wirst du so schnell nicht den Anbieter wechseln, es sei denn er ist schneller. Und das war AMD schon 20 Jahre nicht mehr.
die Aussage 5070 schlägt 4090 ist absolut fehlleitend.
Das ist mit AI und MFG nicht fehlleitend.
Aber damit man sowas weiß muss man sich mit der Materie auseinanderstzen, wie du, ich und viele andere User in Foren und co, dafür gibts die ja.
Für die normalen Gamer reicht halt ein generiertes Bild. Oder 2-3 generierte Bilder, wenn die Latenz im Rahmen bleibt. Bringt nichts wenn man sich immer negativ über neue Features äußert.
Je nach Preisklasse kann auch eine Intel Karte besser sein, die wenigstens User brauchen spezifische Features von einem der drei.
Das sind halt Details, aber man macht nichts geundsätzlich falsch.
Anders bei 9800X3D und 285K und da merken es auch dann jene die immer Intel gekauft haben. Zum Zocken loh der 285K nicht.
Da seit Jahren so einen dermaßenen Stillstand zu haben und Karten mit Sollbruchstelle zu produzieren, ist halt frech und gegen den Kunden.
Das ist wie schon x Fach diskutiert eine beschränkte Sichtweise. Nicht nur der VRAM zählt, sondern auch Effizienz Featureset, RT, FG/MFG usw. Und da kann für 1080 oder 1440p auch die 5070 natürlich je nach Perspektive auch besser sein als das AMD Angebot.

War die 4070 ja schon die ganze Zeit.
Dazu steigende Preise usw. nVidia als bestes Bsp. weiß natürlich das die Karten dann schneller ausgewechselt werden müssen.
Du tust immer so als ob die Konkurrenzprodukte dann die Offenbarung sind. Die haben auch andere Nachteile die du nicht erwähnst. Immer dasselbe.
 
Nein. Nvidia wird uns erklären, das eine 5060 so schnell sein wird, wie eine 4080 (Super).
Genauso wie eine 5070 so schnell wie eine 4090 sein soll.
Alles jedenfalls, wenn es nach Nvidia geht. Its halt (KI) Magic .....

Bei AMD doch das gleiche. Eine 9070 wird mit FSR 4 und dessen Frame-Gen eine 7900XTX ordentlich im Regen stehen lassen. Davon kannst Du ausgehen. Wenn dem so sein sollte wird sich eine 9070 auf dem Level der 5080 einfinden. Preislich vermutlich aufgrund des alten Speichers 100-200€ darunter, vielleicht auch etwas mehr.
 
Bisher hat FSR3-FG keine Verdopplung der Fps schaffen können.
Wieso soll das jetzt mit FSR4 gehen, falls man am Grundprinzip mit 2 echten Frames + 1 zusätzlichem Frame dazwischen festhält.
Mit der 7900xtx kann man ja mal spassenshalber gleichzeitig FG und AFMF2 probieren.
Je nach Game habe ich da keine Probleme, solange die minFps nativ >45...50fps sind.

Das NV-Gimmick mit rein spekulativen forward Fakeframes ist natürlich schneller aber auch fehlerbehaftet.
(es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren)
Uups, an der Kreuzung kam ein Auto von Rechts.
Uups, im MP-Shooter ist ein Gegner aufgetaucht.
etc.
 
Bisher hat FSR3-FG keine Verdopplung der Fps schaffen können.
Wieso soll das jetzt mit FSR4 gehen, falls man am Grundprinzip mit 2 echten Frames + 1 zusätzlichem Frame dazwischen festhält.
Mit der 7900xtx kann man ja mal spassenshalber gleichzeitig FG und AFMF2 probieren.
Je nach Game habe ich da keine Probleme, solange die minFps nativ >45...50fps sind.

Das NV-Gimmick mit rein spekulativen forward Fakeframes ist natürlich schneller aber auch fehlerbehaftet.
(es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren)
Uups, an der Kreuzung kam ein Auto von Rechts.
Uups, im MP-Shooter ist ein Gegner aufgetaucht.
etc.

Warum nicht? Bei mir bringts immer doppelte fps.
 
Das NV-Gimmick mit rein spekulativen forward Fakeframes ist natürlich schneller aber auch fehlerbehaftet.
(es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren)
Uups, an der Kreuzung kam ein Auto von Rechts.
Uups, im MP-Shooter ist ein Gegner aufgetaucht.

Denke bitte etwas weiter - so einfach ist das nicht.

Angenommen deine Karte würde ohne FG 50 fps schaffen. Bedeutet ein echter neuer Frame alle 20 Millisekunden.
Mit MFG gestehen wir der Karte jetzt wohlwollend 200 fps zu (für das Beispiel ists egal ob 150 oder 200), also ein neuer Frame alle 5 Millisekunden. Nur haben wir hier einen echten neuen frame und 3 spekulativ generierte.

Angenommen (worst case) nach 2,001 vergangenen Sekunden kommt dein Gegner ins Bild.
Karte 1, 50 fps, kein FG, würde diesen Gegner im Frame 101 erstmals anzeigen, nach 2,05 Sekunden.
Karte 2, 200fps, MFG, würde diesen Gegner im Frame 404 erstmals anzeigen, nach 2,05 Sekunden (denn Frames 401,402 und 403 sind spekulativ und können nichts vom Gegner wissen).
Latenz: 19 Millisekunden. Unterschied: Null.

Es spielt keine Rolle ob FG an oder aus ist, denn ob Zusatzframes in die Zukunft "geraten" erstellt werden oder nicht ändert nichts am Zeitpunkt des nächsten echten Frames der die Information "Gegner ist da" beinhalten kann.

"es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren" stimmt zwar - aber die Informationen sind ohne (M)FG nunmal auch nicht zu sehen.
 
@Incredible Alk endlich mal einer, der erst nachdenkt bevor er meckert. Ich habe schon DLSS1 am ersten Tag in BF5 genutzt. War nicht perfekt, aber technisch fazinierend. Es wurde dann ja auch beinahe im Wochetakt besser. Ich jedenfalls liebäugle mit der RT5070. Hab halt ein Spiel welches DLSS4 bekommt und auch braucht. Aber erst nach einem PCGH Test. Und dann das leiseste Cusom Design.
 
Denke bitte etwas weiter - so einfach ist das nicht.

Angenommen deine Karte würde ohne FG 50 fps schaffen. Bedeutet ein echter neuer Frame alle 20 Millisekunden.
Mit MFG gestehen wir der Karte jetzt wohlwollend 200 fps zu (für das Beispiel ists egal ob 150 oder 200), also ein neuer Frame alle 5 Millisekunden. Nur haben wir hier einen echten neuen frame und 3 spekulativ generierte.

Angenommen (worst case) nach 2,001 vergangenen Sekunden kommt dein Gegner ins Bild.
Karte 1, 50 fps, kein FG, würde diesen Gegner im Frame 101 erstmals anzeigen, nach 2,05 Sekunden.
Karte 2, 200fps, MFG, würde diesen Gegner im Frame 404 erstmals anzeigen, nach 2,05 Sekunden (denn Frames 401,402 und 403 sind spekulativ und können nichts vom Gegner wissen).
Latenz: 19 Millisekunden. Unterschied: Null.

Es spielt keine Rolle ob FG an oder aus ist, denn ob Zusatzframes in die Zukunft "geraten" erstellt werden oder nicht ändert nichts am Zeitpunkt des nächsten echten Frames der die Information "Gegner ist da" beinhalten kann.

"es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren" stimmt zwar - aber die Informationen sind ohne (M)FG nunmal auch nicht zu sehen.
Steigt die Latenz mit MFG nicht etwas an? In so einem Fall hast du dann schon einen gewissen Nachteil wenns richtung kompetitiver Shooter oder SimRacing geht ggü gleichen Settings ohne FG.
Aber wichtig ist das egal ob man MFG nutzt oder nicht spaß mit den Games hat. Wer das smoothere Erlebnis will und den Inputlag nicht das wichtigste ist, der wird damit denke ich gut leben können. Wirklich freuen würde ich mich aber wenn dass künftig bei den CPU lastigen Games standard wird. X4 mit 40 statt 20fps, da scheiß ich ehrlich auf den Inputlag ich habe da keine Wahl entweder ich krieche mit schlechten Inputlag und fps rum oder ich habe zumindest kein ruckeliges Spielerlebnis mehr.
 
Steigt die Latenz mit MFG nicht etwas an? In so einem Fall hast du dann schon einen gewissen Nachteil wenns richtung kompetitiver Shooter oder SimRacing geht ggü gleichen Settings ohne FG.
Ja (wahrscheinlich - wird man erst messen müssen), aber aus anderen Gründen die nichts mit der reinen Frameanzahl zu tun haben.

Aber wichtig ist das egal ob man MFG nutzt oder nicht spaß mit den Games hat. Wer das smoothere Erlebnis will und den Inputlag nicht das wichtigste ist, der wird damit denke ich gut leben können.
Ganz genau.
Es kann ja jeder selbst entscheiden ob/wo/wie er Framegeneration benutzt oder nicht. Ich habs bisher auch immer aus gelassen - nicht weil ich latenzkritisch spielen würde sondern weil ich die zusätzlichen fps nicht gebraucht habe bisher und das Feature häufig probleme machte (etwa in Diablo 4 wars ziemlich verbuggt lange Zeit).
 
Es spielt keine Rolle ob FG an oder aus ist, denn ob Zusatzframes in die Zukunft "geraten" erstellt werden oder nicht ändert nichts am Zeitpunkt des nächsten echten Frames der die Information "Gegner ist da" beinhalten kann.

"es fehlen während der 3 fakeframes einfach die Dinge die in der Zwischenzeit im Spiel passieren" stimmt zwar - aber die Informationen sind ohne (M)FG nunmal auch nicht zu sehen.
but
beim alten FSR3-FG ist die Latenz zwar größer, jedoch ist die Information vom 2.echten Bild schon da
und der Treiber entscheidet, ob beim Zwischenbild neue Dinge schon zu sehen sind
(die Veränderungen ploppen dann nicht so plötzlich auf)
 
Zurück