News Geforce RTX 4070: Gleicher Preis wie die 3070 Ti und deutlich unter 4070 Ti [Gerücht]

Man kann trotzdem gut die Flächen der reinen ShaderUnits vgl., siehe Locuza:

N31 vs AD102.jpg


Ob dann ne 4070Ti halb so viel Fläche wie ne 4090 für die GPC nutzt, who knows.
 
amd und nvidia Architekturen sind grundlegend unterschiedlich da kann man nicht einfach 1-1 vergleichen
beides kann man in dessen whitepapern nachlesen
Wobei nvidia das auf drei Dokumente aufgeteilt wurde
turing grundlegnde arch ampere sm struktur änderung ada rt core anpassungen.
rdna rdna1 Struktur der arch rdna2 Änderung des sub speichersystems rdna3 Änderung der cu an sich (theoretische doppelte Ausführung, praktische Latenz verzögerte)
 
Und genau das kritisiere ich: 4080 und 4090 liefern von Haus aus schon verhältnismäßig starke Performance und idR genug, damit sich FG auch "auszahlt", je schwächer die Karte und geringer die FPS, desto unattraktiver wird es. Und dann wird behauptet, wie sehr die 4070 davon im Vergleich profitiert?

Das Argument ergibt für mich keinen Sinn. Wenn man eine deutlich preiswertere und dadurch auch schwächere und mit weniger VRam ausgestattete GPU kauft, ist diese auch für geringere Auflösugen ausgelegt.

Die 4070Ti ist für WQHD das, was die 4090 für 4K ist und die 4070 wird für WQHD das sein, was die 4080 für 4K ist. Dem entsprechend kann DLSS 3 hier genau die selben Vorteile bringen, eben nur in einer geringeren Auflösung. Einziges Problem kann hier höchstens der VRam sein, es gibt ja Meldungen, dass FG mal eben 2-3 GB reservieren kann. Die Frage ist hier, wieviel davon wirklich benötigt wird bzw. wieviel einfach nur "reserviert" ist. In der Hinsicht geht den 12GB natürlich deutlich schneller die Puste aus, trotz geringerer Auflösung.
 
(...), ergo je stärker die Karte, desto besser.

Darüber brauchen wir nicht darüber zu debattieren.

Natürlich sind native 60FPS besser als 30FPS plus FG, selbstverständlich ist natives 4K plus Supersampling besser als 720p per Ultra Performancemodus hochskaliert auf 4K. Und, ja stärker die Karte, umso besser, am besten kauft man sich jede Generation das schnellste.

Das ist so, als würde man sagen, dass nachher später als vorher ist.

Die Frage ist, wie die Sache aussieht, wenn nicht genug Leistung vorhanden ist. Nicht jeder hat bock sich alle zwei Jahre eine neue Karte, für 2000€ kaufen und keine Karte kann alles nativ in 8K60 oder bald 16K60 darstellen.

Dann ist es doch ganz gut in die DLSS oder FSR Trickkiste zu greifen. Es kommt halt eben darauf an, womit man es vergleicht. Die Alternative lautet nicht 4K60 Native gegen 4K60 Ultra Performance, mit Frame Generation, sondern 4K60 UP mit Framegeneration gegen 1080p30 nativ. Da sehen FSR und DLSS plötzlich extrem gut aus.

Was das Aussehen angeht kommt es genauso auf den Titel an. Schnelle Szenenwechsel sind oft deutlich erkennbar. "Kontinuierliche" Bilder hingegen nicht.

Um ehrlich zu sein, das Video, in dem die PCGH Redation verzweifelt versucht hat, DLSS 3 von DLSS 2 und nativ zu unterscheiden, hat mich überzeugt. Da wurde dann auf ein Gebüsch gestarrt, mit der Maus hin und her gewackelt, damit ich doch irgendwelche Artefakte zeigen und so richtig zuverlässig konnte das nicht unterschieden werden. Wohlgemerkt: die Leute wußten etwa, wonach sie suchen müssen.

Von daher ist DLSS 3 eine extrem gute Alternative. Nach kurzer Zeit im Spiel fällt das nicht mehr auf (sofern kein schneller Egoshooter).

Jetzt rein auf DLSS3 bezogen, aber auch AMD kocht nur mit Wasser und ich bezweifle, dass ihre Lösung (wenn überhaupt) groß besser sein wird.

Wenn FSR 3 irgendwie in die Nähe von DLSS kommt, dann ist alles in Ordnung. Von übertreffen braucht man garnicht zu reden.

Klar hängt es auch vom Titel ab, es ging aber um die Behauptung, dass es gerade bei schwachen Karten/niedrigen FPS helfen würde, und das ist nunmal schlichtweg falsch.

Es ist richtig, bei schwachen Karten kommt das besonders zur Geltung kommt, bei starken braucht man es einfach nicht.

Ich will normalerweise mehr FPS, damit die Latenz sinkt.

Tja, du willst das und in schnellen Egoshootern ist das auch sehr wichtig. In anderen Spielen ist das eher verzichtbar. Besonders wenn man im Singleplayer zock und nicht im Multiplayer, wo das geringste bisschen den Ausschlag geben kann ob du dich freust oder der Typ am anderen Ende der Welt.

Extremes Beispiel wäre Anno oder noch extremer rundenbasierende Strategie. Die kann man an und für sich auch mit 10 FPS zocken. Das Problem ist, dass es dann absolut pervers ruckelt. FG kann da dann Abhilfe schaffen und dafür sorgen, dass das ganze flüssig läuft, wenn es z.B. aus 20 FPS 40 macht.

Darum sind ja auch 1% und 0.1% Lows interessant (Ruckler). Wenn ich mir aber mehr FPS mit mehr Latenz erkaufe läuft das genau ins Gegenteil.

Wie gesagt: es kommt auf das Spiel an. In kompetitiven Egoshootern definitiv, aber nicht alles besteht daraus.

Heißt ich brauch von Haus aus bereits ein flüssiges Spielerlebnis und gesund FPS, damit sich Frame Generation positiv auswirkt (-> noch flüssiger, potentiell weniger Ruckler), ergo je stärker die Karte, desto besser.

Tja, du scheinst es zu brauchen, scheinbar zockst du nur kompetitive Spiele und Egoshooter. Ich zocke hingegen gerne Rollenspiele, wie Diablo 4, Elex usw. Da ist es nicht ganz so wichtig, da kommt es dann darauf an, ob es flüssig ist.

Mag sein, dass das für dich nichts ist, das du du in deinen Egoshootern jede Mi8llisekunde fühlt. Aber nicht jeder ist so wie du. Du mußt dir die neuesten Karten kaufen, damit es möglichst flüssig ist, aber Leute, wie ich, freuen sich, dass sie aus ihren alten Karten etwas mehr herausholen können.

Kauf dir einfach deine neuen Karten, aber blick über den Tellerrand und erkenne, dass nicht jeder so ein Ultra Progamer ist, wie du.

Abschließend eine Frage: hast du das ganze überhaupt mit eigenen (Progamer)Augen gesehen oder plapperst du irgendwas nach, was du irgendwie einmal gehört hast?

Das ist irgendwie relativ oft der Fall, wenn man z.B. von Leuten hört, FSR 1 würde angeblich so schlecht aussehen, obwohl die niemals damit gezockt haben. Es ist eine Schache, die Unterschiede in irgendwelchen Vergrößerungen von Standbildern zu sehen, das andere, damit mal eine Stunde lang auf 4K zu zocken.
 
Geforce RTX 4070: Gleicher Preis wie die 3070Ti und deutlich unter 4070 Ti

OK 20% mehr Aufpreis zum Vorgänger der RTX 3070 - sehe das jetzt egal wie ich es verpacke nur einen Rückschritt :)

mal schauen 25% mehr Leistung zu 20% Mehrpreis wären nice zum Vorgänger.

50% mehr Speicher + 25% Mehr Leistung wären ein Fortschritt alles andere Stillstand bzw. Rückschritt.
 
FSR 1 würde angeblich so schlecht aussehen
Kommt immer auf die Umstände an, aber wer sagt Cyberpunk mit FSR1 auf balanced oder performance sähe gut bei FHD aus den würde ich für verrückt halten.

In 4k mag das anders sein aber auf FHD ist das nur eine alternative wenn einem FPS über alles gehen.

Abgesehen davon, ist mir beim mitlesen aufgefallen das ich trotz meiner skeptischen Haltung nun einen Fall hab wo ich denke das FG oder halt das AMD Pendant wohl echt sinn bei mir machen könnte.
Das ist wenn ich meine ANNO1800 Stadt noch größer baue wir irgendwann die CPU aufgeben aber da könnte sowas dann genau helfen.

Und grade in ANNO kann ich mir keine HUD Elemente vorstellen die dann probleme machen und mich arg stören könnten.
 
Geforce RTX 4070: Gleicher Preis wie die 3070Ti und deutlich unter 4070 Ti

OK 20% mehr Aufpreis zum Vorgänger der RTX 3070 - sehe das jetzt egal wie ich es verpacke nur einen Rückschritt :)

mal schauen 25% mehr Leistung zu 20% Mehrpreis wären nice zum Vorgänger.

50% mehr Speicher + 25% Mehr Leistung wären ein Fortschritt alles andere Stillstand bzw. Rückschritt.

Du vergisst die Zeit.

Normal wäre 20% mehr Leistung zum selben Preis zum Beispiel.

Bei einem Leistungssprung von 40% und mehr würde ich zu 20% Aufpreis nichts sagen, aber die Preise für RTX4000 und RX7000 sind ein schlechter Scherz und das müsste jeder sehen.

Am Ende bleibt für den Endkunden in DE nur 599 USD werden denke ich etwa 699 € und das hat eine 3080 in 2020 gekostet.
 
Interessant wie sich hier einige die Karten mit DLSS 3 schönreden wollen.
Ja es kann zusätzliche FPS bringen aber DLSS 3 braucht richtig VRAM da die Zwischenbilder in voller (!) Auflösung zwischengespeichert werden.
Die "kleinen" Karten von Nvidia sind wieder auf Kante genäht und ich bin davon überzeugt, dass die Tests genau das bestätigen werden.
 
Am Ende bleibt für den Endkunden in DE nur 599 USD werden denke ich etwa 699 € und das hat eine 3080 in 2020 gekostet.

Wäre da nicht eine gewisse Pandemie gewesen in der es jede Menge Nachfrage nach GPUs gab, die dann gerne auch mal für deutlich mehr als nur dem UVP über den Tresen gingen. Daraus hat gerade nVIDIA die entsprechenden Schlüsse gezogen und die Preise von Haus aus angepasst... wieso auch nicht. Schließlich ist nVIDIA nicht die Grafikkartensozialhilfe, sondern ein börsennotiertes Unternehmen, dem seine Aktionäre SEHR am Herzen liegen - böse Zugen behaupten gar, mehr als seinen Kunden - und auch AL zeigt: Kunden sind immer noch bereit gerne auch mal "ein bisschen" mehr zu bezahlen. Die Aufmerksamkeitsspanne ist heutzutage derart kurz, dass sich gerade die GF 4080 12GB... sorry 4070ti wie geschnitten Brot verkauft. Dabei war gerade diese Karte ursprünglich als Kundenverarsche geplant und auch schon angekündigt.

Im Grunde ist alles unterhalb der 4090 eine Kundenabzocke und bis zum Erscheinen der 4090ti bleibt die 4090 die einzige Karte im Portfolio, die mich technisch wirklich überzeugt. Preislich ist jedoch auch sie überzogen - allerdings bietet sie dafür die entsprechende Mehrleistung und wenn man sie mit den anfänglichen UVPs von 3090/3090ti vergleicht, steht sie auch diesbezüglich gar nicht mal schlecht da.

Alles in allem ist die aktuelle Generation als Upgrade reine Geldverschwendung und für mich daher eine DOA-Generation. Zwar scheint es bei neueren Spieletiteln einen Trend zu mehr VRAM-Bedarf zu geben - bis dato kann ich aber kaum/keinen visuellen Mehrwert darin erkennen. Wie mir scheint sind Entwickler entweder schlampig oder willige Erfüllungsgehilfen der Hardwareentwickler. Abschließed möchte ich hierfür nur ein Beispiel nennen: KSP2... wird visuell seinen Hardwarevoraussetzungen nicht einmal ansatzweise gerecht, läuft dafür aber selbst auf starker Hardware beschissen. Erstaunlich, wenn man bedenkt, dass der Titel ursprünglich - und hier schließt sich der Kreis - mal für einen Release 2020 geplant war.
 
Kumpel von mir ist raus.
Er sagte, er gibt keine 1000 Euro aus, um damit Hogwarts Legacy zu spielen.
Gestern hat er mir dann ein Bild seiner neuen PS5 geschickt. Er war nie Konsolenfan.

Aber die Hersteller versauen sich Ihr Geschäft gerade selbst mit den überzogenen Preisen.
 
leistungsstärkere Hardware ohne Mogelei.
Könnte es nicht vielleicht auch möglich sein, das man nicht mehr so einfach ewig leistungsstärkere Hardware einfach so aus dem Hut ziehen kann? Und es genau deswegen
eben diese "Softwaremogeleien" gibt?

Vielleicht müssen wir uns dann irgendwann einfach daran gewöhnen, dass wenn es keine wirklich viel effizienteren Wege gefunden werden, die Effekte die man will mit weniger Hardwareaufwand zu genereieren.
Denn den Aufwand für immer weniger Ertrag will man ja über höhere Preise auch nicht bezahlen, ist irgendwo ne Zwickmühle finde ich.

Bisherige Leistungssteigerungen wurd ja durch das Schrumpfen der Strukturen erreicht.

So oft ich dies folgende Frage auch in Hardwareforen gestellt habe, es konnte - oder wollte mir niemand jemals folgendes beantworten:

Wenn wir jetzt bei einstelligen Struckturbreiten angelangt sind, WIE WEIT LÄSST DIESE VERKLEINERUNG INSGESAMMT ABSEHBAR FORTSETZEN?

Wo wird eine jetzt absehbare Physikalische Grenze sein? Atomlagen? K.A.
Wieviele Sprünge haben wir bis dahin noch?

Also in meinen Augen ist irgendwann dann Schluss, und wie kommen wir dann auf höhere Rechenleistungen? Gehts in 3D weiter? Gehts dann in die Breite?
Bauen wir irgendwann CPUs die so gross wie Motherboards sind?

Was sind wir dann bereit für Preise zu zahlen?

Mich regen die Preise auch auf, auf der anderen Seite verlangen wir nach immer höherer Leistung......

Die Prozesse werden immer schwieriger und komplizierter zu erforschen, und somit auch teurer. Es sind jetzt ganz neue Techniken wie z.B. Ultraviolette (Röthgen?) Belichtung, nötig
was auch Investitionen der Hersteller nötig machen z.B.

Und gleichzeitig reden einige schon von 5 K + wie diese Rechenleistung entstehen soll, darüber redet keiner.........
Nicht nur immer höhere Qualität (z.B. Rt und Phathtracing), sondern auch noch immer mehr Pixel, und immer schnellere Bildausgabe gleichzeitig, da steigen die Anforderungen wohl im Quadrat, während wir uns immer mehr den Physikalischen Grenzen nähern, irgendwie geht das in meinem Kopf nicht wirklich zusammen, wie soll das auf Dauer funktionieren?

Und immer billiger solls auch werden.

Es wird den Herstellern der "schwarze Peter" zugeschoben, und sich beschwert, wenn die Leistungssprünge immer kleiner werden.

Kurz: sind unsere Ansprüche aktuell realistisch und erfüllbar? Nur weil wir es Jahrzehntelang gewohnt waren. Da war auch noch viel mehr Spielraum zum verkleinern, und irgendwann ist der auch ausgeschöpft.

Wäre man nett wenn wir vil. auch darüber mal eine Diskussion starten könnten.

Grüsse.
 
Also 30 FPS sind meiner Erfahrung nach abgesehen von Aufbau-Strategie und Rundenbasierten Spielen alles andere als ausreichend. Und der Schmäh mit Reflex zeigt schön, wie effektiv Nvidias Marketing ist.

Reflex gibt es schon seit 2020, genauso wie AMDs Pendant Anti-Lag und werden entsprechend lange genutzt. Heißt unterm Strich wird deine Latenz trotzdem höher, da du ja nicht von Nativ/DLSS2 ohne Reflex auf DLSS3 mit Reflex wechselst sondern von Nativ/DLSS2 mit Reflex auf eben DLSS3 mit Reflex.

Reflex muss ins Spiel implementiert werden und ist bisher häufig nur bei kompetitiven Spielen wie Valorant vorhanden. Viele AAA-Titel haben kein Reflex, weil da die Latenz einfach nicht so wichtig ist. Viele Spiele die DLSS3 implementieren, implementieren genau deswegen nun auch Reflex.

Ohne DLSS3, hätten wir z.B. in Cyberpunk kein Reflex. Am Ende profitiert also jetzt eine Gruppe durch Reflex und eine Gruppe mit 4000er Grafikkarten von DLSS3 + Reflex. Aber das ab 2020 überall Reflex auswählbar ist, ist Schwachsinn.
 
Am Ende bleibt für den Endkunden in DE nur 599 USD werden denke ich etwa 699 € und das hat eine 3080 in 2020 gekostet.

Nur auf dem Papier hat sie das gekostet. In Wirklichkeit durfte mal über 1000 Euro für die Karte hinlegen. Das Preisniveau von GPUs ist abartig mittlerweile und da ist eine 4070 mit 3080er Leistung und 12GB GDDR6X in der Tat noch ein guter Deal zu einem Preis unter 700 Euro.
 
Bisherige Leistungssteigerungen wurd ja durch das Schrumpfen der Strukturen erreicht.

So oft ich dies folgende Frage auch in Hardwareforen gestellt habe, es konnte - oder wollte mir niemand jemals folgendes beantworten:

Wenn wir jetzt bei einstelligen Struckturbreiten angelangt sind, WIE WEIT LÄSST DIESE VERKLEINERUNG INSGESAMMT ABSEHBAR FORTSETZEN?
Stimmt, wir sind im einstelligen Bereich angekommen aber von 7 auf 5nm ist nichts anderes wie von 70 auf 50nm und sehr viel höhere Preise bezahlen wir heute schon. Es kommt doch auch der Verdacht auf, dass der Fortschritt absichtlich eingebremst wird und sich an dem Hersteller orientiert welcher stets der Zweitschnellste ist. Genau wie vor 10 Jahren bei AMD, als es Intel gereicht hat vom Core i 2000 bis zum Core i 7000 bei jeder neuen Generation nur Leistungssprünge im niedrigen einstelligen Prozentbereich zu liefern. Hat ja gereicht um vorne zu bleiben. Gleiches sehe ich jetzt bei den GPU's. Die CPU's machen inzwischen viel größere Sprünge.
 
HUB erwähnt ja explizit, dass ab nativ 100 FPS FG Sinn macht. Gerade bei den Lows könnte es dann helfen.
HUB spricht seiner Meinung nach von einer Grundleistung von etwa 60 bis 80 oder 50 bis 60 FPS für eine optimale Wirkung ohne im Spielbetrieb Artefakte zu erkennen, das heißt überhaupt nicht, dass der Impact bei weniger FPS keinen Sinn ergibt. Du beschäftigst dich doch überhaupt nicht damit, sondern verbreitest reine Falschdarstellungen. Der Impact in The Witcher und Flight Simulator war bei mir mit einer Grundleistung von 30 bis 50 FPS mit Abstand am größten! HUB spricht alleine bei Formel 1 von einer Grundleistung von 100 FPS.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Aber grundsätzlich gilt, den Gewinn an FPS und dadurch Latenz, den man durch DLSSQ erhält verliert man durch FG wieder.
Die Latenz ist nicht alleine ausschlaggebend für ein flüssiges Spielgefühl. Vor allem dann nicht, wenn sie durch Reflex niedrig gehalten wird. Die paar MS die durch Frame Generation oben drauf kommen, spielen eine untergeordnete Rolle. Alles im Blindvergleich getestet.
e schwächer die Karte und geringer die FPS, desto unattraktiver wird es. Und dann wird behauptet, wie sehr die 4070 davon im Vergleich profitiert?
Das ist eine Falschdarstellung.
Tut mir leid, aber das hört sich nach mir nach einer ähnlichen Geschichte an, wo Leute beim selben Wein Unterschiede schmecken, wenn man ihn mit 2 unterschiedlichen Preisen.
Dir fehlt meines Erachtens jegliche Befähigung über den Tellerrand zu schauen.
Dein Verhalten tolle und nützliche Technologien mit Falschdarstellungen in den Dreck zu ziehen, ist reine Agitation.
stützt du dich eig. ausschließlich auf ein Youtube Video oder hast du auch selbst Erfahrung mit DLSS3 machen dürfen?
Er schaut ja nicht mal seine "Quellen" genauer an. Von denen er sich auch die kritischste herausgepickt hat.
 
Zuletzt bearbeitet:
Und wenn eine 4070 (ti) da so teuer ist und dann auch nur wieder grade eben genug VRAM hat, da ist doch abzusehen, dass die genauso altern wird wie ne 3080 10 GB. "Wird schon noch Jahre reichen.." Ja eben nicht, wie man jetzt sieht.
Ist der grünen Fraktion doch eh wurscht, da sie eh alle 2 Jahre neu kaufen.
 
Dass DLSS/FSR insgesamt ein schlechteres Bild liefern (außer die Entwickler haben Basics wie AA komplett verk***t) liegt nunmal in der Natur der Sache und ist objektiv feststellbar.
Und das ist eben nicht der Fall und eine reine Falschdarstellung, da DLSS und FSR mit Informationen aus mehreren Frames, sprich mit einer höheren Auflösung arbeiten, deshalb ist selbst heute ein niedrig aufgelöstest WQHD Bild + DLSS oder sogar ein Full HD Bild + DLSS im Optimalfall besser als das Native in der Basis aber gleichwertig.

https://www.computerbase.de/2023-03...ildqualitaet_von_amd_fsr_22_und_nvidia_dlss_2

Der Tester sieht selbst das WQHD Bild + DLSS dem nativen überlegen.

Ich kann aus weniger Details nicht einfach mehr machen außer durch Beschiss (Siehe Samsung und Mondfotos), egal wie gut mein ML-Modell ist.
DLSS 2.0 gibt es seit 3 Jahren, wach mal auf und lies einen Fachartikel.
Das FG Rechenleistung benötigt, User Input nicht berücksichtigt und dadurch die Latenz erhöht liegt ebenfalls in der Natur der Sache ist objektiv feststellbar
Es ist auch objektiv feststellbar, dass die 3MS, die FG für ein Bild braucht nicht ins Gewicht fallen, um ein wesentlich besseres Spielgefühl darzustellen.
OK 20% mehr Aufpreis zum Vorgänger der RTX 3070 - sehe das jetzt egal wie ich es verpacke nur einen Rückschritt :)
Der Preis ist ja alleine durch 15% Inflation + Euro Kurs real gar nicht höher als die 3070 2020 gelauncht wurde.
Dafür ist die 4070 aber 40% schneller und hat 50% mehr V-ram. Der Fortschritt ist somit relativ deutlich.
 
Zuletzt bearbeitet:
Zurück