News Geforce RTX 4070: Gleicher Preis wie die 3070 Ti und deutlich unter 4070 Ti [Gerücht]

Also 30 FPS sind meiner Erfahrung nach abgesehen von Aufbau-Strategie und Rundenbasierten Spielen alles andere als ausreichend. ....
Glaubt doch nicht immer ungefragt alles, was AMD, Intel und Nvidia verzapfen. :klatsch:
Mit meiner 6800 hab ich mal in Riftbreaker@chill57fps die "Schätzung" durch CFX mitlaufen lassen:
(mit der Mouse hin+her gewackelt)

CFX_inputlag-Schätzung.jpg


Das hat sich fluffig/responsiv angefühlt. (auch ohne Reflex)

Nach m.E. verwendet AMD nur 1x Buffer, ähnlich dem UltraLowLatencyMode bei NV, aber NV braucht halt zusätzlich Reflex
damit 1x Buffer reicht.(net ruckelt)
 
Zuletzt bearbeitet:
Dann ist es doch ganz gut in die DLSS oder FSR Trickkiste zu greifen. Es kommt halt eben darauf an, womit man es vergleicht. Die Alternative lautet nicht 4K60 Native gegen 4K60 Ultra Performance, mit Frame Generation, sondern 4K60 UP mit Framegeneration gegen 1080p30 nativ. Da sehen FSR und DLSS plötzlich extrem gut aus.
Oder von Ultra auf Mittel runter. Ist eine individuelle Geschichte je nach Spiel.
DLSS/FSR sehen je nach Titel mal besser, mal schlechter aus. Bei manchen Titeln ist Performance Mode nah am Original, bei anderen braucht man definitiv Quality.

Ist UP x4 oder x8? Denn bei ersterem dürfte sich 4k 60 vs 1080 30 nicht ausgehen.
Um ehrlich zu sein, das Video, in dem die PCGH Redation verzweifelt versucht hat, DLSS 3 von DLSS 2 und nativ zu unterscheiden, hat mich überzeugt. Da wurde dann auf ein Gebüsch gestarrt, mit der Maus hin und her gewackelt, damit ich doch irgendwelche Artefakte zeigen und so richtig zuverlässig konnte das nicht unterschieden werden. Wohlgemerkt: die Leute wußten etwa, wonach sie suchen müssen.

Von daher ist DLSS 3 eine extrem gute Alternative. Nach kurzer Zeit im Spiel fällt das nicht mehr auf (sofern kein schneller Egoshooter).
Das hängt aber auch von der jeweiligen Person ab. Ist ja quer durch die Bank so: Manche werden von (schlechtem) VR seekrank, andere stört es kein bisschen. Manche kriegen unter 120Hz die Krise, andere sehen keinen Unterschied zu 60.
Es ist richtig, bei schwachen Karten kommt das besonders zur Geltung kommt, bei starken braucht man es einfach nicht.
Naja, mehr ist immer besser, aber wenn die native Leistung ausreicht sollte man definitiv dabei bleiben.
Allerdings wird ein Spiel das bereits nativ ruckelt durch FG nicht plötzlich spielbar. Und unterm Strich ging es um die 4070 vs. die 7900XT
Tja, du willst das und in schnellen Egoshootern ist das auch sehr wichtig. In anderen Spielen ist das eher verzichtbar. Besonders wenn man im Singleplayer zock und nicht im Multiplayer, wo das geringste bisschen den Ausschlag geben kann ob du dich freust oder der Typ am anderen Ende der Welt.

Extremes Beispiel wäre Anno oder noch extremer rundenbasierende Strategie. Die kann man an und für sich auch mit 10 FPS zocken. Das Problem ist, dass es dann absolut pervers ruckelt. FG kann da dann Abhilfe schaffen und dafür sorgen, dass das ganze flüssig läuft, wenn es z.B. aus 20 FPS 40 macht.


Wie gesagt: es kommt auf das Spiel an. In kompetitiven Egoshootern definitiv, aber nicht alles besteht daraus.
Ich würde sagen abgesehen von rundenbasierten und langsameren Titeln wie Aufbauspielen merkt man es grundsätzlich überall. Selbst in Titeln wie Witcher merkt man bei Kämpfen einfach jede Verzögerung bei der Eingabe. Das ist ja mit ein Grund, warum Game-Streaming nie wirklich Fuß fassen konnte. Ich probier GeforceNow immer mal wieder und mal abgesehen von dem "verwaschenen" Bild fühlt es sich trotz Glasfaser und <10ms Ping einfach zäh an.
Reflex muss ins Spiel implementiert werden und ist bisher häufig nur bei kompetitiven Spielen wie Valorant vorhanden. Viele AAA-Titel haben kein Reflex, weil da die Latenz einfach nicht so wichtig ist. Viele Spiele die DLSS3 implementieren, implementieren genau deswegen nun auch Reflex.

Ohne DLSS3, hätten wir z.B. in Cyberpunk kein Reflex. Am Ende profitiert also jetzt eine Gruppe durch Reflex und eine Gruppe mit 4000er Grafikkarten von DLSS3 + Reflex. Aber das ab 2020 überall Reflex auswählbar ist, ist Schwachsinn.
Wenn Reflex nicht für den Titel verfügbar ist kann ich aber auch nicht die Reduktion durch Reflex bei FG geltend machen. Da beißt sich die Katze dann in den Schwanz.

Iirc hat es bei kompetitiven Spielen auch damit zu tun, dass Reflex hier mitunter auch kontraproduktiv sein kann.

Es ging rein darum, dass Reflex nichts Brandneues bzw. kein Allheilmittel ist um die negativen Auswirkungen von FG komplett auszugleichen, nicht mehr, nicht weniger.
 
Zuletzt bearbeitet:
Oder von Ultra auf Mittel runter. Ist eine individuelle Geschichte je nach Spiel.

Ja, das ist sehr individuell. Ich persönlich mache bei der Qualität wenig Abstriche und muß sagen, dass es selbst beim FSR 1 Performance und FSR 2 Ultraperformance wenige Szenen gibt, bei denen man einen großen Unterschied sehen kann. Geringere Details sehe ich allerdings sofort. Von daher ist es für mich logisch, dass ich auf FSR gehe.

DLSS/FSR sehen je nach Titel mal besser, mal schlechter aus. Bei manchen Titeln ist Performance Mode nah am Original, bei anderen braucht man definitiv Quality.

Ich hab bisher Anno 1800 und FC6 mit FSR 1.0 Performance gezockt sowie die Diablo 4 und Forspoken mit FSR 2 Ultra Performance gezockt und war jedes mal extrem überrascht, wie gut sie das ganze hochskaliert haben. Zu sehen war es nur bei Anno 1800, wenn die Schiffe diagonal eingefahren sind und in einer Szene Diablo 4, wo in einer Szene sehr feine Spiegelungen des Lichts geflackert haben. Ein geringer Preis, verglichen mit niedrigeren Details. In Forspoken haben ich nichts negatives gesehen.

Ist UP x4 oder x8? Denn bei ersterem dürfte sich 4k 60 vs 1080 30 nicht ausgehen.

Die Zahl der Pixel wird neunfach hochskaliert.

Das hängt aber auch von der jeweiligen Person ab. Ist ja quer durch die Bank so: Manche werden von (schlechtem) VR seekrank, andere stört es kein bisschen. Manche kriegen unter 120Hz die Krise, andere sehen keinen Unterschied zu 60.

Für dich ist es dann halt eben nichts. Du gehst dann lieber richtig brutal mit der Auflösung runter oder kaufst dir eine neue Karte. Das ist Ok, auch wenn das erste etwas komisch ist.

Naja, mehr ist immer besser, aber wenn die native Leistung ausreicht sollte man definitiv dabei bleiben.

Man man zufrieden ist, dann natürlich, es geht hier aber um den Fall wenn dem nicht so ist. Das ist etwa so, als würdest du auf die Frage, was du tun würdest, wenn du pleite bist darauf antworten "ich bin nicht pleite"

Allerdings wird ein Spiel das bereits nativ ruckelt durch FG nicht plötzlich spielbar.

Doch, das ist ja das unglaublich tolle. Zumindest wenn man nicht, wie du, auf die letzte letzten Millisekunden in allen Spielen, auch in solchen die es nicht nötig haben, besteht.

Aber sag, hast du es denn eigentlich selbst ausprobiert und wenn ja, was hast du alles ausprobiert und wie lange? Vor der Beantwortung diese Frage hast du dich gedrückt.

Das ganze ist sonst so, als würde einem ein Eunuch oder ein katholischer Priester erklären, wie man gutes Sex hat und woraus man da alles zu achten hat. Da ist es dann kein Wunder, dass einem die Ratschläge alle etwas schräg vorkommen.

Und unterm Strich ging es um die 4070 vs. die 7900XT

Früher oder später ist jede Karte zu langsam.

Ich würde sagen abgesehen von rundenbasierten und langsameren Titeln wie Aufbauspielen merkt man es grundsätzlich überall. Selbst in Titeln wie Witcher merkt man bei Kämpfen einfach jede Verzögerung bei der Eingabe.

Hast du das denn alles schon selbst ausprobiert oder redest du nur daher?

Es gibt eben durchaus etliche Spiele, die man auch mit 30 FPS zocken kann und mit 60 FPS FG werden die dann wesentlich besser. Abgesehen davon spürt man in vielen Fällen

Ich probier GeforceNow immer mal wieder und mal abgesehen von dem "verwaschenen" Bild fühlt es sich trotz Glasfaser und <10ms Ping einfach zäh an.

Ich habe FC6 und Control, samt DLCs und Elex 2 komplett auf GeForce Now durchgezockt. Ich hatte keine Probleme. Die verzeihen einem auch ein paar Millisekunden extra,

Aber gut, eventuell bist du da hypersensibel oder der Nocebo Effekt hat übernommen.

Es sieht auch nicht verwaschen aus, zumindest wenn man auf 75 MBit hochstellt. Wobei es da einen Algorithmus gibt, der auf die native Auflösung hochskaliert. Den solltestet du ausschalten, wenn du es schön kantig magst.
 
Normal wäre 20% mehr Leistung zum selben Preis zum Beispiel.
Nur sieht Nvidia DLSS-FG als Leistungsprung und verkauft es als solchen...
AMD würde dies übrigens auch tun, da sollte sich kein Fanboy irgendwelche Hoffnungen machen.
Nur hat AMD noch kein FSR3 am Start, weil sie Nvidia hier hinterherhumpeln.

Wenn jetzt JEDES Spiel DLSS3 (oder FSR3) hätte, wäre es vielleicht sogar akzeptabel das im Preis einzurechnen.
Aber das ist nicht der Fall, DLSS3 Spiele kann man noch an beiden Händen abzählen...

HUB spricht seiner Meinung nach von einer Grundleistung von etwa 60 bis 80 oder 50 bis 60 FPS für eine optimale Wirkung ohne im Spielbetrieb Artefakte zu erkennen, das heißt überhaupt nicht, dass der Impact bei weniger FPS keinen Sinn ergibt.
Wenn eine 4060 so schnell ist wie eine 3060Ti, dann sollte eine 4060 in 1080p auch in Ultra Settings 60FPS haben. Mit DLSS FG sind es dann 120FPS. Natürlich ohne RT, weil 8GB VRAM ist zu wenig für RT....
Die 4070 spielt dann in der 1440p Liga mit 60FPS und auch hier wieder 120FPS mit DLSS FG.

Noch letztes Jahr hätte ich ohne weiteres eine 8GB Karte empfohlen...dieses Jahr schon nicht mehr.
Und dabei ist der Batzen an UE5 Spielen noch gar nicht draußen. Wer weiß wie sich das alles von der Hardwareanforderung noch entwickelt.

Meine Empfehlung ist derzeit z.b. folgende je nach Budget (Native ~60FPS).
Alles mind 12GB VRAM, für alte PCs ohne PCIe 4.0 auch nur voll angebundene Karten:
1080p
<350€ 3060 12 GB
1080p-1440p
~400€ 6700XT
1440p
~600€ 6800XT
<650€ 4070 Wenn sie nun auch für den Preis kommt und mind so schnell ist wie eine 3080...
4k
~850€ 7900XT
~999€ Nichts...
Alles darüber ist eigentlich zu teuer...
~1250€ 4080 Wenn man unbedingt RT in 4k haben will...
Ohne Limit = 4090

Traurig ist, das die 3080 12GB, 3080Ti etc alle noch sooo teuer sind, das man nur die Dummen, ähem, die nicht Wissenden abzockt.
Die 3080 10GB ist für unter 800€ zu haben...aber bei dem Preis holt man sich besser eine 7900XT für ~850€. Ich meine, wer sich eine 750+€ GPU kauft, der kann auch nochmal die 100€ mehr draufschlagen und hat dafür länger Ruhe und deutlich mehr Performance...
Die 4070 wäre mit 16GB und maximal 600€ echt eine gute Karte im mittelhohen Segment, aber Nvidia hat ein wenig daneben geschossen...
Ich hoffe das im Mittleren und unterem Segment AMD noch was gutes bringt.
Wenn Reflex nicht für den Titel verfügbar ist kann ich aber auch nicht die Reduktion durch Reflex bei FG geltend machen. Da beißt sich die Katze dann in den Schwanz.
Wenn es Reflex nicht gibt, seht es Nvidia vor, das DLSS3 und damit FG auch nicht verfügbar ist, da Reflex TEIL von DLSS3 ist.
Ich hab bisher Anno 1800 und FC6 mit FSR 1.0 Performance gezockt sowie die Diablo 4 und Forspoken mit FSR 2 Ultra Performance gezockt und war jedes mal extrem überrascht, wie gut sie das ganze hochskaliert haben. Zu sehen war es nur bei Anno 1800, wenn die Schiffe diagonal eingefahren sind und in einer Szene Diablo 4, wo in einer Szene sehr feine Spiegelungen des Lichts geflackert haben. Ein geringer Preis, verglichen mit niedrigeren Details. In Forspoken haben ich nichts negatives gesehen.
Ich sehe bei DLSS2 und bei FSR oft flackern/Specular Highlights? bei SSR, schlieren bei Bewegungen und durchsichtige Objekte haben deutliche Fehler. Wobei hier oft DLSS2 etwas besser ist. Da lasst ich es besser aus, aber ich habe auch die Möglichkeit dazu mit einer 4090 >_>.
Ich nutze DLSS2/FSR auf (Ultra) Quality nur als Ersatz für die Kantenglättung. Wenn DLAA verfügbar ist (ich hoffe das wird man Standard) dann nutze ich das.
Aber gut, eventuell bist du da hypersensibel oder der Nocebo Effekt hat übernommen.
Solche Leute wird es immer geben. Ich merke Latenzen, aber kompensiere sie unterbewusst, sodass ich nach ein paar Stunden "mich daran gewöhnt" habe und das nicht mehr merke.
Hey wenn ich schon Elden Ring mit 60FPS und Gamepad spielen kann, dann geht auch ein SP-Shooter mit DLSS3 bei Maus und Tastatur...
Viele Leute meckern aber ohne es mal selber ausprobiert oder erlebt zu haben.
 
Zuletzt bearbeitet:
Nur auf dem Papier hat sie das gekostet. In Wirklichkeit durfte mal über 1000 Euro für die Karte hinlegen. Das Preisniveau von GPUs ist abartig mittlerweile und da ist eine 4070 mit 3080er Leistung und 12GB GDDR6X in der Tat noch ein guter Deal zu einem Preis unter 700 Euro.
1. Ist nicht richtig.
2. Auch Latte zu welchem Kurs irgendwelche Spacken Händler/ Hals ab- Schneider die verkauft haben. Nv hat den Wert mit 699 betitelt und da braucht man nicht kurzsichtig die jetzigen Preise schön reden.

Kein guter Deal. Nur für Notlösung ok.
 
Achtung Spekulation!!!:

2. Auch Latte zu welchem Kurs irgendwelche Spacken Händler/ Hals ab- Schneider die verkauft haben. Nv hat den Wert mit 699 betitelt und da braucht man nicht kurzsichtig die jetzigen Preise schön reden.

Kein guter Deal. Nur für Notlösung ok.
Nun was wäre denn normal für eine Gen?
Für den selben Preis, 20% mehr Leistung? 50%?
Wenn die 4070 so schnell ist wie die 3080, wären es ca 30%, von der 3070 aus gerechnet.
Dazu kommt 10% weniger Verbrauch, was immer Wünschenswert ist (oder 40% weniger von der 3080 aus gesehen).
RT ist schneller, und DLSSFG KANN nochmal biszu 2x FPS bringen, was Nvidia sicherlich mit einrechnet.

Aber, jetzt kommt das große Aber. Nvidia hat ihr Portfolio eine halbe Klasse nach unten versetzt, als sie die 4080 12GB zu einer 4070Ti umbenannt hatten. Das heißt in der ursprünglichen Planung wäre die 4070 eine 4070Ti geworden. Das heißt das die jetzige 4070Ti der Nachfolger der 3080 werden sollte und die jetzige4070 der Nachfolger der 3070Ti. Da machen die Preise etwas mehr "Sinn".
Beide Karten hätten so auch ~20% mehr Leistung als die vorherige Gen erbracht + DLSSFG obendrauf.

Der Schlussfolgerung nach wäre die 4060Ti also eigentlich eine 4070, wieder mit ca 20% mehr Leistung als die 3070 für deren Preis von 499$. Und die 4060 wäre eigentlich der Nachfolger der 3060Ti für 399$.
Ob es so kommt, ka... Die RTX 3060Ti, 3070 und 3070Ti waren auch so schon sehr nah beinander, möglicherweise wird Nvidia da ein bisschen mehr Platz dazwischen machen.
Möglicherweise kommt noch AD107 auf den Desktop mit dem Namen 4050 und 4050Ti für 250$ und 329$...
 
Achtung Spekulation!!!:


Nun was wäre denn normal für eine Gen?
Für den selben Preis, 20% mehr Leistung? 50%?
Wenn die 4070 so schnell ist wie die 3080, wären es ca 30%, von der 3070 aus gerechnet.
Dazu kommt 10% weniger Verbrauch, was immer Wünschenswert ist (oder 40% weniger von der 3080 aus gesehen).
RT ist schneller, und DLSSFG KANN nochmal biszu 2x FPS bringen, was Nvidia sicherlich mit einrechnet.

Aber, jetzt kommt das große Aber. Nvidia hat ihr Portfolio eine halbe Klasse nach unten versetzt, als sie die 4080 12GB zu einer 4070Ti umbenannt hatten. Das heißt in der ursprünglichen Planung wäre die 4070 eine 4070Ti geworden. Das heißt das die jetzige 4070Ti der Nachfolger der 3080 werden sollte und die jetzige4070 der Nachfolger der 3070Ti. Da machen die Preise etwas mehr "Sinn".
Beide Karten hätten so auch ~20% mehr Leistung als die vorherige Gen erbracht + DLSSFG obendrauf.

Der Schlussfolgerung nach wäre die 4060Ti also eigentlich eine 4070, wieder mit ca 20% mehr Leistung als die 3070 für deren Preis von 499$. Und die 4060 wäre eigentlich der Nachfolger der 3060Ti für 399$.
Ob es so kommt, ka... Die RTX 3060Ti, 3070 und 3070Ti waren auch so schon sehr nah beinander, möglicherweise wird Nvidia da ein bisschen mehr Platz dazwischen machen.
Möglicherweise kommt noch AD107 auf den Desktop mit dem Namen 4050 und 4050Ti für 250$ und 329$...

Anhand der Specs, die vermutet werden, muss eine 4070 erstmal so schnell sein wie eine 3080.

Und selbst wenn man so wollte und sagt die 4070 wird 30% schneller als eine 3070 wäre(Was denke ich eher bei 20% liegen dürfte, aber vielleicht male ich schwarz), das soll aber auch 20% mehr kosten. 499USD zu 599USD. Das ist und bleibt ein Witz.

Und nur weil Nvidia mal wieder versucht hat den nächstkleineren Chip als größeren zu verkaufen, hat das nichts allein mit den Preisen zu tun.

Ich denke im Raster langsamer als 3080 mit RT vielleicht minimal schneller und FG in 1080p und 1440p, für 4k wird der Speicher schon wieder zu knapp. Da erwarte ich für 599USD eindeutig mehr. Dann lieber eine gebrauchte 24GB Karte.
 
1. Ist nicht richtig.
2. Auch Latte zu welchem Kurs irgendwelche Spacken Händler/ Hals ab- Schneider die verkauft haben. Nv hat den Wert mit 699 betitelt und da braucht man nicht kurzsichtig die jetzigen Preise schön reden.

Kein guter Deal. Nur für Notlösung ok.

699,-- € waren es nur für die 10GB Version der 3080 und das auch nur in der ersten Zeit nach Release, später wurde die UVP dann auf 759,-- € angehoben. Vergleichbar ist die 4070 aber wenn überhaupt mit der 12GB Version, die ja auch ein Eckchen mehr Leistung hat und dem entsprechend noch teurer war.

Letzten Endes zählt für mich der Preis, zu dem ich eine GPU auch wirklich kaufen kann. Was nützt mir irgendeine UVP, an die sich absolut kein Händler hält. Es ist nunmal Fakt, dass die 3080 12GB lange Zeit nur für weit über 1000 Euro zu bekommen war. Nach dem Mining Kollaps gabs dann hier und da auch mal kurzzeitig Angebote für 799,--€, bevor die Karte dann out of stock ging.

Da ja nun bekannt ist, dass die 4070 eine US-UVP von 599 Dollar haben wird, wird sie wohl bei uns maximal 699 €, eher etwas weniger kosten. Das ist für 3080 12GB Leistung mit 12 GB DDR6X, DLSS 3 Support und obendrein einer besseren Raytracing Performance bei gleichzeitig deutlich besserer Effizienz ein guter Deal, für heutige Verhältnisse zumindest. Man darf natürlich nicht mehr von Preisen von 2018 und früher ausgehen. Die Zeiten sind wohl leider eindeutig vorbei. Gefällt mir auch nicht, ist aber so...
 
699,-- € waren es nur für die 10GB Version der 3080 und das auch nur in der ersten Zeit nach Release, später wurde die UVP dann auf 759,-- € angehoben. Vergleichbar ist die 4070 aber wenn überhaupt mit der 12GB Version, die ja auch ein Eckchen mehr Leistung hat und dem entsprechend noch teurer war.

Letzten Endes zählt für mich der Preis, zu dem ich eine GPU auch wirklich kaufen kann. Was nützt mir irgendeine UVP, an die sich absolut kein Händler hält. Es ist nunmal Fakt, dass die 3080 12GB lange Zeit nur für weit über 1000 Euro zu bekommen war. Nach dem Mining Kollaps gabs dann hier und da auch mal kurzzeitig Angebote für 799,--€, bevor die Karte dann out of stock ging.

Da ja nun bekannt ist, dass die 4070 eine US-UVP von 599 Dollar haben wird, wird sie wohl bei uns maximal 699 €, eher etwas weniger kosten. Das ist für 3080 12GB Leistung mit 12 GB DDR6X, DLSS 3 Support und obendrein einer besseren Raytracing Performance bei gleichzeitig deutlich besserer Effizienz ein guter Deal, für heutige Verhältnisse zumindest. Man darf natürlich nicht mehr von Preisen von 2018 und früher ausgehen. Die Zeiten sind wohl leider eindeutig vorbei. Gefällt mir auch nicht, ist aber so...
Habe nochmal nachgerechnet.

Die 4070 dürfte sicher langsamer als die 12GB 3080 sein, sowohl in Raster, wie auch in RT Games. Wenn man den Ergebnissen von PCGH und CB glauben schenken will.

Das zu 699€ ist hart an der Kotzgrenze. Auch die 10GB Version dürfte noch schneller sein. Das als neue Gen istm eigentlich zu wenig, aber wenn das den Leuten von Heute schon reicht, dann hat NV ja alles richtig gemacht, bzw. AMD ja auch, die bieten ja das selbe P/L Verhältnis.

Die UVP der RTX3000 wurde erst ein halbes Jahr nach Release angehoben. Auch nicht direkt auf 759.

Lieferschwierigkeiten, wegen Mining und Corona haben den Wert der hardware nicht verändert. Das sollte man eigentlich nicht mitwerten mMn.
 
Habe nochmal nachgerechnet.

Die 4070 dürfte sicher langsamer als die 12GB 3080 sein, sowohl in Raster, wie auch in RT Games. Wenn man den Ergebnissen von PCGH und CB glauben schenken will.

Das zu 699€ ist hart an der Kotzgrenze. Auch die 10GB Version dürfte noch schneller sein. Das als neue Gen istm eigentlich zu wenig, aber wenn das den Leuten von Heute schon reicht, dann hat NV ja alles richtig gemacht, bzw. AMD ja auch, die bieten ja das selbe P/L Verhältnis.

Die UVP der RTX3000 wurde erst ein halbes Jahr nach Release angehoben. Auch nicht direkt auf 759.

Lieferschwierigkeiten, wegen Mining und Corona haben den Wert der hardware nicht verändert. Das sollte man eigentlich nicht mitwerten mMn.

Willst Du uns Deine Rechnung denn auch mal offenlegen?

Die 4070 wird lt. Leaks 29,1TFlops mitbringen, die 3080 10 GB liegt bei 29,8. Hinzu kommt die modernene Architektur, macht zwar beim Übergang von RTX 3000 zu 4000 nicht viel aus, aber die Leistung pro TFlop wird dennoch leicht höher sein.

Außerdem gibt es RT Cores der 3. Generation und Tensor Cores der 4. Gen. Erstere steigern die RT Leistung pro Core, letzteres bietet weitere Leistungssteigerungsmöglichkeiten durch DLSS 3.

Wüsste nicht wie man da zu der Annahme kommt, dass die 4070 weniger Leistung als eine 3080 10GB mitbringen sollte. Das selbe Leistungsniveau wird es minimum sein (reines rastern). Eher ein wenig mehr...
 
Außerdem gibt es RT Cores der 3. Generation und Tensor Cores der 4. Gen. Erstere steigern die RT Leistung pro Core, letzteres bietet weitere Leistungssteigerungsmöglichkeiten durch DLSS 3.
Hab das Gefühl, bei der 4070 zahlt man viel für Technik wie DLSS3, und wer das möchte, soll das machen, aber meins ist es nicht.
 
Hab das Gefühl, bei der 4070 zahlt man viel für Technik wie DLSS3, und wer das möchte, soll das machen, aber meins ist es nicht.

Ja, so ist es auch. Wer den ganzen Kram nicht möchte ist bei AMD besser aufgehoben, da gibt es mehr Rasterleistung und VRAM fürs Geld, aber eben schlechtere RT Performance, kein DLSS und kein Reflex.
 
Willst Du uns Deine Rechnung denn auch mal offenlegen?

Die 4070 wird lt. Leaks 29,1TFlops mitbringen, die 3080 10 GB liegt bei 29,8. Hinzu kommt die modernene Architektur, macht zwar beim Übergang von RTX 3000 zu 4000 nicht viel aus, aber die Leistung pro TFlop wird dennoch leicht höher sein.

Außerdem gibt es RT Cores der 3. Generation und Tensor Cores der 4. Gen. Erstere steigern die RT Leistung pro Core, letzteres bietet weitere Leistungssteigerungsmöglichkeiten durch DLSS 3.

Wüsste nicht wie man da zu der Annahme kommt, dass die 4070 weniger Leistung als eine 3080 10GB mitbringen sollte. Das selbe Leistungsniveau wird es minimum sein (reines rastern). Eher ein wenig mehr...
Schau dir die 4070ti an und dann rechne das Minus an Rechenleistung und Recheneinheiten Hand in Hand mit der TDP runter. Klar, nicht 1 zu 1 aber du kannst gut und gerne 90% bei den Shadern annehmen und 75% beim Takt. Also Beispielhaft 30% weniger Shader entsprechen sofern die mit dem selben Takt laufen rund 27% weniger Leistung und 10% weniger Takt entsprechen 7,5% weniger Leistung.

Das würde bei der 4070 32% mehr Leistung für die 4070TI bedeuten.
Laut PCGH ist die 4070ti 18% / 24% Raster / RT schneller, als die 3080 10GB.

Laut CB sind es 24 / 24% Raster / RT. Demnach müsste eine 4070 sogar relativ deutlich langsamer als eine 3080 10GB sein.


Ich glaube nicht an Wunder, daher erwarte ich eher das die 4070 sich bei der Leistung unterhalb einer 3080 einordnet und das mit neuer Fertigung und nach zwei, zweieinhalb Jahren. Die 4070 dürfte für Nvidia günstiger sein und pro Stück mehr Gewinn abwerfen. Das ist alles. Damit ist eine solche 4070 eben nicht mal ein echter Nachfolger der 3070.
 
Schau dir die 4070ti an und dann rechne das Minus an Rechenleistung und Recheneinheiten Hand in Hand mit der TDP runter. Klar, nicht 1 zu 1 aber du kannst gut und gerne 90% bei den Shadern annehmen und 75% beim Takt. Also Beispielhaft 30% weniger Shader entsprechen sofern die mit dem selben Takt laufen rund 27% weniger Leistung und 10% weniger Takt entsprechen 7,5% weniger Leistung.

Ich weis nicht wieso Du hier irgendwelche steilen Thesen oder auch wie Du sagst (Annahmen) aufstellst, wenn die Leistung in TFlops bereits geleaked wurde. Die 4070 kommt auf nahezu genauso hohe Leistung in TFlops (29,1) wie die 3080 (29,8), hat aber eine modernere Architektur. Falls die geleakten Werte stimmen, ist sie also definitiv mindestens genau so schnell wie die 3080, Alles andere würde ja bedeuten, dass sich die Gaming Leistung pro TFlop beim Übergang von RTX 3000 zu 4000 verschlechtert hat, was nachweislich nicht der Fall ist.

Das würde bei der 4070 32% mehr Leistung für die 4070TI bedeuten.
Laut PCGH ist die 4070ti 18% / 24% Raster / RT schneller, als die 3080 10GB.

Laut CB sind es 24 / 24% Raster / RT. Demnach müsste eine 4070 sogar relativ deutlich langsamer als eine 3080 10GB sein.

Nein. Du kannst nicht einfach X% mehr Takt = X% mehr Gaming Leistung rechnen. Das funktioniert beim selben Chip schon nicht, zumindest nicht immer. Hier haben wir es aber mit 2 unterschiedlichen Chips zu tun.


Ich glaube nicht an Wunder, daher erwarte ich eher das die 4070 sich bei der Leistung unterhalb einer 3080 einordnet und das mit neuer Fertigung und nach zwei, zweieinhalb Jahren. Die 4070 dürfte für Nvidia günstiger sein und pro Stück mehr Gewinn abwerfen. Das ist alles. Damit ist eine solche 4070 eben nicht mal ein echter Nachfolger der 3070.

Glauben kannst Du in der Kirche. Es gibt geleakte Daten, die ein recht eindeutiges Bilde ergeben. Es gibt ja mittlerweile auch schon Berichte von Leuten, die die 4070 getestet haben wollen und ebenfalls angeben, dass sie ziemlich genau bei 3080er Leistung liegt. Also falls all diese Leaks nicht komplett falsch sind, vovon aufgrund der Erfahrungen der letzten Monate wenn nicht sogar Jahre auszugehen ist, hat die Karte auch mindestens dieses Leistungsniveau.
 
Ich weis nicht wieso Du hier irgendwelche steilen Thesen oder auch wie Du sagst (Annahmen) aufstellst, wenn die Leistung in TFlops bereits geleaked wurde. Die 4070 kommt auf nahezu genauso hohe Leistung in TFlops (29,1) wie die 3080 (29,8), hat aber eine modernere Architektur. Falls die geleakten Werte stimmen, ist sie also definitiv mindestens genau so schnell wie die 3080, Alles andere würde ja bedeuten, dass sich die Gaming Leistung pro TFlop beim Übergang von RTX 3000 zu 4000 verschlechtert hat, was nachweislich nicht der Fall ist.
Ich habe Quellen angegeben die das untermauern.
Nein. Du kannst nicht einfach X% mehr Takt = X% mehr Gaming Leistung rechnen. Das funktioniert beim selben Chip schon nicht, zumindest nicht immer. Hier haben wir es aber mit 2 unterschiedlichen Chips zu tun.
Habe ich nicht.
Die 4070TI hat die selbe Architektur und nur weniger Recheneinheiten und einen anderen Takt. Das lässt sich schon abschätzen.
Glauben kannst Du in der Kirche. Es gibt geleakte Daten, die ein recht eindeutiges Bilde ergeben. Es gibt ja mittlerweile auch schon Berichte von Leuten, die die 4070 getestet haben wollen und ebenfalls angeben, dass sie ziemlich genau bei 3080er Leistung liegt. Also falls all diese Leaks nicht komplett falsch sind, vovon aufgrund der Erfahrungen der letzten Monate wenn nicht sogar Jahre auszugehen ist, hat die Karte auch mindestens dieses Leistungsniveau.
Was tust du hier, außer etwas anderes glauben, also laber nicht so.

Ich bleibe dabei im Mittel, wird die 4070 ein paar Prozent langsamer sein, als die 3080 10GB. Umso moderner das Spiel umso eher wird die gleich schnell sein und ja, auch hier und da minimal schneller.

Der Abstand zur 4070TI dürfte bei + 30% liegen, von der 4070 ausgehend.

Dann warten wir mal Tests ab.

Aber schon geil, die Karten so dicht zusammen, das es natürlich von jeder Einschätzung her sein kann. Plus minus 5 bis 10% sind nicht wirklich viel, was auch weiterhin nichts an der Abzocke ändert.

Komischerweise habe ich deutlich vor Release auch die Abstände zur RTX3000 und zwischen 4090 und 4080 auch schon sehr genau geschätzt.

Ob das Ding nun 5% unter einer, oder über einer 3080 10GB landet (mal Speicherknappheitsprobleme ausgenommen) ist Latte. Das ist praktisch pro Euro eine miserable Entwicklung ;) Das ist alles worum es ging.
 
Ich habe Quellen angegeben die das untermauern.

Du hast Quellen zur 4070Ti angegeben, um die geht es hier aber nicht. Deine 3-Satz Auswüchse zur Leistung der 4070 dienen vllt. zur Not um ein grobes Leistungsniveau abzustecken, sind aber dennoch ziemlich ungenau. Ich verstehe wie gesagt nicht welchen Sinn das haben soll, wenn die Leistung in TFlops bereits bekannt ist, denn dieser Wert ist tatsächlich sehr gut vergleichbar, zu GPUs der gleichen Architektur sowieso, aber auch zu RTX 3000, da sich die Leistung pro TFlop beim Übergang zu RTX 4000 nur leicht gesteigert hat. Die Sache ist an sich absolut klar, falls die geleakten Zahlen stimmen.

Habe ich nicht.
Die 4070TI hat die selbe Architektur und nur weniger Recheneinheiten und einen anderen Takt. Das lässt sich schon abschätzen.

Du brauchst nichts schätzen, die Leistung in TFlops ist wie gesagt bekannt... Außerdems stimmt das nicht was Du sagst, die 4070Ti hat nämlich nicht nur mehr L2 Cache, sondern eben auch mehr Recheneinheiten auf dem Chip. Daher wird sie sich nicht 1:1 zur 4070 bei Taktsteigerungen verhalten, das ist einfach eine Milchmädchenrechnung.


Was tust du hier, außer etwas anderes glauben, also laber nicht so.

Jo, Hauptsache Du laberst ;)

Ich bleibe dabei im Mittel, wird die 4070 ein paar Prozent langsamer sein, als die 3080 10GB. Umso moderner das Spiel umso eher wird die gleich schnell sein und ja, auch hier und da minimal schneller.

Macht keinen Sinn bei modernerer Architektur, gleichen TFlops, deutlich Mehr L2 Cache und obendrein mehr Takt beim RAM.

Der Abstand zur 4070TI dürfte bei + 30% liegen, von der 4070 ausgehend.

Nein, er wird unter 30% liegen. So ein riesiges Leistungsloch im Portfolio würde ja auch garkeinen Sinn machen.

Dann warten wir mal Tests ab.

Aber schon geil, die Karten so dicht zusammen, das es natürlich von jeder Einschätzung her sein kann. Plus minus 5 bis 10% sind nicht wirklich viel, was auch weiterhin nichts an der Abzocke ändert.

Also zwischen +10% und -10% zur 3080 besteht schon ein ordentlicher Unterschied.

Komischerweise habe ich deutlich vor Release auch die Abstände zur RTX3000 und zwischen 4090 und 4080 auch schon sehr genau geschätzt.
Jo, haste doll gemacht :lol::wall::wall::lol:
 
Du hast Quellen zur 4070Ti angegeben, um die geht es hier aber nicht. Deine 3-Satz Auswüchse zur Leistung der 4070 dienen vllt. zur Not um ein grobes Leistungsniveau abzustecken, sind aber dennoch ziemlich ungenau. Ich verstehe wie gesagt nicht welchen Sinn das haben soll, wenn die Leistung in TFlops bereits bekannt ist, denn dieser Wert ist tatsächlich sehr gut vergleichbar, zu GPUs der gleichen Architektur sowieso, aber auch zu RTX 3000, da sich die Leistung pro TFlop beim Übergang zu RTX 4000 nur leicht gesteigert hat. Die Sache ist an sich absolut klar, falls die geleakten Zahlen stimmen.



Du brauchst nichts schätzen, die Leistung in TFlops ist wie gesagt bekannt... Außerdems stimmt das nicht was Du sagst, die 4070Ti hat nämlich nicht nur mehr L2 Cache, sondern eben auch mehr Recheneinheiten auf dem Chip. Daher wird sie sich nicht 1:1 zur 4070 bei Taktsteigerungen verhalten, das ist einfach eine Milchmädchenrechnung.
Die kannst du selbst gesagt nicht mit RTX3000 vergleichen, wohl aber mit der 4070TI. Okay soweit?
Ich rechne nicht 1:1, sondern mit Erfahrungswerten.
Jo, Hauptsache Du laberst ;)
Sorry, aber verstehe dein Problem nicht und deinen Ton. Aber hey, wirklich... entschuldige wenn das Labern etwas drüber war.
Macht keinen Sinn bei modernerer Architektur, gleichen TFlops, deutlich Mehr L2 Cache und obendrein mehr Takt beim RAM.
Im Vergleich zur 4070Ti, nein. Deswegen in Bezug dazu in Relation setzen. (bessere Vergleichbarkeit)
Nein, er wird unter 30% liegen. So ein riesiges Leistungsloch im Portfolio würde ja auch garkeinen Sinn machen.
Du kannst doch rechnen, wenn Takt und Recheneinheiten fehlen, innerhalb der selben Architektur und man schon abnehmende Parallelisierbarkeit berücksichtigt, anhand von Erfahrungswerten. Woher soll die nicht verbaute Leistung im Vergleich zur selben Generation kommen, Zaubertreiber nur für die 4070, von der die 4070ti nicht profitiert?
Also zwischen +10% und -10% zur 3080 besteht schon ein ordentlicher Unterschied.
Du bist der Knaller!
Jo, haste doll gemacht :lol::wall::wall::lol:
Sorry, dein Kopf steckt so tief in der Wand, ich weiß nicht wie man den da wieder raus bekommt. (Nicht zu ernst nehmen, ist eher etwas spaßig gemeint)

Ach ja, ja! das habe ich toll gemacht, musst du nicht glauben, kannst ja alte Beiträge von mir raus suchen.

Ich hoffe wir beide denken an diese Diskussion, wenn wir bald mehr wissen.

Wirklich gerne lasse ich mich in diesem Fall eines besseren belehren... Denke aber wohl eher nicht.
 
ada und ampere unterscheidet sich beim L2 cache größe die allein für den rt core zuständig ist bzw davon profitiert
Die Zusatzeinheit Sar und zuletzt den aktivierten Ofa ansonsten ist ada und ampere identisch.
Die Neuerungen sind allein für dxr und denoising gedacht.
Daher sind die gpu 1-1 vergleichbar über anzahl an sm und Takt.
 
Ich glaube die Preise von den NV Karten werden im Sommer massiv sinken vorallem sobald die rtx4070/4070ti/4060 released sind. Diese Mainstreamkarten müssen in großen Stückzahlen verkauft werden und genau das wird schwierig. Die miner fehlen und Kunden die auf P/L achten werden es sich genau in diesem Preissegment 2 mal überlegen ob sie 2023 noch teure Karten kaufen mit mikrigen 8-12 gb während die Konkurrenz schon 16-20 gb als Standard bietet. Mit 8-12 gb ist man bereits jetzt in vielen Titeln am Limit. Das tut sich doch keiner an eime teure gpu kaufen die jetzt schon am Speicherlimit hängt.
 
Zurück