News Nvidia soll Massenproduktion von weiteren Grafikchips vorbereiten

Eigentlich ist das auch egal. In Zeiten von DLSS oder anderen Skalierungen spielt die Rasterleistung in Zukunft immer weniger eine Rolle. Dann lässt sich auch mit leistungsschwächeren Karten noch gut spielen. Das ist einfach die Zukunft und im Hinblick auf Energieproblematiken und CO2 höchst willkommen.
Man spart durch DLSS Strom? Da dafür Tensor Cores benötigt werden, wohl nicht ganz so viel. Kommt natürlich auf die Auflösung an.

Lohnt sich DLSS für FHD überhaupt? Für WQHD auf jeden Fall aber FHD?
Ich kann mir zumindest nicht vorstellen, dass DLSS unter FHD das Bild soviel besser aussehen lässt als nativ. Gibt ja schon einige Videos der Redakteure, die das Bild unter DLSS besser finden als nativ. Das waren aber alles keine FHD Beispiele.
 
da wird die 4070 sicherlich mit 10GB bestückt sein und am Ende 1:1 ne 3080 10GB für 699€. Also nach 2 1/2 Jahren die identische UVP mit der identischen Leistung

Hat nVIdia Jahrelang drauf hingearbeitet :D
Für nVidia als ganze sicherlich günstiger zu produzieren, ergo höhere Marge bei gleicher Leistung wie eine Vorgängerkarte zum gleichen Kundenpreis, dass freut das Unternehmen und den Fanboy.

Eine absolut traurige Entwicklung, in der gesamten Generation wird es wohl kein rundes Produkt geben, da alle Karten mehr oder minder überteuert sein werden...
 
"Sowohl die kolportierte RTX 4060 Ti als auch die RTX 4070 sollen dabei aber wesentlich weniger CUDA-Kerne als die RTX 4070 Ti haben"

Dann wird´s vermutlich gar keine 50´er Karte oder irgendetwas UNTER 500 € von Team Green geben bei Ada ... :ugly:

MfG Föhn.
 
Was soll bedeuten vorbereiten. Simpel werden die Wafer mit den 104ern gefertigt. Entsprechend des Yield wird selektiert. Die guten Dice kommen auf die 70Ti und was schlecht ist wird teildeaktiviert und als 70 und 60 verklingelt.
 
Man spart durch DLSS Strom? Da dafür Tensor Cores benötigt werden, wohl nicht ganz so viel. Kommt natürlich auf die Auflösung an.

Lohnt sich DLSS für FHD überhaupt? Für WQHD auf jeden Fall aber FHD?
Ich kann mir zumindest nicht vorstellen, dass DLSS unter FHD das Bild soviel besser aussehen lässt als nativ. Gibt ja schon einige Videos der Redakteure, die das Bild unter DLSS besser finden als nativ. Das waren aber alles keine FHD Beispiele.
DLAA wäre das dann wenn es um Bildqualität geht.
 
Pu das dauert ja dann noch ne ganze Weile ehe die bezahlbaren GPUs kommen....
Wenn du dich da mal nicht irrst. Jedenfalls bezogen auf bezahlbare ....
4070 wohl dann bei 800-900€ Ladenpreis und die 4060 (Ti) entsprechend 650-699€ im Laden als Karte der Boardpartner. Sind schließlich Karten von Nvidia.
Das werden Mittelklassekarten für Oberklassenpreise werden.

Eigentlich wäre das die Chance für AMD. 7600x, 7700X und 7800X zu wirklich bezahlbaren (!!!) Preisen mit entsprechender Leistung weit vor Nvidia bringen und durch die Preisgestaltung Nvidia mal einnorden. Wird aber auch nicht passieren. Die Karten werden nach den grünen Karten kommen und sich preislich entsprechend minimal unter diesen einordnen.
 
Man spart durch DLSS Strom? Da dafür Tensor Cores benötigt werden, wohl nicht ganz so viel. Kommt natürlich auf die Auflösung an.

Lohnt sich DLSS für FHD überhaupt? Für WQHD auf jeden Fall aber FHD?
Natürlich sparst Strom. Die Karten können einfach mit viel weniger TDP betrieben werden. So werden dank den Skalierungstechniken in der aktuellen Generation nur noch 200 Watt benötigt um 4K Spiele darzustellen (60 FPS). Das lohnt sich - Permanent und langfristig ab dem ersten Betrieb.

Auch wenn es manche nicht wahrhaben wollen. DLSS, FSR und Co. ist die Zukunft. Native Rasterleistung verliert an Bedeutung. Das ist keine tollkühne Behauptung.
 
Zuletzt bearbeitet:
Ach schön das dann der Preisbereich von 599$ - 799$ für die 4060 - 4070 auch abgedeckt wird.
Dazwischen gesellt sich die 4060Ti.

4070 mit 10GB, 250W und 3080 Leistung.
4060Ti mit 8GB, 220W und 3070Ti Leistung.
4060 mit 8GB 180W und 3070 Leistung.

Als absolutes Kaufargument gilt natürlich weiterhin DLSS3.
Was ein Jahr später wieder rum dann auch auf 3000er Karten freigeschalten wird :-D

Weitere Kunden abgescammed.
Die Lederjacke freut sich.

:kotz:
 
Zuletzt bearbeitet:
Man spart durch DLSS Strom? Da dafür Tensor Cores benötigt werden, wohl nicht ganz so viel. Kommt natürlich auf die Auflösung an.

Lohnt sich DLSS für FHD überhaupt? Für WQHD auf jeden Fall aber FHD?
Ich kann mir zumindest nicht vorstellen, dass DLSS unter FHD das Bild soviel besser aussehen lässt als nativ. Gibt ja schon einige Videos der Redakteure, die das Bild unter DLSS besser finden als nativ. Das waren aber alles keine FHD Beispiele.
Ja, das lohnt sich durchaus und bringt je nach Spiel auch ordentlich zusätzliche fps. Da sind schon 50% mehr fps drin.
 
Es sind ja trotzdem die gleichen AD104 Chips wie in der 308-12GB 4070Ti, nur halt diejenigen, die einen Teildefekt haben. In typischer Nvidia Manier werden wir hier 25% und 33% weniger Leistung erwarten können als beim AD104 Vollausbau.

Nvidia bekommt das Eingangsmaterial nicht billiger weil sie den AD104 als 4060Ti verkaufen. Ich welcher Preisfalle Nvidia hier sitzt hab ich hier aufgeschlüsselt (https://extreme.pcgameshardware.de/threads/die-ad-104-preisfalle.629064/#post-11198365).


Die 4070Ti hat die Leistung einer 3080-12GB und auch deren Preis. Wenn die 4070 also die Leistung einer 3080-10GB hat, dann wird sie auch den Preis kosten und das sind 900€. Eine 3070Ti kostet im Bereich 750€ und wenn die 4060Ti mit dem stark abgespeckten AD104 diese Leistung bringt, dann wird sie diesen Preis kosten.

Diese Generation zeichnet sich nicht dadurch aus, dass man für das gleiche Geld mehr Leistung bekommt, sondern dass man für das gleiche Geld weiterhin die gleiche Leistung bekommt. Den Rest versucht Nvidia mit DLSS3 schönzureden.
 
Wenn sie AD104 nehmen würde ich auf 10GB tippen für die 4060ti.

Wenn die Gerüchteküche stimmt, könnte die 4070 ein, für heutige Verhältnisse bei NV, rundes Produkt werden.

599-649 Euro. 20-25% weniger GPU Leistung als die 4070ti, fast gleiche Bandbreite und 12GB bei 200W.
Du meinst also eine 3080 10GB mit 10% Rabatt? :ugly:
(Waren ursprünglich ja 699€ UVP)

Das ist kein rundes Produkt sondern Unverfrorenheit.
Natürlich sparst Strom. Die Karten können einfach mit viel weniger TDP betrieben werden. So werden dank den Skalierungstechniken in der aktuellen Generation nur noch 200 Watt benötigt um 4K Spiele darzustellen (60 FPS). Das lohnt sich - Permanent und langfristig ab dem ersten Betrieb.
Nur wenn du einen Frame Limiter setzt. Ansonsten hast du halt mehr FPS bei ungefähr selbem Verbrauch.
Auch wenn es manche nicht wahrhaben wollen. DLSS, FSR und Co. ist die Zukunft. Native Rasterleistung verliert an Bedeutung. Das ist keine tollkühne Behauptung.
Wird beides eine eigene Kundschaft haben.
Denk an Filme und Musik. Klar, Otto-Normal-Verbraucher nutzt Streaming.
Die Qualität ist aber je nach Dienst kein Vergleich mit BluRay oder eben FLAC/WAV bzw. Schallplatte.

FPS-Jäger nutzen DLSS/FSR, andere verzichten darauf und drehen alle Regler so weit wie möglich nach rechts.
Frame Generation (DLSS3) ist aber selbst da eher sinnbefreit.
 
Ja, das lohnt sich durchaus und bringt je nach Spiel auch ordentlich zusätzliche fps. Da sind schon 50% mehr fps drin.
Dies ist zwar ein etwas älterer Artikel, aber in FHD sollte man, wenn möglich, auf DLSS verzichten. Es sei denn man kann mit dem schlechten Bild leben:
Die Frage, ob DLSS aus Kosten-Nutzen-Sicht sinnvoll ist, können wir somit eindeutig mit "ja" beantworten. Bei derartigen Leistungsgewinnen kann man über die Wehwehchen (siehe oben) hinwegsehen und investiert das gewonnene Leistungspolster in eine etwas höhere Auflösung. Von DLSS in Full HD möchten wir hingegen abraten. Zwar freut sich eine kleine RTX-Grafikkarte wie die Geforce RTX 2060 über die Entlastung, die geringe interne Auflösung führt jedoch zu einem sichtbar bröseligen Bild. Selbst Q-DLSS ist in Full HD nicht wirklich hübsch, sondern bestenfalls erträglich.
Quelle:
https://www.pcgameshardware.de/Nvid...rior-5-DLSS-Test-Control-DLSS-Test-1346257/2/
 
Zurück