Kommen noch Nvidia Mittelklassegrafikkarten mit mindestens 12GB VRAM?

Neuer_User

Komplett-PC-Aufrüster(in)
Hallo zusammen,

meine GTX 980TI macht so ganz langsam keinen Spaß mehr. Es geht in WQHD immer noch vieles sehr gut, vereinzelt muss man aber die Regler doch ziemlich weit nach links schieben. Von der Leistung her würde mir eine RTX 3060TI völlig ausreichen, aber ich kaufe doch keine Karte mit 8GB. Leider bin ich an G-sync gebunden, so einen Fehler mache ich nie wieder, AMD hat aktuell für mich eindeutig
bessere Karten.

Da ich den Markt nicht mehr verfolge eine Frage: Wird es die Karten von 3060TI bis 3070TI noch mit 16GB geben? Das hatte ich mal als Ankündigung gelesen.
 
TE
TE
Neuer_User

Neuer_User

Komplett-PC-Aufrüster(in)
Schade, denn von der GTX 780 gab es auch eine 6GB Variante und das war eine grandios gute Karte, Da hatte ich lange viel Spaß mit und dann auch Bauchschmerzen, mit der GTX 980TI nicht mehr VRAM zu bekommen. Aber die war im Abverkauf so billig, da musste ich zuschlagen.

Dann warte ich weiter, die Preise sind eh absurd hoch.
 

Incredible Alk

Moderator
Teammitglied
Es gibt wenns dringend ist noch die RTX2060 12GB-Auflage aber die ist halt sehr viel schwächer als ne 3060Ti/3070 und es sind dann auch "nur" 12GB.

In dem Falle würde ich wenns nicht dringend ist tatsächlich auf die 4000er warten und vielleicht ne 4060 nehmen. Bis die vorgestellt und verfügbar ist könnte es aber durchaus Weihnachten werden.
 
TE
TE
Neuer_User

Neuer_User

Komplett-PC-Aufrüster(in)
Es gibt wenns dringend ist noch die RTX2060 12GB-Auflage aber die ist halt sehr viel schwächer als ne 3060Ti/3070 und es sind dann auch "nur" 12GB.
Das wäre zu meiner GTX 980TI, die mit 1550 MHz läuft, nur ein besserer Sidekick. Dann warte ich lieber. Weiß man, ob die neuen Intelkarten G-sync beherrschen werden?
 

Incredible Alk

Moderator
Teammitglied
G-Sync ist son NVidiading, das werden auch nur deren Karten unterstützen. Intel und AMD setzen auf das (wie der Name schon sagt) freie "FreeSync" bzw. der heutige Name ist glaub ich AdaptiveSync.
 

Schori

BIOS-Overclocker(in)
Sicher, dass dein Monitor nicht auch adaptive sync unterstützt?
Ansonsten einfach ohne Synchronisierung nutzen. Bei 144+ Hz merkt man von tearing nicht mehr allzuviel.
 
TE
TE
Neuer_User

Neuer_User

Komplett-PC-Aufrüster(in)
Sicher, dass dein Monitor nicht auch adaptive sync unterstützt?
Ansonsten einfach ohne Synchronisierung nutzen. Bei 144+ Hz merkt man von tearing nicht mehr allzuviel.
Ja, sicher. Er ist älter, da war Adaptiv Sync noch nicht so verbreitet. Ich habe leider so ein paar Spiele, da limitiert die CPU, ein AMD 5800X, bei 70-110 FPS. Und immer mit V-sync gleich auf 72 FPS abzufallen ist auch nicht so pralle.

Dann warte ich mal auf die nächste Generation, noch ist es mit den Schiebern nach Links umsetzbar, wenn auch stellenweise ärgerlich.

Und nein, ich bemerke Tearing oberhalb von 144 deutlich. Der Anno 1800 Benchmark z.B. setzt G-Sync außer Kraft und mir wird umgehend übel.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Nun kommend sind in der oberen Mittelklasse
ad104 vermutlich 192bit Si letzten Gerüchten folgend 12gb vram
Dieser chip misst etwa 300mm² kostet nvidia um die 80$ und der vram kostet derzeit 1gb gdddr6 20gbits 6$
Mit Marge kommt der preis bei etwa 479-579€ an
Daher ist nicht klar ob dies schon die obere Mittelklasse ist oder schon untere Spitzenmklasse. Sprich rtx4070.
Man bedenke das nvidia erstmals gpu habe wird die ab 2,4ghz Takten
Folgende sku sind drin
52sm und 60sm von 72sm auf dem DIE
Es geistert noch 48sm rum
1 sm =96 oder112 alu die fp32 berechnen können physich sind 128 fp32/int32 vorhanden +32 dedizierte fp64
Da die software optimierung von int32 die dann fp32 emulierend Leistung adddieren soll nicht so gut angenommen wurde.
Rechnen 64 fp32 und die 32 fp64 einheiten nativ fp32 um
Ergibt dann Derzeitige Architektur bei ampere (rtx30) 96alu=shader fp32 mal sm anzahl mal 2 mal Takt.
Erste sku 52sm*96*2*2,4=23,9tf was etwa der rtx3080 entspricht wie betont bei 479€ mit 12gb vram
Zweite mögliche sku rtx4070 60sm*2*96*2,4=27,6tf
Dies wäre knapp an der FE Modell der rtx3090 dran ebenfalls mit 12gb vram
Dritte sku wenn alles blöd läuft
48*2*96*2,4ghz=22,1tf was etwa die rx6800 entsprechen würde. als rtx4060ti

Nun zum problem da nvidia diesmal den Takt ins unsinnige anhebt ich spreche hier quasi am limit oc ab werk.
Sind nur 2,1ghz heftige 69% an stromsparender also für gerade mal 15% mehr Leistung investiert man fasst 70% mehr Energie.
Das ist mehr als Dumm
Da die sku aber quasi schon 3 Monate bevor man die chips in serie gehen lässt erst festlegt was Takt und energieverbrauch angeht
Ist das noch offen die leaks sprechen aber von ans limit oc skus
Die menge an deaktivierten sm in nen chip hängen von yield und fehlerdichte ab
bei 5nm geht man von 0,1 aus
samsung 8nm von 0,3
Das ist auch der Grund warum die ampere Architektur quasi nur zu 75% ausgelastet wird da viele DIE'S einfach die specs nicht erreichen können.
Also cuttet man die chips ordentlich.
ga106 hat 4 gpc aktiv sind aber nur 3gpc und davon 28 sm aktiv
ga104 hat 6gpc aktiv sind aber nur 5gpc wovon nur 48 sm aktiv sind
ga103 hat 8gpc aktiv aber nur 7gpc wovon nur dann 70sm aktiv sind
ga102 hat 10gpc aktiv abr nur 8gpc wovon nur 84sm aktiv sind

ad107 hat 2 gpc
ad106 hat 4 gpc
ad104 hat 6 gpc
ad103 hat 10 gpc
ad102 hat 12 gpc

1gpc = 12sm
1sm =96 oder 112 fp32 Operationen
Das hängt davon ab wie nvidia die architektur geändert hat.

lovelace oder rtx40 wird definitiv billiger und Leistungsstärker werden.
Trotz höhere Waferkosten.
Da die yield diesmal deutlich besser sind lediglich jensen huang Ego (nvidia Eigentümer) sorgt für unsinnige skus.

Was bedeutet das
Nun im Herbst 2022 vermutlich august bis okt werden rtx4080 rtx4070 und rtx4060ti vorgestellt.
rtx4060ti ad104 mit 48 oder 52sm 12gb vram gddr 20gbits ~379-479€
rtx4070 ad104 60sm 12gb gleicher ram 579-679€
rtx4080 ad 103 zwischen 70-84sm 16gb vram 16gb vram gddr6 24gbits 849-999€
rtx4080ti ad103 96sm diese sku ist offen das hängt von der yield ab 1399-1499€

Später also 2023 kommt dann der big chip ad102 mit 144sm und 136 aktiv als rtx4090 1799-1999€

Dann q2 2023 ad106 als rtx4060 32 bis 36sm aktiv von 48 ~200mm² 279€-299€ 8gb vram
Und als Abschluss ad107 als rtx4050 bis 20sm aktiv von 24 etwa 115mm² von 129€-179€ 8gb vram
als entry wird der ad107 genannt rt4030 12 oder 16sm aktiv 79-119€ 4gb vram
neuer nvenc encoder und volle av1 encoding und decoding Fähigkeiten

Es geistern sogar das rtx4070 mit 8gb kommen soll was ich Ansicht der Zukunft keine gute idee halte.
Aber sku können schnell angepasst werden
Sicher ist die bom wird bei Konkurrenz den vram beinhalten ohne nicht
Das verteuert die sku um 100€ im Einstiegssegment

Was rtx4050 rtx4060 und rtx4060ti sind
Sicher ist das min +50% vs Vorgänger sku gibt.

Es hängt primär davon ab ob intel und amd in den Preisbereich was anbieten.
Intel wenn sie Treiber können wird ordentlich druck machen

Der Kampf wäre
arc 750 149-199€ etwa 8,3-9,8tf= rtx4050 ad107/rtx3060
arc 780 249-299€ etwa 16,7tf etwa rtx4060 ad106 /rtx3070ti

Amd offen da noch nix zu kleineren sku als den n33 bekannt sind
Da dieser recht teuer wäre ab 599€
Könnte es sein das amd rdna2 rebranden wird
Das bedingt aber das nur die chips verkauft werden und die bom den vram haben wird mit amd Vorgabe an die sku rx7600 n22 für 299€ und rx7500 n23 für 199€

Das bedingt aber das amd nix zwischen rx7600 (299€)und rx7700xt hat (599€)
Der 6nm chip wird vermutlich 416mm² sein quer finanziert käme dann 499€ und 699€ für sku's infrage
Aber zu amd rdna3 ist wenig bekannt. Einzig der mcm Ansatz ist sicher.

Ein 5nm wafer kostet 16500$ ein 6nm wafer kostet 9000$
angaben aus dem nvidia hack amd könnte bessere Bedingungen erreicht haben.
Früher gebucht als nvidia

Die infos sind quasi fix da solche Pläne min 2 Jahre alt sind
nvidia musste sogar umschichten weil man samsung 8nm sich als schlechter erwies als gedacht
Und man musste 5nm Kapazität nachbestellen. letztes Jahr
Was den preis anhob
Darum wird der 6nm node der geplant war aufgegeben für den ampere refresh
Ursprung war samsung 5nm node der bekanntlich eingestellt wurde.
Und samsung direkt zu 4nm wechselt nur braucht samsung zu lang dafür frühestens 2024
Gut möglich das samsung komplett aus der chipfertigung weggeht und sich auf nand/ram konzentriert
TSMC ist quasi allein auf dem markt was high end nodes angeht.
Und da ist es sehr bedauerlich wenn nvidia aus stolz die sehr effiziente 5nm Fertigung ans limit OC.

Erst 3nm mit backwell wird deutlich stromsparender da nvidia größere chip in den sku verteilen kann und den Takt gleich bleibt bei weniger verbrauch von etwa 40% dessen was ampere in 8nm braucht.
Folglich rtx5060ti wäre das ziel mit gb104 60sm 2,4ghz 27,2tf ~429€ ~170w ~q3 2024
Die Tendenz geht aber Richtung weniger sm mit mehr Takt.

Alles hängt davon ab wie gut intel konkurrieren wird.
Auch möglich das die gpc mehr sm bekommen also wie bei hopper auf 18sm pro gpc
dann wären
gb106 2gpc a18sm =36sm eine render engine
gb104 4gpc a18sm =72sm zwei render engines
gb103 6gpc a18sm = 108sm drei render engines
gb102 8gpc a18sm = 144sm vier render engines

Der Grund warum immer zu 2 addiert liegt an der render engines was bei nvidia immer eine render engine = 2 gpc sind.
Das macht den kleinsten chip mit derzeit 24 sm (ga107) möglich derzeit etwa 139mm² 8nm node
kommend 97mm² tsmc 5nm (ad107)

ad102 bis ad107 sind quasi dann in 2er schritten bis zu 6 render engines etwa gleich zu ampere.
Da aber nvidia primär einen software sheduler nutzt ist die auslastung je mehr engines laufen schlechter.
Die Lösung wäre die gpc auf 18sm zu steigern also bis zu 4 statt 6 render engines
hardware sheduler wird nvidia dann in den render engines einbinden

Der Ursprung ist das direct x immer noch in order Operationen sind sprich es hängt vom Takt ab Mehr als 4 threads sind quasi nicht mehr effizienter
Alles darüber braucht zwingend mehr ipc von der cpu und da sind grenzen gesetzt.
Derzeit limit sind 4 threads bei 5ghz und je mehr die cpu an kapazität frei hat vom OS können bis zu 8 threads ausgelastet werden.
Das wird sich auch nicht ändern da die Natur von in order es unmöglich macht mehr zu parallelisieren.

Schon jetzt ist man bei etwa 75% Parallelisierung gekommen
Was Mehr kern cpu bei 1,75 Fach dessen an singlecore Takt gesenkt wird.
Sprich man bräuchte um die gleichen fps zu haben dann 8,75ghz in singlecore
Einfach zu glauben mit 6 oder mehr Kernen würde man dann effektiv 30ghz haben isn Trugschluss die grenzen gibt der sram vor.
Spiele sind latenz gebunden nicht Bandbreite (bedingt von der Auflösung)
Sram kann nicht schneller sein als cl 1
also bedingt es am Takt des sram sprich cpu
Die Parallelisierung wurde schon arg verbessert da nicht in oder Aktionen vorgeplant werden können.
Das sind die 75% mehr an fps die man erreichen kann mit mehr kernen
Das ist primär game engine abhängig

Der Treiber kann nur die command list von directx nutzen wenn spiele keine haben. Was nvidia tut und amd nicht.
Vulkan hat diese option auch.
ogl nicht
Was am ende schneller ist hängt davon ab wie gut die ipc deiner cpu ist.
Und die nächste gen wird min 9,6tf als einstieg und maximal 76tf am ziel haben
Diese werden definitiv nicht ausgelastet in 4k mit derzetigen cpu's

Das max wäre aktuell alder lake mit cb15 von 275 kommend raptor lake 300
Und amd zen3d 305 und zen4 mit 330
Was dann etwa 40tf-50tf Auslastung erreichen wird in 4k oder 60tf mit dxr in 4k
Einzig die Speicherbandbreite wird hier limitieren den gddr7 ist nicht bereit, daher geh ich davon aus das nvidia mit rtx4080ti und 84sm kommen wird =38tf mit gddr6 24gbits =1,136tb/s dank cache.

Amd erst 2023 mit mcm n32 und 50tf als rx7900xt (10240 shader bei 2,5ghz)

Diese Jahr wird nur den obere Mittelklassechip geben
Amd wird nur die rx7700xt launchen bei 24,5tf was der rx6900xt entspricht. 599€

Nvidia ist allein auf dem Flur bis q2 2023 daher gehe ich von rtx4080ti (ad103) preisen ab 1299€ aus
38tf wollen bezahlt werden.
Es wäre deutlich besser wenn amd n32 diese Jahr bringt diese sku käme auf 1199-1299€ mit 51tf
aber ich ahne das man es nicht schafft.
Selbst sku mit nur 32wgp (8192shader 40tf) schaffen es nicht dieses Jahr vermutliche sku preis ab 999€

Meine Hoffnung ist das amd rdna3 deutlicher in der Architektur geändert hat und es sogar 3 Operationen pro Takt gibt das würde die Lage deutlich verbessern.
Nur vermisse ich dann einen kleineren chip als den n33 und Gerüchte von 3ghz gpu sprechen dagegen.

Zu intel arc
Es scheint eine fp64 dgpu zu sein die per software mit fp32 ausgelastet wird also sind die effektiv 4096 alu entweder mit 50% fp32 oder im Idealfall 85% fp32
Das wird spannend im Einstiegssegment
Im übrigen entspricht das dem gcn Dilemma von amd 2011 bis 2019 gcn 1= 60% und maxed gcn5,1= 85%
 

RavionHD

PCGH-Community-Veteran(in)
Mittelklasse GPU's werden wohl mit 12 GB ausgestattet werden (bis zur 4070).
Ist aber Stand jetzt reine Spekulation, je nach Speicherinterface vielleicht auch 10GB.

Ich hoffe dass die 8GB Zeiten (jedenfalls ab der 4060) vorbei sind (wobei das wirklich komisch wäre da bereits die 3060 mit 12GB kommt).
 

TriadFish

PC-Selbstbauer(in)
Hallo zusammen,

meine GTX 980TI macht so ganz langsam keinen Spaß mehr. Es geht in WQHD immer noch vieles sehr gut, vereinzelt muss man aber die Regler doch ziemlich weit nach links schieben. Von der Leistung her würde mir eine RTX 3060TI völlig ausreichen, aber ich kaufe doch keine Karte mit 8GB. Leider bin ich an G-sync gebunden, so einen Fehler mache ich nie wieder, AMD hat aktuell für mich eindeutig
bessere Karten.

Da ich den Markt nicht mehr verfolge eine Frage: Wird es die Karten von 3060TI bis 3070TI noch mit 16GB geben? Das hatte ich mal als Ankündigung gelesen.

Da wird nichts mehr kommen. Es waren ja vor längerer Zeit mal Versionen der 3070/3080 mit deutlich mehr VRam im Gespräch, letzten Endes kam dann aber nur die 3080 mit 12GB und minimal mehr Leistung.

Kann Deinen Gedankengang aber sehr gut nachvollziehen, beim aktuellen Lineup von Nvidia ist man insbesondere als WQHD-Spieler echt in den Po gekniffen, wenn man eine Zukunftssichere GPU kaufen will. Da muss man sich zwischen knapper Leistung oder knappem Speicher entscheiden, wenn man nicht gerade zu den absoluten Top-Modellen greifen will. Selbst eine 3080 / 3080ti mit 12 GB würde ich bei WQHD nicht als voll zufunktssicher ansehen, wenn man von den nächsten 3-4 Jahren ausgeht.

NVidia hat es mit dem Speichergeiz in dieser Gen echt übertrieben, das war die dritte Gen hintereinander quasi ohne Erhöhung der VRam Ausstattung (bis auf ein paar Ausnahmen).
 
Zuletzt bearbeitet:
Oben Unten