News Geforce RTX 4060 Ti 16GB: Asus präsentiert zwei Custom-Designs in drei Ausführungen

wo die meisten vermutlich noch mit PCIe 3.0 unterwegs sind
:top::lol:
Ich nutze meine RTX 3090 auf einem höchst ausgebauten Sockel B System (24 GiB RAM, i7 990x), da meine Titan Black dringend einen BGA-Reball benötigt. Wenn dann mal Zeit ist, gehe ich das mal irgendwann an, aber im Moment reißt mich Resident Evil 8 und seine schönen Rätsel in den Bann...
Von wegen noch PCIe 3.0..., PCIe 2.0 rulezzzz:fresse:, ähm vorübergehend natürlich.:-P:D
Ja ich weiß es ist :stupid:, aber ein zweites System habe ich derzeit nicht in Planung womit die RTX 3090 natürlich besser aufgehoben ist.
ABER: Erstaunlicher Weise kann ich alles auf Ultra Settings in FHD (Monitor abhängig) zocken und Resident Evil 8 oder Far Cry 6 laufen super sauber.
Klar hätte auch eine RTX 4060 Ti mit auf 16 GiByte gereicht, aber meine Titan Black kommt ja wieder in das System rein.:-)
 
Eigentlich wäre das die gpu als upgrade für mich aber
Die gpu hat zwei gravierende Probleme
Die Speicherbandbrite ist um 25% zu klein
Der Takt um 15% zu gering um das aufzufangen.

Das erste ließe sich mit gddr6x 24gbps lösen das zweite nur mit n3

Dennoch wären test interessant 8 vs 16gb und vs rtx3060ti vx rtx3060 12gb rx6700xt
Das wären die die aufrüsten würden.
Den ohne die bremse 18gbps würde die rtx4060 ti 16gb stolze +33% schneller sein als die rtx3060ti
Aktuell sind es maxed 10% und vs rtx3060 +35%

Dann der preis dieser angepassten sku dann auf etwa 399€ und es wäre perfekt

Das gute in n3 node übernächstes Jahr wird diese gpu mit gddr7 12gb 96bit +- 384gb/s 36sm voll Ausbau und maxed 400€ geben als rtx5060 (q1 2025)
Der node verschafft die gpu dann min 3,2ghz das wären theoretisch 20tf vs meine 9,2tf ist das ein sprung von über 100%
im Umkehrschluss die perfekte gpu bis ps6 im Jahr 2027
 
Eigentlich wäre das die gpu als upgrade für mich aber
Die gpu hat zwei gravierende Probleme
Die Speicherbandbrite ist um 25% zu klein
Der Takt um 15% zu gering um das aufzufangen.
Ich habe gerade Benchmarks mit einer RTX 4060 Ti @ ~3.000/10.000 MHz durchgeführt -> rund 26 TFLOPS FP32 und 320 GByte/s. Damit kann man schon einiges anfangen, spätestens wenn 16 GiB dranhängen. =)

MfG
Raff
 
nvidia gibt 26tf fp16/fp32 an davon ist man weit weg.
Da nur 64 fp32 +16 fp32 und zusätzliche durch Treiber garantierte 8 fp32 macht 88 fp32 von 128 fp16
Es gibt meiner Meinung keinen benchmark mit fp32 Durchfluss der nicht gpgpu ist.
Das aber ist kein directx oder andere api benchmark diese hat den Vorteil das alle floatingpoint Einheiten in einen Modus laufen. Das aber ist nicht die norm.
Woher ich das weiß der vergleich gtx10 Serie vs rtx30, gtx700, gtx400 und 9000 Serie (2008) alle da
nehme ich alle gen zum vergleich stets steigende Bandbreite und alu Leistung kommt das hin
Dabei an Generationen ist

2008 geforce 9000 Serie Formel 0alu mal 3 mal shadertakt in tesla
2010 gtx400 =sm mal 32 mal 2 mal shadertakt + sm mal fpu mal 4 mal shadertakt in fermi
2013 gtx700 =alu mal 2 mal Takt +sm mal fpu mal 4 mal Takt in kepler
2016 gtx10 =alu mal 2 mal Takt in pascal
2021 rtx30 = sm mal 88 mal2 mal Takt in ampere
Und zusätzlich weis ich
2023 rtx40 = sm mal 88 mal 2 mal Takt in ada lovelace (identisch zu ampere)
2025 rtx50 = sm mal 88 mal 2 mal Takt in ada refresh (identisch zu ada) meine nächste gpu

Dafür spricht der n3 node.
Die chips werden um 25% kleiner auch wegen Verkleinerung des SI
GDDR7 Speicher 32gbps stehen so gut wie sicher
Die aktuellen preise vom vram sehr billig sind und die sku sich dann besser aufteilen lassen
ad202 150$ vs 195$ maxed 32gb einstieg bei 1500$
ad203 90$ vs 108$ 24gb einstieg bei 1000$
ad204 60$ vs 90$ 16gb einstieg bei 450$
ad206 40$ vs 50$ 12gb einstieg bei 350$
ad207 30$ vs 40$ 8gb einstieg bei 200$
gddr7 +- 8$ 16gbit 32gbps derzeit vermutlich 10$
release bis q3 2025

2024 wird blackwell kommen als quadro und hpc chip
Das design sehen wir erst bei n2p 2027 mit dann ebenfalls 3,2ghz
Das design in n3 wird vermutlich nur bei 2,4ghz Takten und nvidia ego vermeidet es geringere Taktraten bei einer neuen gen zu vermarkten.

ich weiß ist spekulativ aber alles spricht dafür und macht bwl Sicht Sinn

Die Ursache ist nvidia Software Entwicklung mit gpgpu die ab fermi 2010 begann
Und man sich eine neues Standbein aufbaute mit cuda software.
Die erste dx11 fähige gpu war von nvidia gtx400 Serie mit den ersten gpgpu = cuda Treibern.
Mit der gtx600 Serie wurde der shadertakt dem coreclock angeglichen primär wegen Fertigung von 45nm auf 28nm.
maxwell hat dann die fpu deaktiviert aber Takt stieg dadurch um 500mhz von 1,1 auf 1,6ghz.
pascal stieg der Takt auf nahe 2,0ghz dir Regel waren 1,9ghz
turing hat neben dxr keine Neuerungen gehabt Takt blieb identisch.
ampere ist quasi bei gleichen Takt geblieben skaliert über die sm und die zugesicherten zusätzlichen fp32 wurden in hardware fundiert wo turing es eine software Lösung brauchte.
ada ist lediglich ne Fertigungsvorteil also höherer Takt. aktuell 2,8ghz
cuda skaliert mit dem Takt und kann die tensor kerne nutzen ab volta.
Es gab nur einen gaming Ableger von volta den gv100 Name Titan V damals 3500€

Zu Volta 2017 wurden tensor cores hinzugefügt die alleine wegen gpgpu genutzt werden können
In raster machen die nix, aktuell werden diese für denoising genutzt mehr oder minder.

Das dlss auf rtx20 rtx30 rtx40 läuft aktuell auf den shadern mit den bvh strahlen des rt core
Die tensor cores können beitragen aber die Regel ist, sie liegen brach und werden erst bei einen implementation von denoising endlich genutzt.
Der Grund liegt bei der Latenz derzeit ist es nicht möglich zu denoisen ohne Latenz darum wurde auch dlss derzeit nur fürs upscaling genutzt. Was rein auf software basiert.
Das könnte auch auf nicht rtx Karten laufen wird aber derzeit verhindert.
Die tensor cores reichen aus aber sind nutzlos bei Echtzeit dafür aber sinnvoll bei video denoising darum erwarte ich auch das bei ada refresh die tensor kerne halbiert werden Statt 4 nur noch 2 per sm
Der Rt core erfährt durch n3 38% shrink die alu ebenfalls das spart etwa 15% chipfläche ein wenn dazu das Si noch um 25% kleiner wird ist man bei -25% chipfläche

Es ist nur logisch das bei steigenden kosten das Si und sram weniger werden den das sind teile des chips die nicht skalieren.
Erst n2p soll nochmal den sram um 10% kleiner werden können primär wegen 3d chip das gibt es aber erst 2026 in n2P, in gpu's dann 2028

Aktuell sehe ich kein Bedürfnis meine gpu zu wechseln bei 1080p bis die ps5 pro kommt q4 2024
da ein Wechsel des monitors nicht ohne upgrade auf die 70er klasse geht Verzichte ich darauf.

ich benche gerne und habe auch die Spiele dafür um die 800 das fängt von 1996 bis 2023 das ne kleine Auswahl was seitdem erschienen ist. benches ab 2004
Derzeit im Testparcour +- 400 Spiele die kein fps cap haben
Wen man die genaue zahl an erschienen games seit 1996 wissen will dafür gibs es ne Webseite https://www.pcgamesdatabase.de/ die alle test von games seit 1996 drin hat bedingt aber das einer die spiele getestet hat und online bzw per print herausgebracht hatte.
Ab 2012 sind dlc mit drin was die zahlen leicht verfälscht
Es sollten um die 3000 games sein, davon noch nutzbar 2500
Und jedes Jahr kommen um die 150-200 dazu derzeit mehr als je zuvor und PC gaming soll tot sein?
 
Zuletzt bearbeitet:
Das gute in n3 node übernächstes Jahr wird diese gpu mit gddr7 12gb 96bit +- 384gb/s 36sm voll Ausbau und maxed 400€ geben als rtx5060 (q1 2025)

Und das weißt du woher?

Hast du dir alles ausgedacht und damit hat es keinerlei Bedeutung. Du versuchst deine Vermutungen durch irgendeinen Zahlenwust plausibel wirken zu lassen, aber du stocherst genauso im Nebel, wie alle anderen auch.

Gibt natürlich noch andere Möglichkeiten:

1: 12GB 192 Bit, die RTX 5090 bekommt ein 512 Bit Interface, mit 32GB RAM.
2: 16GB RAM 128Bit, die RTX 5090 bekommt 48GB. Es wäre mal an der Zeit, dass die VRAM Menge aufgestockt wird.
3: 8GB 128Bit. Nvidia ist ja gut damit gefahren die Kunden zu melken und warum sollte man etwas ändern, solange AMD mitmacht?

Bei der Leistung und dem Preis gilt das gleiche, keiner weiß irgendwas.
 
Woher? Nu tsmc Angabe 42% denser in logic bei n3
Einsparungen am Si wegen gddr7 macht Sinn
Einsparungen bei tensor cores machen Sinn da diese in neuen Generationen deutlich effizienter werden
Aber das kann sich verzögern bis 2027 das spart um die 5% Chipfläche ein
Der rest bleibt ja identisch und mehr Takt durch den node tsmc spricht von +15% Takt oder 30% Energie Einsparung.
Das Si belegt aktuell beim ad106/ad104 etwa 25% des chips
Sram etwa 12% maßgeblich der L2
Der rest ist logic sollte also skalieren
also dann 67*0,58=39%+37 =76%
Grob also 0,75 Größe von original und as ohne Anpassung des Si was von 25% auf nur 19% sinkt
macht also 39+19=58% maximale Verkleinerung
nehme ich aber an das man den L1 bis L2 vergrößert um 15% ist am ende sogar 71% der original Größe
Egal wie ich es ausrechne die chips werden billiger klar sind das Schätzungen anhand von gpu dieshots
aktuell habe ich nur einen von ad102 aber das skaliert
preise von tsmc aus 3dforum aktuell 5nm 15000$ geplant n3 18000$
Von nvidia wissen wir das vom leak das sie 17000$ zahlen bis zur nächsten Verhandlung

Wie diese arch dann heisst ist egal aber definitiv nicht blackwell
 
Also echt NV, ihr habt sie doch nicht alle. Euer Vram Geeier gehört so was von abgestraft. Die rtx4070ti kommt mit lumpigen 12gb daher und weniger als die 3060 16gb. Dann die 4060ti erst mit 8 nun mit 16 GB, also mehr als die fast doppelt so teuer rtx4070ti.
Selbst die knapp 1200€ teure Rtx4080 hat mit 16gb gerade soviel vram wie die alt kleine rtx3060 und die nun kommende rtx4060.
Da ist doch keine Linie außer die der Abzocke erkennbar.
Schaut mal zu AMD die haben ein klares sauberes Vram-Preis-Leistubgsverhältniss.
Meine rtx3060ti werde ich daher demnächst gegen eine rx7800xt/7900xt tauschen.
Wenn NV die Gamer nicht wichtig sind und ihr lieber teure buisness und KI Hardware baut dann macht halt. Dann werden halt Intel+amd den Markt übernehmen. Tschau NV mich habt ihr verärgert + vergrault. Ich hätte mir gerne ein rtx4070/ti gekauft wäre die etwas günstiger und mit min. 16-20gb vram.
 
So was nennt man Spekulation die durchaus realistisch sind kann natürlich komplett danebenliegen und nvidia schafft das wunder mehr alu mehr Leistung mehr Takt (über 4ghz) kleinerer chip ergo billiger zu fertigen
daran zweifle ich. Das wird vor n2p nicht funktionieren und größere chips kann nvidia nicht in den sku setzen
dafür müsste der wafer wieder bei 4000$ sein
Die hopper arch wird sehr wahrscheinlich für blackwell genutzt der unterschied ada vs hopper ist
Rt cores mehr tmu mehr rop weniger int32 und weniger cache.
Daraus kann man aber leicht nen gaming Ableger basteln dieser würde aber nur beim n3 etwa auf 2,2ghz laufen
Hätte aber mehr alu aktiv pro sm und würde kaum schneller sein als das ada design mit mehr Takt.
Zumal dies dann heißer wäre ada ist sehr effizient bei 2,4ghz nahezu perfekt.
9tf sind mit nur 24sm bei 2,3ghz und nur 75w drin dagegen wäre die rtx3060 mit 170w die gleiche Leistung
 
Ich würde sagen, "alle" wollen die nicht mehr wg. dem SI und der Schnittstelle...
Die echte 3070 mit 16GB wäre eine ganz andere Nummer.
Technisch ist das Unsinn, das sollte jeder wissen. Bandbreite, SI, Anbindung, Cache, Shader etc. das sind alles nur Daten, wichtig ist was dabei herumkommt.
Eine 4060Ti ist auf den Punkt eine 3070, mit 16GB dann schon eine Ecke stärker, da dann die Nachteile des knappen Speichers wegfallen.

Die "echte" 3070 mit 16GB ist eine "Luftnummer" weil viel höherer Verbrauch, kein Frame Generation und mehr Leistung hätte sie auch nicht.
wo die meisten vermutlich noch mit PCIe 3.0 unterwegs sind aus der Zeit der 9000/10000 Intel oder Ryzen 3000 Ära bzw. 5800X3D Updater mit einem MB X/B 400 Unterbau.
Würde ich gar nicht so heavy sehen, da 16GB schon einiges retten.
Die 8GB Karten hat im V-ram Limit vor allem in PCIe 3.0 schon stark an der Bandbreite gelitten.
ansonsten: gäbs in der Preisrange auch "echte" 16GB incl. gescheiter Anbindung
16GB an 128bit angebunden, sind nicht weniger "echt" als 16GB an 256bit angebunden.
Was für ein technischer "Quark". Wie kommt man auf so einen Trichter?
 
Zuletzt bearbeitet:
Warten wir auf die Test´s und sehen was dabei rauskommt.

Die 3070 mit 16GB wäre definitiv länger "haltbar".

Und klar... Stromverbrauch und FG sind die großen Pluspunkte der 4060.
 
Zurück