Geforce RTX 3060 Ti: Manli bestätigt technische Eckdaten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3060 Ti: Manli bestätigt technische Eckdaten

Nvidias Board-Partner Manli hat - wohl eher unfreiwillig - die technischen Eckdaten der Geforce RTX 3060 Ti bestätigt. Zu einer Karte des Anbieters sind die Produktspezifikationen aufgetaucht, die sogar die Taktraten enthalten. Gerade mit denen wird normalerweise ja bis zur letzten Sekunde abgewartet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3060 Ti: Manli bestätigt technische Eckdaten
 
Also ist ne RTX3060Ti quasi was Performance und Effizienz und Speicher und so ziemlich alles andere auch angeht etwa dasselbe, wie wenn ich ne RTX2080(S) nehme, ihre TDP auf 200W stelle und den Taktoffset der GPU auf +100 stelle.
Der einzige technische Fortschritt ist also, dass das jetzt chipgrößentechnisch auf 400 statt bisher 550 mm^2 passt.

Gleiche Leistung bei gleichem Verbrauch, nur halt jetzt ne Preisklasse drunter. Ganz schön langweilig irgendwie. :ka:
 
Also ist ne RTX3060Ti quasi was Performance und Effizienz und Speicher und so ziemlich alles andere auch angeht etwa dasselbe, wie wenn ich ne RTX2080(S) nehme, ihre TDP auf 200W stelle und den Taktoffset der GPU auf +100 stelle.
Der einzige technische Fortschritt ist also, dass das jetzt chipgrößentechnisch auf 400 statt bisher 550 mm^2 passt.

Gleiche Leistung bei gleichem Verbrauch, nur halt jetzt ne Preisklasse drunter. Ganz schön langweilig irgendwie. :ka:
Was sollte daran langweiliger sein als alles übrige? Wenn es nicht gerade ein vollkommen neues, technisches Feature gibt, sind alle kleineren Karten i. d. R. grundsätzlich langweilig, weil die im Wesentlichen einfach nur mehr Leistung für weniger (oder gleiches) Geld i. V. z. Vorgeneration bieten. Formuliert man es gar etwas bissig, war alles was AMD mit RDNA2 bietet langweilig, da man lediglich den beträchtlichen Rückstand zur Konkurrenz nivelliert hat (wobei das beim Raytracing aktuell nicht einmal mit Sicherheit gesagt werden kann).

Darüber hinaus hat die 2080 Super 250 W TBP, d. h. wenn die neue Karte wirklich diese Leistung bieten sollte, wäre die auch ein gutes Stückchen effizienter geworden. Und es wird zudem P/L-technisch ein gutes Stück günstiger mit 399 oder bestenfalls 449 US$/€ ggü. vormals 699 US$ MSRP bei der 2080 Super. Einfach mal abwarten (insbesondere die Lieferengpässe). Dieses Jahr hat man (vorerst zumindest theoretisch ;-)) jedenfalls ordentliche Auswahl und muss auch nicht mehr auf Raytracing verzichten, da ja nun auch die 6700-Serie dieses bieten wird.
 
sind alle kleineren Karten i. d. R. grundsätzlich langweilig, weil die im Wesentlichen einfach nur mehr Leistung für weniger (oder gleiches) Geld i. V. z. Vorgeneration bieten.
Technisch gesehen fand ichs früher immer interessant weil die das da meist mit sehr viel weniger Leistungsaufnahme schafften - was dieses Mal halt ausfällt.

Ja, die 2080 hat ne TDP von 250W - aber diese Chips waren noch nicht ab Werk an der Kotzgrenze (da NV keinen Druck hatte), bedeutet du kannst auch den Taktoffset ein bisschen anheben, deine TDP etwas senken und du hast die gleiche Performance bei 50W weniger. Ich gehe stark davon aus, dass ein GA104 Chip da deutlich weniger Reserven hat.

Ich betreibe meine 2080 mit 180W und erreiche damit die gleichen 1900 MHz unter Last wie die Karte @Stock mit 250W. Klar, das ist manueller Aufwand und vielleicht auch ein bisschen Glück beim Sample aber im Wesentlichen ist das die Effizienz einer Amperekarte von 2021 schon 2018 gewesen. Das gabs früher nicht wirklch.
 
"Sie haben aktuell kaum andere Optionen da das Design eben so festgelegt wurde" - Gilt 100% ebenso für AMD. ;-)
Und warum sollte man der 3060 Ti was anderes als 8 GiB mitgeben, da die offensichtlich ein 256 Bit-Interface hat und dieses auch benötigt, weil ansonsten die Speicherbandbreite sinken und den Chip ausbremsen würde.
Und 16 GiB sind in dem Segment preislich nicht sinnvoll unterzubringen, da der Speicher den Kartenpreis relativ zum Basispreis überproportional erhöhen würde.
Zudem würde die Karte auch mit 16 GiB nicht mit einer 3070 oder 3080 konkurrieren, da sie dadurch nicht schneller wird. ;-)
Und im Gegenzug hat(te) AMD bzgl. der 12 GiB bei den 6700 (XT) schlicht keine andere Wahl, da sie hier nur noch ein 192 Bit-Interface verwenden, sie mit 6 GiB ihre Karten jedoch ins vertriebliche Abseits befördern würden, d. h. AMD war hier schlicht gezwungen 16 Gb-BGAs zu verbauen, auch wenn es auf die Marge drückt, was schlicht ihrer Marktsituation geschuldet ist. AMD muss bei gleichem Preisniveau mehr bieten als der Marktführer; anders geht es zurzeit nicht, wenn man hier entsprechende Umsätze generieren möchte.

Zu deiner 2080: Wer sagt, dass das mit einer 3060 Ti nicht gehen wird? Der 8N ermöglicht zweifelsfrei weitaus mehr als der alte 12FFN, die offiziell ausgewiesenen Taktraten sind im normalen Bereich, es wird Standardspeicher verwendet, d. h. ohne konkrete Testmodelle kann man nicht sagen, dass das mit dem GA104-200 (?) nicht auch möglich sein wird.
 
Zuletzt bearbeitet:
Sie haben aktuell kaum andere Optionen da das Design eben so festgelegt wurde in der Entwicklung. Ne 3060Ti kannste ohne Kunstgriffe mit 8 oder 16GB ausstatten - und der können sie keine 16 geben weil das die 3070/80er Karten abschießen würde.
Wobei dafür schon fast wieder die Rohleistung fehlen würde, um 3070/3080 abzuschießen. Die 3060Ti hat nur wenige Prozent mehr CUDA Kerne als eine RTX 2080 Ti, auch wenn sie nur selten bis niemals langsamer sein wird als die neue Mittelklasse. Es gäbe sicherlich ein Leistungsplus mit 16 GB, doch 3070/3080 würden davonziehen, außer es bleibt bei deren 8GB und 10GB, klar.
 
würde die Karte auch mit 16 GiB nicht mit einer 3070 oder 3080 konkurrieren, da sie dadurch nicht schneller wird.
Das interessiert den Ottonormalo da draußen nicht die Bohne wenn er bei der billigen 60er 16GB und bei der teuren 70er 8GB sehen würde. Und: fps sind tatsächlich NICHT alles. Nachladeruckler, Frametimes, Ladezeiten, alles wird besser wenn mehr Speicher da ist (und das SPiel es nutzt natürlich). Der fps-Balken nicht, das stimmt.
 
Zuletzt bearbeitet:
Versteh denen ihre Namensgebung nicht. Gab doch keine 3060 bisher oder, warum fangen sie dann jetzt mit der TI Serie an? Und ist dann die 3070 nicht irgendwie sinnlos? Hat ja im PRinzip dann ähnliche Ausstattung und wird von der LEistung nicht weit weg liegen.
 
Wobei dafür schon fast wieder die Rohleistung fehlen würde, um 3070/3080 abzuschießen.
Der Vergleich zwischen Rohleistung und Speichermenge war noch nie sinnvoll. Texturen verbrauchen keine Rohleistung. Du kannst bei einer imaginären 3060Ti mit 16GB die höchste Texturstufe in SeriousSam4 auswählen und ruckelfrei nutzen, bei der 8GB-Karte nicht (die höchste ist nicht anwählbar und die zweithöchte hat Nachladeruckler). Beides hätte die gleichen fps.

Ob ich den Witcher3 vanilla spiele oder mit HD-Texturpack ändert an den fps rein gar nichts. Aber der vRAM-Verbrauch steigt von 3,5 GB auf "voll" (8GB) und es sieht VIEL besser aus.
 
Das heißt in dem Falle dieser "Otto-Normalo" hat keinerlei Ahnung was die Gechwindgikeit (sprich die Fps) auf dem Monitor ausmacht. Das trifft zweifelsfrei für so manchen zu, bspw. hier im Forum aber wahrscheinlich für nahezu keinen. ;-)

Wobei dafür schon fast wieder die Rohleistung fehlen würde, um 3070/3080 abzuschießen. Die 3060Ti hat [...]
"Fast" ist gut. Die Karte hat nur 83 % der Cores einer 3070 und zudem auch noch den leicht geringeren Takt. Die wird gesichert langsamer sein und damit nichts "abschießen" können. Zudem ist auch gar nichts anderes zu erwarten, da es nicht im Interesse eines Hersteller ist zwei ansonsten gleiche Produkte für unterschieliche Preise auf den Markt zu bringen. ;-)
 
Ein Normalsterblicher Spieler ohne fps-Counter in der Ecke kann in einem Blindtest selten sicher unterscheiden, ob er gerade auf 70 oder 90 fps schaut. Er kann aber mit absoluter Sicherheit sagen ob er mal 300 Millisekunden ein Standbild hatte weil was nachgeladen wurde oder erkennt auch ganz sicher eine Matschtextur vor seinen Füßen.

Ich hab ja nichts dagegen wenn da bei manchen die Prioritäten anders liegen und/oder sie sich vom Markt mittlerweile haben erfolgreich einreden lassen dass man so viel Speicher ja nicht braucht. Aber nein, ich gehöre nicht dazu. Seitdem ich erleben durfte wie die genannten Probleme von heute auf morgen verschwunden waren als ich zeitweise zu ner 12GB-Titan gewechselt hatte und jetzt wieder Nachladeruckler mit ner 8GB-Karte habe braucht mir keiner mehr zu erzählen dass der kleine Speicher ja reicht.
 
Versteh denen ihre Namensgebung nicht. Gab doch keine 3060 bisher oder, warum fangen sie dann jetzt mit der TI Serie an? Und ist dann die 3070 nicht irgendwie sinnlos? Hat ja im PRinzip dann ähnliche Ausstattung und wird von der LEistung nicht weit weg liegen.
Etwas langsamer/Sparsamer, kleinerer Kühler (Nur 2 Slots statt 2,5) und dann vermutlich um die 350 bis 450 €
 
Ich kenne so manchen, deiner "Normalsterblichen", nur selbst die verhalten sich vielfach nicht so, weil die dann kurzerhand einen Freund, Bekannten oder den IT-ler in ihrer Firma in der Kaffeepause fragen. ... achja... ich vergaß, Publikationen wie bspw. PCGH gibt es ja auch noch ;-)
Sicherlich wirst du hier und da immer einen "unwissenden Deppen" finden, nur der Anteil wird voraussichtlich nicht so hoch sein, als dass du damit marktrelevante Effekte generieren könntest, denn ansonsten würde man bald wirklich eine 3060 Ti mit 16 GiB zu sehen bekommen, die dann deiner Definition nach die 3070, 3080 und alles unterhalb der 6800er "abschießen" würde. Eigentlich wäre das für nVidia der deutlich günstigere Weg, oder nicht? Man könnte eine Menge Modelle streichen und damit Kosten sparen, wenn das so einfach wäre mit diesem einen 16 GiB-Modell. ;-)
 
Der Vergleich zwischen Rohleistung und Speichermenge war noch nie sinnvoll. Texturen verbrauchen keine Rohleistung. Du kannst bei einer imaginären 3060Ti mit 16GB die höchste Texturstufe in SeriousSam4 auswählen und ruckelfrei nutzen, bei der 8GB-Karte nicht (die höchste ist nicht anwählbar und die zweithöchte hat Nachladeruckler). Beides hätte die gleichen fps.

Ob ich den Witcher3 vanilla spiele oder mit HD-Texturpack ändert an den fps rein gar nichts. Aber der vRAM-Verbrauch steigt von 3,5 GB auf "voll" (8GB) und es sieht VIEL besser aus.
Witcher3 im Einzelspielermodus bietet sich dafür an, hohe Details zu wählen. Anders sieht es bei leichtgewichtigen E-Sports Titeln aus, wo es - zumindest bei einer GTX 1650 - enorme Unterschiede gibt bei FPS, Speicherauslastung und Leistungsaufnahme je nach Detailstufe, wenn auch jeweils im grünen Bereich. Ich verstehe den Einwand, doch gerade im Bezug auf Multimedia wirken hohe Details auf mich nicht ganz so "gratis", wie das gerne aus technischer Sicht kommuniziert wird.
Ich kenne so manchen, deiner "Normalsterblichen", nur selbst die verhalten sich vielfach nicht so, weil die dann kurzerhand einen Freund, Bekannten oder den IT-ler in ihrer Firma in der Kaffeepause fragen. ... achja... ich vergaß, Publikationen wie bspw. PCGH gibt es ja auch noch ;-)
Sicherlich wirst du hier und da immer einen "unwissenden Deppen" finden, nur der Anteil wird voraussichtrlich nicht so hoch sein, als dass du damit marktrelevante Effekte generieren könntest, denn ansonsten würde man bald wirklich eine 3060 Ti mit 16 GiB zu sehen bekommen, die dann deiner Definition nach die 3070, 3080 und alles unterhalb der 6800er "abschießen" würde. Eigentlich wäre das für nVidia der deutlich günstigere Weg, oder nicht? Man könnte eine Menge Modelle streichen, wenn das so einfach wäre mit diesem einen 16 GiB-Modell. ;-)
Gute Idee! xD
 
Zurück