Geforce RTX 3060 Ti: Folie mit Leistungsdaten gegen RTX 2060 Super und RTX 2080 Super

Krass. Klar ist sie schneller als die Vorgänger, wäre ja auch ein schlechter Scherz, wenn nicht.
Aber irgendwie komme ich mit der Preisgestaltung immer noch nicht so richtig klar. Habe in Erinnerung, dass die GTX 1060, also auch ne 60er und damals gabs keine 1060Ti, 270€ oder so UVP hatte, oder irre ich mich da?
Gut, klar, dass hier is eine Ti (!!!) aber trotzdem gibts doch da sowas wie nen Trend? Grob gerechnet sind das 148% des Preises der selben Klasse wie in der Vor-Vor-Generation.
 
Also wird eine RTX3060Ti mit gerüchteweise 200W TDP auf grob eine Performance geschätzt, die eine TitanX Pascal (oder wahlweise 1080Ti) vor etwa 5 Jahren mit 250W TDP erreicht hat und die noch 4GB (3GB) mehr vRAM hatte.

Also wenn man da den Preis außen vor lässt und rein die technische Seite betrachtet ist das wirklich, wirklich schlecht.
GTX 1080Ti ...5 Jahre?
 
Ursprünglich hatte ich die TitanX Pascal genannt (weil ich die auch selbst hatte), das war Mitte 2016, also ok, 4,5 Jahre zwischen TXP und 3060Ti. Wobei ich jetzt nicht glaube, dass in dem halben Jahr danach eine weitere generation mit bedeutend besserer Energieeffizienz erscheint^^

Auf ein Jahr mehr oder weniger kommts auch nicht an, es ging nur darum zu zeigen wie langsam der Fortschritt da (mutmaßlich wegen mangelnder Konkurrenz von AMD in der Zeit) geworden ist. Da feiert man ne 3060er Karte wenn sie die Performance der High-End Karte 2 Generationen vorher mit 50W weniger erreicht und noch weniger Speicher hat. Ein paar Generationen in der Vergangenheit bevor Leute die kleinen Sprünge gewohnt waren hätte man NVidia bei sowas mit nem Shitstorm überzogen :haha:
 
Letztendlich sind die Namen der Karten doch völlig egal. Was zählt ist die Leistung pro Euro. Vor rund 6 Jahren (19. Sep. 2014) erschienen die GTX 970/980 in den USA zu einer UVP von 329$/549$. Heute erhält man fürs gleiche Geld ein Vielfaches an Leistung. Ob der Leistungszuwachs zwischen zwei Generation innerhalb der gleichen Preisspanne ausreicht, muss natürlich jeder für sich selbst entscheiden.
 
Beim selben Techniksprung müsste eine 3060Ti mit 24 GB vRAM kommen
Und das Plus an Speicher macht die Karte dann schneller ?
Nope.

Also dafür dass nur eine Gen dazwischen liegt, finde ich das ziemlich ok, dass eine 60er Karte nun die Leistung der ehemaligen 80Ti hat und zusätzlich noch Features bietet, wo die 80Ti nicht mal von geträumt hat, Richtung RT/DLSS.

Ich finde das jetzt relativ ok.

Vor allem wenn man bedenkt, dass Startpreise(wie die für die 60Ti) nach ner Weile(paar Monate) normalerweise auch deutlich sinken.
 
Naja, vergleiche die letzten 5-6 Jahre Entwicklung mal mit den 5-6 Jahren davor.

Heute: RTX3060Ti (200W, 8GB) so schnell wie 5 Jahre davor 1080Ti (250W, 11GB)
Damals: GTX1050Ti (75W, 4GB) so schnell wie 5 Jahre davor GTX580 (250W, 1,5GB)

Das war technisch ein großer Fortschritt in dem Zeitraum - das heute ist gefühlt nichts. Beim selben Techniksprung müsste eine 3060Ti mit 24 GB vRAM kommen und mit 60W die Leistung der 1080Ti haben. :ugly:

Ich will damit nicht sagen dass die RTX3060er schlechte Karten wären, das sind sie wahrscheinlich nicht. Nur ist der technische Fortschritt was Performance/Effizienz angeht sehr sehr viel kleiner als noch vor einiger Zeit und dass man weniger statt mehr vRAM bei ähnlicher Performance verbaut ist vorsichtig ausgedrückt fragwürdig.
Man echt hast du das immer noch nicht begriffen Grafik entwickelt sich nicht mehr in dem Tempo.
Eine 1080ti mit 11Gb war klare Overkill was hat die Karte heute von den 11Gb? RT kann sie nicht nutzen
und 4K stemmt sie in modernen Titel mit Ultra auch nicht. Da brauchst nicht mal 8Gb, also hat man im Grunde
mehr gezahlt was nicht nötig war.

Hauptsache man hat 11Gb und eine 1080ti kann auch nicht auf DLSS zurück greifen. Das hier immer so getan wird als sagen Speicher zahlen
etwas aus bei verschiedenen Architekturen ist mir auch unverständlich. Die Komprimierung ist eine andere, die Software hat sich auch verbessert so etwas muss man doch auch beachten. Amperes Speicher Interface ist gar nicht mehr vergleichbar mit Pascal oder Turing
und ich bezweifle stark das Effektiv eine 3080 überhaupt weniger Speicher hat als eine 2080ti. Weil ein 1Gb kannst mit sowas ausgleichen und das ist nicht mal schwer.
Wieviel Effektiv rum kommt bei 8Gb werden wir sehen, aber eines sei gesagt Nvidia lag bis jetzt ziemlich richtig mit der Vram Bestückung.
Die machen das nicht ohne Grund und deren Techniker wissen längst was in den nächsten 2 Jahren so kommen wird.

Ich erinnere noch hier an die 1060 6gb wäre ja ein Vram Krüppel, weil sie keine 8Gb hat. Tatsächlich ist die Karte sogar zu schwach und die 6Gb waren großzügig bemessen. Tja und heute steht die Grafik still, da ist nicht mehr soviel drin. Ich schätze sogar das DLSS sogar die Methode wird die egal ob unterstütz oder nicht laufen wird. Das wird die Zukunft werden, weil es keinen anderen Weg mehr gibt Grafik zu steigern.
 
Ich warte noch wie geplant bis zum Frühjahr, dann geht die 1080ti bei mir in Rente, mal sehen wer sie erbt, wahrscheinlich mein Bruder, der Daddelt eh nur in FHD und nicht so viel wie ich!
Da ist sie gut aufgehoben.
 
Tja und heute steht die Grafik still, da ist nicht mehr soviel drin.
Das ist ein Satz, den ich sowohl bei GPUs als auch bei CPUs seit Ewigkeiten höre. Man hat schon beim Pentium4 gesagt da geht nicht mehr viel, bei Skylake und allen folgenden Lakes war "x86 ausgereizt", bei der GTX580 war schon "nur mit mehr Stromaufnahme mehr Leistung drin" (wie jetzt bei Ampere auch) und so weiter.

Ja, natürlich wird die Entwicklung langsamer, ganz klar. Aber das Ausmaß WIE langsam es die letzten 5 Jahre war ist nur zu einem kleineren Teil der technischen Machbarkeit geschuldet und zu weit größeren Teil der Gewinnmaximierung durch nicht Vorhandensein von Konkurrenz.

Oder meinst du wirklich, wenn NVidia unter hartem Druck gestanden hätte hätte man den billigen 10+nm ("8nm") Samsung dem besseren TSMC 7N vorgezogen und in der Rasterisierung nicht wesentlich mehr gemacht als "FP32-Funktionalität in die Integereinheiten bauen" und nur alle 2+ Jahre mal ne neue Generation gebracht?

Es ist nicht so, dass NVidia nicht viel mehr Power in kürzerer Zeit hätte Entwickeln können mit mehr Aufwand/Ressourcen und kleineren Margen in der Produktion, nur wollten bzw. mussten sie das nicht da man mehr Geld damit verdient geringere Steigerungen öfter und teurer zu verkaufen.

Warte mal ab was die RTX4000-Karten (wenn das schon "Hopper" ist) und die 7nm-Intel Architekturen an Mehrleistung und an Effizienzsprüngen liefern werden in zwei, drei Jahren jetzt, wo AMD ihnen in den Ar*** getreten hat und wieder geliefert werden muss um mitzuhalten. Die Sprünge werden SEHR viel größer sein als das, was wir von GTX1080 zu 2080 zu 3080 gesehen haben oder erst recht von 7700K zu 8700K zu 9900K zu 10900K.

Technisch am Ende bei "da geht nicht mehr viel" ist noch lange hin. 7nm, 5nm, 3nm, 2nm, 1nm sowie GAA statt FinFET sind im Plan, dann ist physikalisch mit aktuellem Material ziemlich Limit. Bis dahin sind wir mindestens im Jahre 2035. Und mindestens beim Faktor 10 in der Performance.
 
Zuletzt bearbeitet:
Die Sprünge werden SEHR viel größer sein

Schaun wir mal ...
Du schreibst das, als wäre das eine Tatsache.
Vermuten kann man natürlich viel.
(Machen gewisse "Twitterer" auch. ;) )

Ich erinnere noch hier an die 1060 6gb wäre ja ein Vram Krüppel, weil sie keine 8Gb hat.

Hab heute noch in WQHD mit so einer 6GB Karte gezockt.

Is nich der Burner, aber geht.

Also nich 1060, aber 1660 super 6GB.
Immerhin um die 55 fps in WQHD. Speicher kein Problem(ja die 6GB in ACO).
 
Du schreibst das, als wäre das eine Tatsache.
Ich kann genauso wenig in die Zukunft sehen wie die anderen. Aber nach 20+ Jahren wo ich den Zirkus jetzt verfolge haben sich manche Dinge nie geändert. Immer wenn keine Konkurrenz war gingen die Performancesprünge zurück und jedes mal wurde behauptet "technisches Limit, wenig Spielraum blablubb" und sobald eine ernsthafte Konkurrenz da war machte es PLOPP und die nächste Generation wischte mit der vorherigen ziemlich übel den Boden auf (P4 zu Core2, Fermi zu Kepler,...).

Natürlich kann jetzt alles anders kommen - aber die Chance dass es wieder so kommt wie die letzten gefühlten 5 Mal in den letzten 20 Jahren ist einfach größer finde ich.^^

Wir sind ja in der nächsten "Etappe" auch wieder an einem Punkt wo sowohl die Fertigung als auch die Architektur gleichzeitig nen Sprung macht. 7 auf 5nm TSMC, 14/10nm auf 7nm Intel - und NV/AMD mit mutmaßlich Chipletdesign-GPUs und zumindest angepeilter massiver IPC/Effizienzsteigerung in RDNA3 und Hopper, wie gesagt umbau von FinFET auf GAA in den nächsten Jahren... Potential dafür, dass eine RTX4060Ti auf Basis des "mittleren" GH104 Chips bei 150W deutlich schneller als eine RTX3090 ist gibt es theoretisch durchaus. Obs so kommt wird man abwarten müssen aber die Voraussetzungen, dass 2022/23 weit größere Sprünge kommen als von 2015-2020 sind durchaus da.
 
Zuletzt bearbeitet:
Dann darf ich auch mal was vermuten :D :

Ich vermute, dass die beiden sich auf ein gemütliches Niveau einigen, auf dessen Preisbasis sie gemeinsam die Kunden möglichst gut abzocken können. ;)
Vermute die Anfänge sehen wir bereits jetzt, bei Ampere und den neuen Radeons. Die Basisleistung der Modelle wird sich ähneln(z.B. 6800 XT vs. 3080), aber die Preise eben auch.
Genau wie bei Intel vs. Ryzen 5000er(schau mal nach 5800x Preisen).

Auch mal einfach vermutet. :D

Wie heißt das noch mal ?
"Eine Krähe hackt der Anderen kein Auge aus."

Die werden schon Wege finden, uns möglichst gut abzuzocken, die 3 Nachbarn.
 
Ich vermute, dass die beiden sich auf ein gemütliches Niveau einigen, auf dessen Preisbasis sie gemeinsam die Kunden möglichst gut abzocken können.
Das ist zwar streng genommen illegal aber leider auch möglich, da haste Recht.
Das wäre die für uns mit Abstand schlechteste Zukunft^^

Ich denke aber die Gier wird da siegen. Das Ziel den Marktanteil zu steigern und weiter zu wachsen ist für Topmanager weitaus leuchtender als den aktuellen Stand sicher halten.
 
Das ist zwar streng genommen illegal aber leider auch möglich
Ich vermute die USA werden da dann nicht ganz so genau hinschauen, da alle Kohle in den USA bleibt.
Anders als wenn Intel z.B. übermächtig geworden wäre ...
Dann hätte die Kartellbehörde der USA auf Intel drauf gehauen.

Wenn die 3 Nachbarn sich allerdings alle irgendwie arrangieren und somit ein gutes Abwehrschild gegen Fernost bilden, hätten die glaube ich gar nix dagegen, bzw. würden da noch mit gewissen Mitteln helfen.

Aber das sind nur meine Aluhut Verschwörungstheorien. ;)

Hoffen wir mal, dass sich alle 100% an alle Gesetze halten und nie irgendwas illegales machen, wie Spionage, oder Absprachen. :ugly:
 
Das ist zwar streng genommen illegal aber leider auch möglich, da haste Recht.
Das wäre die für uns mit Abstand schlechteste Zukunft^^

Ich denke aber die Gier wird da siegen. Das Ziel den Marktanteil zu steigern und weiter zu wachsen ist für Topmanager weitaus leuchtender als den aktuellen Stand sicher halten.

Joar, wäre gut möglich. Das letzte mal war 2008? Also wenn man googelt Preisabsprache AMD Nividia...
Tja, man kann nur entgegenwirken, wenn man nicht zu jeden Preis den Artikel erwirbt...

Zum Glück habe ich den 5900X zum UVP noch bekommen ;) Bei den Grakas werde ich defintiv warten (auf 3080TI oder 6900XT zum UVP!!!).
Kann mir doch keiner erzählen, dass eine Neuanschaffung so dringend ist?? Meine 980TI (6GB) werkelt schon seit 2015 im Rechner und bringt es noch...da kann ich gerne noch 6-12 Monate warten..
 
Bitte nicht schon wieder 400 € als günstig hinstellen. Der Vergleich mit der 2080 Super hinkt. 2080 Super ist Highend letzte Gen, 3060Ti ist Midrange jetzt..... Wenn ich zurückdenke was ich damals für eine 970 bezahlt hatte (eine 70er).... das waren bissl über 350 €.... für eine 70er... heute kostest eine 60(Ti)er mehr und es wird suggeriert es sei günstig. Zumal der UVP heut nichts mehr bedeutet.. sieht man ja super an allem was so die letzten Wochen neu raus kam.
 
Bitte nicht schon wieder 400 € als günstig hinstellen. Der Vergleich mit der 2080 Super hinkt. 2080 Super ist Highend letzte Gen, 3060Ti ist Midrange jetzt..... Wenn ich zurückdenke was ich damals für eine 970 bezahlt hatte (eine 70er).... das waren bissl über 350 €.... für eine 70er... heute kostest eine 60(Ti)er mehr und es wird suggeriert es sei günstig. Zumal der UVP heut nichts mehr bedeutet.. sieht man ja super an allem was so die letzten Wochen neu raus kam.
Dass eine GTX 970 nur 4 GiB hatte, die 2080 Super bzw. nun 3060 Ti 8 GiB und dass zumindest erstere +219 % schneller ist gemäß PCGH-Index (letztere wird dann nochmal ein paar Prozentpunkte drauflegen) ist dir aber jetzt nicht entgangen, oder? ;-)
Wenn sich der Preis bei dann hoffentlich bald regulären 399 US$, die nVidia zurzeit 1:1 in Euro inkl. MwSt. umzumünzen scheint, etablieren sollte, wäre das ein sehr gutes Angebot.
Und aufgrund der weiterhin noch unveränderten Marktsituation wird AMD das Angebot gar preislich noch leicht unterbieten müssen mit einer Karte im gleichen Segment, d. h. faktisch bekommt man heute sehr viel mehr Leistung fürs gleiche Geld und nein, mit einer Inflationsbereinigung braucht man jetzt nicht ums Eck zu kommen, denn so groß ist der Effekt über die paar wenigen Jahre hinweg dann nun doch nicht. - Einzig wer jetzt nicht die Füße stillhalten und einige Wochen warten kann, wird hier das Nachsehen haben, aber dass muss dann jeder für sich selbst entscheiden ...
 
Zurück