Geforce RTX 3060 Ti: Gigabyte mit 4 Modellen und 8 GiB

Meh, zu teuer für den Mainstream, zu wenig Anreiz bei 50$ mehr nicht zur RTX 3070 zu greifen. Nvidias Portfolio diesmal ist, sagen wir mal, ganz schön durcheinander, um nett zu bleiben.
 
Durchaus ja, schau dir mal die Sprünge mit Raytracing an und den von Maxwell und Pascal.

Weil der Vergleich ohne zusätzliche Tensor kerne ja auch so überaus fair ist. :ugly:

Jährlich? Wann soll das denn gewesen sein? 1999?
Bei so etwas muss ich dich schon Fragen, ob du wirklich seit mindestens 20 Jahren dabei bist. O.o
Wann kam die Nvidia 7000er Serie, Wann die Nvidia 8000er Serie?
Ich sag´s dir. 2005 und 2006.
Nächstes Beispiel: Nvidia 400er und Nvida 500er, 2010 und 2011
Noch eins? Geforce 600er und Geforce 700er 2012 und 2013
...

Dazu muss ich nicht erst ins Jahr 1999 gehen. :ugly:
Aber ich gehe auch gern extra für dich etwas früher zurück, aber keine Sorge nicht ins Jahr 1999.
Da reicht mir das Jahr 2001 und 2002 aus. Du findest bestimmt selbst heraus, was da so heraus kam. :D
 
Zuletzt bearbeitet:
Also marketingtechnisch sind die neuen Lederjacken ja wohl so ne Art Supergau. Zuerst angehimmelt wegen Geschmeidigkeit und Farbe, kamen dann von Tag zu Tag Infos, die das Ganze wohl eher unschön aussehen lassen. Schlechte Nähte, Leder auch eher nicht so ganz hochwertig, die eine oder andere Jacke lässt ihren Träger schon mal nackt aussehen... :D :D
 
Das ist ja alles ganz schön langweilig. Was passiert unterhalb der 3060? Gibt's wieder GTX Karten mit ultra bescheuerten Namen? Oder noch eine 3050 auf 2060 Niveau fürs selbe Geld und RT-ready in 720p?
 
Man rechnet ja oft Frames pro Watt und so Zeug, warum rechnen wir nicht einmal Leistung pro Transistor und nehmen die schöne PCGH Tabelle um von Ampere-Transistoren auf Touring-Transistoren zu konvertieren, damit wir die 3070 und 3060 einordnen können. Die Karten werden dann in NTT gemessen, Normierten Turing Transistoren.

Dank der PCGH, haben wir ja eine tolle Tabelle für diese Maßeinheit

Gemittelt gilt: 3080 = 1,51 x 2080S

Eine 2080S hat 13,6 Milliarden Transistoren, aber das hat eine 2060KO auf dem Papier auch, es sind ja immer Teile des Chips deaktiviert. Die 2080S ist am oberen Ende der Selektion einer TU-104, da würde ich sagen 95% der Transistoren sind aktiv, die KO ist am unteren Ende, da gehen noch zwei Drittel.

Die 3080 selbst ist am unteren Ende der Selektion GA-102, da liegen gute 17% brach.

Auf zur milchmädigsten Milchmädchen Rechnung aller Zeit

[13,6 Milliarden Transistoren des TU-104] * [0,95 Gütegrad 2080S] = 12,92 Milliarden aktive Transistoren = 1
[28,13 Milliarden Transistoren des GA-102] * [0,83 Gütegrad 3080] = 23,34 Milliarden aktive Transistoren = 1,51
Aus der 1,8-fachen Menge an Transistoren holt Nvidia also die 1,51-fache Leistung.

Der Wechselkurs ist also 1 Ampere Transistor sind 0,83 Touring Transistoren. Das ist ein wenig ein Problem, weil da die Entwicklung in die falsche Richtung geht, aber das kompensiert Nvidia mit mehr Transistoren, schnellerem Speicher, mehr Kühlung und mehr Stromverbrauch. Dann fällt gar nicht auf, dass es mit den Samsung 8nm nicht so weit her ist.

Vom GA 104 wissen wir, dass er 17,4 Milliarden Transistoren haben wird und dass je nachdem wie perfekt der Chip ist eine 3070 oder 3060 Ti 8GB daraus wird.

Vermuteter Gütegrad der 3070 ca. 90%
Vermuteter Gütegrad der 3060, ist problematisch. Nehmen wir 80% ähnlich der 3080, oder verwertet Nvidia doch mehr Chips und geht auf 75% runter. Beide Karten haben 8GB also werden so viele Speicherinterfaces gar nicht brachliegen dürfen.

Den Wechselkurs eingerechnet ist der GA-104 also so schnell wie eine Turing Karte mit 14,42 Milliarden Turing Transistoren. 14,42 NTT

Die 2080Ti ist ja auch nicht 100% ihrer angeblich 18,6 Milliarden Transistoren, da sind im Hinblick auf Quadro und Titan eher 15% weniger im Einsatz. Das gibt ihr den Normierten Wert von: 15,35 Milliarden Turing Transistoren

Die 3070 hat offizielle 17,4 Milliarden, effektiv wird die 3070 vielleicht 90% davon nutzen können; laut Wechselkurs sind das 12,97 Milliarden Turing Transistoren. Da wären dann noch 15% Luft bis zur 2080Ti. Wenn der Benchmark gut ausgesucht ist kann man da vielleicht Nvidia Recht geben, dass die Karten gleich wären. Aber so wie die PCGH Benchmarks gezeigt haben, dass eine 3080 eben "nur" 1,51 2080S sind, wird die 3070 also etwas unter der 2080Ti liegen.

Die 3060 Ti 8GB wiederum läge bei 10,8 Milliarden Turing Transistoren , wenn man man annimmt, dass Nvidia 25% des Chips deaktivieren muss, damit das Ding noch stabil läuft. Da kann man dann sagen, Glückwunsch, du hast eine 2070. Ehrlich gesagt, ist das aber auch die Karte die keiner so richtig braucht. Für RTX On zu wenig, für RTX Off kein wirkliches Upgrade zur 2060S.

Dann gibt es noch den GA-106 mit 13,5 Milliarden Transistoren, was 11,2 Milliarden Turing Transistoren entspricht.
in der 90% Selektion wären das noch mehr 3060 Chips, diesmal die Version mit 6GB.

Bleibt die 75% Selektion des GA-106, das wäre eine 3050 6GB mit der Leistung von 8,4 Milliarden Turing Transistoren. Das entspricht wieder der klassischen 2060. An der Stelle wird wieder der Preis spannend, denn das ist die Fortnite RTX Karte für die Massen (Also 540p RTX On plus DLSS 2.0 auf 1080p skaliert). Ich sage, das wird die neue 199€ Karte, aber dann kommt der Asus Aufkleber drauf und es sind 250€.


Fazit, die 3080 wurde wohl als erstes vorgestellt, weil die von der Leistung her am besten dasteht. Ist ja auch klar, wann hat eine 80 wirklich zuletzt aus dem größten Chip bestanden? Selbst hier legen wir über Verfügbarkeit und Nvidia Preisvorgabe im Vergleich zur Realität besser den Mantel des Schweigens. Die 3090 war schon deutlich weniger spektakulär als Launch. Merkt man auch daran, dass statt ernüchternden 4k Zuwachsraten jeder das Thema auf 8k gelenkt hat. Brave Youtuber.

Die 3070 und 3060 Varianten werden nach meiner Milchmädchenrechnung wenig spektakulär. Absolut grundsolide 1440p Karten für Leute die das mit allen Details spielen. Fps dann so zwischen 45 und 70 je nach Last-Gen Spiel. Das bleibt alles im Rahmen dessen was man gewohnt ist. Dann sehe ich nur zwei Probleme. Das erste ist der Speicher, hier kann AMD Nvidia richtig wehtun, weil alle 3000 Karten noch diesen Mief von letzter Generation haben mit 8GB und 6GB. Das wird nicht jeder Serie 10 und Serie 20 Besitzer einsehen von 8GB auf 8GB oder 6GB auf 6GB upzugraden, wenn der Rest der Welt mit Zahlen wie 12 und 16 um sich wirft.

Das zweite Problem sind die OEMs, die mit den Preisen gerade Amok laufen. Aus $700, was 600€ sind, wurden ja schon 700€ gemacht, effektiv kostet die Karte dann 800€-900€. Die Karte ist also irgendwo zwischen 12,5% und 33% überteuert, einfach nur weil sie es können. Kann man sagen, so ist das im Kapitalismus, oder man kann sagen Vertrauen in die Marke aufbauen sieht anders aus. Besonders in Deutschland, weswegen Aldi mit Billigwaren einen besseren Ruf hat als Rolex mit überteuerten Uhren. Liegt bestimmt nicht daran, dass niemand mehr die Zeit wissen muss. Aber der eigentliche Grund warum sich Nvidia das nicht leisten kann ist AMD. Außer die OEMs wissen was über AMD das wir noch nicht wissen und denken, dass sie auch dann mit den Preisen durchkommen werden, wenn AMD seine 6000er Karten veröffentlicht. Das wäre die bittere Interpretation in welchem Fall die goldene Regel gilt.

Nach dem Release ist vor dem Release. Lasst die Spekulation über Nvidia 4080 und AMD 7000 beginnen.
 
3060ti würde mir stehen aber 8gb sind mir zu wenig für 4k 30 fps aber die mehrleistung würde sie glaub auch nicht bringen die ich hoffe die sie hat gegebüber meiner 1070.

ich hatte mich jetzt auf ein upgrade wieder zu AMD eingeschossen wegen den 12 und 16 gb vram die es bestimmt zu einen sehr guten P/L gibt.

4k 30 fps sind genug für eine Simulator Spielerin
 
@4thVariety


Ok,interessante Milchmädchen Rechnung.Nur es gibt dann noch die anderen Nutzer,die garkein RTX kram benutzen.Da liegt dann wohl noch mehr Transistoren brach.Schade das ich diese nicht einfach ohne RTX Future einfach zur zusätzlichen Leistungssteigerung nutzen kann.
Nun gut,ich stimmt dir zu,ne RTX 3050 ist auf dem Nivieu eher von einer RTX 2060 und damit mehr oder weniger über einer gtx 1070.
Bei Gamedebatte wird mit 40 % gegenüber einer gtx 1060 spekuliert.Kann ich mir sehr gut vorstellen.Klar ist auch das diese wohl wirklich mit nur 4 gb GDDR 6 Sepeicher daher kommen wird.Ich bin gespannt wie sich wohl ne RTX 3040 sich gegenüber einer GTX 1060 schlagen wird.Denn das ist das was mich wohl eher am meisten interessiert.Soweit ich weis,fülle ich die 6 gb meiner GTX 1060 nie wirklich aus.Wohl aber die 4 gb,aber nur wenn ich da dann mindestens 2560x1440 nutze und dann vielleicht noch richtig harte Kantenglättungsmodi drauf bügel.
Solche Spiele wie GRID Autosport braucht nur was mit 3 gb GPU Ram,ich weis nicht was Borderlands Games so brauchen,aber auch so 2-2,5 gb.Wie sieht es mit den Formel 1 Games aus,da ist es ja ebenso nicht der Fall.Soweit ich weis wird es dann z.b bei A way out schon langsam enger,da wurde ja mit 3 gb GPU Ram getestet.Ob sich da wohl 1 gb mehr bemerkbar macht,ist halt die große Frage.WIe gesagt,das sind so Games die ich Zocke.
Mir geht es halt auch darum den Faktor stromsparen.Wie viel wohl ne RTX 3040 an strom brauchen wird,ist halt ne andere Frage,die ich wohl dieses Jahr nicht mehr beantwortet bekommen werde.Aber gut,das steht halt auf einem anderen Blatt.
 
@latiose88

Überlegungen in Sachen Stromverbrauch beginnen mit dem Spielverhalten. Wieviele Stunden spiele ich pro Jahr?
Der Durchschnitt zockt 30 Minuten am Tag, macht 182h im Jahr. Macht bei einem 500W System mit 3080 ca. 91kw/h, was bei mir 32€ wären.

Aber wir wissen auch, dass 10% der Spieler für 50% der Gesamtspielzeit verantwortlich sind. Die berühmte Formel die überall auftaucht wo man sie am wenigsten erwartet. Die Top 10% bewegen sich dann bei 2,5h pro Tag, jeden Tag, auch Weihnachten. Bei einem System mit 500W sind das 1,25kw/h am Tag, bei 30,5cent pro kw/h 43 Cent am Tag und 160€ im Jahr. Wer nicht einen neuen Kühlschrank mit A Rating hat, der bezahlt für den Kühlschrank mehr Geld pro Jahr; but can it run Crysis?

Sparpotential sind da vielleicht 100€ im Jahr, wenn man mit allen Regeln der Kunst den Verbrauch auf 200W eindampft. Bei einem Hobby das man 17,5h die Woche betreibt sollte das kein Faktor sein. Weil da gibt es nicht viel das man 17,5h pro Woche machen kann, und mit weniger als einer 160€ Stromrechnung wegkommt. Retro-Games auf Android Microkonsolen vielleicht? Denn selbst wer den totalen Anti-Tech Hippie heraushängen lässt wird mehr an Bastelmaterialien ausgeben und selbst Splatterpunks haben ein höheres Jahres-Budget für Bier, selbst wenn sie auf jedes Konzert per Anhalter fahren und in einem besetzten Haus wohnen.

Im Privatbereich sollte Strom keine Rolle spielen. In Rechenzentren sehr wohl. Da laufen die Server ja wirklich 24/7 sind vorzugsweise sehr gut ausgelastet und brauchen eine reihe Klimaanlagen mit denen die Hitze unter Kontrolle gebracht wird. Da reden wir dann wirklich von 1500€ pro Server pro Jahr an Stromkosten. Da kann es sein, dass man einen AMD Epyc Rome für 15.000€ kauft und damit genug alte Maschinen ablöst, dass man die Kohle nach 2-3 Jahren schon wieder allein mit den Stromkosten drin hat. Klasse AMD Server quasi geschenkt. Mit dem Spiele-PC geht sowas leider nicht.
 
@4thVariety

hm mist,mein bruder meinte auch das es sich nicht lohnen würde.Denn er rechnet immer das aus was die Hardware gekostet hätte mit dem stromverbrauch dagegen.Dann sagt er um den Preis wieder rein zu bekommen vielleicht in 10 Jahren.Das lohne sich nicht,weil sie dann vielleicht in der Zeit defekt wird und so.Also ist wirklich nicht leicht.

Sonst zocke ich ja wirklich 17 Stunden die Woche.Da kommt wohl nicht genug zusammen.Wenn dann saisonbedingt dann mein bester Kumpel den Winter über ohne Arbeit ist,dann wird es wohl auch unter der Woche gezockt.Mit etwas glück nochmal 17 Stunden,was dann wohl 34 Stunden pro Woche sind.Aber das halt auch nicht über das ganze Jahr verteilt.Mit etwas glück sind es sogar manchmal 3 Pcs am einen Wochende .Würde es sich denn dann lohnen oder sagst du dann immer noch nicht.Es ist halt ein Unterschied ob es 3x 120 Watt sind oder 3x 80 Watt oder mit etwas glück wird die RTX 3040 nur 50 Watt verbrauchen.Dann wäre der Unterschied mit 3x 50 Watt wohl doch noch etwas höher.Meistens so 5-6 Stunden.Wenn das nun jeden zweite Woche so wäre,dann ist das doch wirklich viel Strom,oder immer noch wenig?




Ich weis ich sollte nun mich eigentlich nicht beschwerden,denn die Gefriertrue ist 20 Jahre alt.Mein Eltern wollen es einfach nicht ersetzen.Ihr agument,sollange sie ja noch geht,wird nichts ersetzt.Also läuft sie noch so lange bis wirklich defekt ist.Meine Mutter macht mir vorwürfe das ich zu viel stormverbrauche.Nun gut der Laptop läuft teilweise Tagelang durch.Es ist ein Laptop mit I7 4700hq mit 45 Watt verbrauch,ne gtx 860m mit 45 Watt.Es ist ein 120 Watt Netzteil,beim Laptop.Ich gehe mal nicht davon aus das der Laptop so viel Strom verbrät.Warum na weil ich damit in letzter Zeit nicht gezockt habe.Es wird ja dann automatisch auf die onboard GPU des Laptops gewechselt.Weshalb dann die gtx 860m nicht genutzt wird.Also kann man da schon von maximal 45 Watt ausgehen.Sofern denn die CPU ausgellastet wird.Allerdings idlet meienr mehr.Meine CPU hat da selten mehr als 30 % last,meistens weniger.
Da läuft halt dann so downloads oder was man da halt laufen lässt.Bildschirm ist meistens zu geklappt.Habe das mal ausgerechnet gehabt.Ich kommt da so auf 10 € pro Monat.Das dürfte ja nicht wirklich schmerzhaft sein.

Selbst der Kühlschrank dürfte da 20 Jahre alt sein.Das einzige was neu ist,ist der Ofen.DIe mikrowelle wird nur ab und zu genutzt.Der Fernsehr ist einer mit Reciver integriert.Ist zwar kein LED Fernsehr,dürfte aber aufgrund der 26 " nicht so viel verbraten.
Ansonsten läuft noch ein Festplattenrecorder das ganze Jahr über auf Standby.Er braucht nur wenn er aufnimmt 15 Watt pro Stunde,ansonsten nur so 10 Watt um den dreh.
Und da macht meine Mutter mich zum Sünden bock,das ich zu viel strom verbrate.
Da wird selbst wenn die Waschmaschine wo zwar A+ hat wohl mehr Strom verbraten als es ich könnte.
Das liegt wohl daran das der Strompreis bei uns bei rund 32 cent oder was es akuell sind,erhöht worden.So viel kann man also garnicht sparen um am ende auf das gleiche zu kommen.
Klar nicht alle Geräte sind sparsam,aber angeblich sollen meine Pcs an den zu hohen Stromverbrauch schuld sein.
Man muss ja was schuldiges suchen.
Darum dachte ich mir,ich baue mir einfach ne RTX 3040 rein und hoffe das ich dann wirklich strom spare.Allerdings frage ich mich noch immer ob es sich lohnen würde.
Einst nutze ich den i7 6950x als neben Zocken auch zum VIdeoumwandeln.Dieser wird nun als zweit Pc nur noch zum zocken verwendet.Anforderung bei nur maximal 4 Kerner ansrpuch ist also sehr gering.
Nun wird bald der i9 9980xe ebenso als reine Zocker Maschine enden,warum weil ich mir einen Ryzen 9 3950x System gekauft hatte.Der hat mehr Leistung und ist sparsamer als der I9 9980xe.Bei dem wird also ebenso HT abgeschaltet und takt vielleicht auf 3 ghz gesenkt.Damit senke ich ebenso den Stromverbrauch.Das muss ich beim i7 6950x mal wieder machen.Nachdem bios Batterie leer war.Dieser ist nun bei 3,5 ghz an Takt.Ich weis ich verkrüppel diese CPUS nun,aber sie zu verkaufen ist halt mit Verlusten des Wirtschaftlichen Verbunden und nen neues System kostet halt Geld.
Ich weis ich könnte solche Systeme verkaufen und mir dann z.b Ryzen 7 3700x oder 3600x CPU mir gönnen.
Würde ich denn da mehr sparen als bei ner GPU upgrade von gtx 1060 auf RTX 3040?
 
Zuletzt bearbeitet:
Dann nimm halt die normale 3060er die vermutlich auch noch kommen wird oder sogar die 3050er. Nur weil da ne 60 im Namen steht heißt es nicht dass 400-450USD direkt unverschämt sind. Einfach auf die Performance schauen statt sich an Namen aufzuhalten.
Nicht jeder ist so knochentrocken blöde, für eine Low-Midrange Karte 400-450€ auszugeben.
 
Zuletzt bearbeitet von einem Moderator:
Also ich weiß wie es früher so immer gewesen war. Da kostete meistens die mittelklasse so um die 300€. Noch früher waren es zu 8800 Zeiten 150 € gewesen. Ich weiß das diese Zeit nun vorbei ist. Aber 300 € kann man da schon zumindest dafür erwarten. Wir werden dann schon sehen wo die Preise so hinführen. Dennoch wo kämen wir denn da hin, das dann ne rtx 1060 dann für 400 € oder rtx 3050 ti für 350 oder rtx 3050 für 300 € oder ähnlich frecher Konstellation, es da die Menschen sagen würden wow. Na ganz sicher nicht, eher fallen sie vor schreck solcher hohen Preise um als sie sich sowas anzutun. Warum weil sie zu hoch sind. Ich hoffe doch das sich das nvidia es sich sehr gut überlegen wird, bevor sie es den Kunden zumuten. Mag zwar sein das sie gewinnorierentiert handeln müssen. Es hilft dennoch nichts wenn die Preise viel zu hoch sind und es sich die Kunden sehr gut überlegen ob sie sich den hohen Preis auch wirklich antun sollen oder lieber warten,auf bessere Preise. Es kaufen sich gewiss eher diese die wo sich sicher sind das sie die Leistung wirklich brauchen würden, ansonsten wohl eher weniger.
 
Man kann nicht an der Transistordichte die auslastung der gpu berechnen.
Die transistordichte ist für Effizienz zum Stromverbrauch bei kleinere Fläche bei gleichen Takt.
Und da kommen wir zu Fertigung vorteilen verschiedener Prozesse

LP = leading perfomance das schnellste was an takt geht bei dieser transistordichte nachteil etwas ineffizienter als es möglich wäre

LPP =low power performance Stromverbrauch optimierter Prozess etwas weniger takt aber deutlich bessere effizienz ideal für mobile oder laptops

Das mal grob als Richtwert
8nm LPP wird derzeit in ampere genutzt und die chips laufen quasi am limit
Weit weg vom sweetsüot was um die 1,6-1,7ghz ist
Im Grunde ist jede ampere GPu OC ab Werk
Daher kann man die ungefähre Effizienz der kleineren chips berechnen
Dazu die gpu nehmen die eher am sweetspot liegt.
Das wäre die rtx3090, 350w wovon 1,5*24= abgezogen werden müssen
350-36=314w
314/10496=0,029w pro shader
0,029*4868=146w bei 1,8ghz +6w an gddr6
Braucht also die rtx3060ti 180w
Müsste diese bei 180-152=28w
Da ab dem sweetspot immer der verbrauch zu vcore im quadrat bei 100mhz steigt sind das max an takt dann
152/1,1v (gehe ich mal von aus ist aber egal da es hier um ein bsp handelt)=138a
138*1,2v=169w vermutetet 1,9ghz
138*1,3v=179w vermutete 1,95ghz
Da wir aber den verbrauch ungefähr wissen wird wohl bei 1,9ghz mal Däumchen 1,3v vcore anliegen.
man kann das noch genauer auflösen ist aber egal.
kurz der chip läuft am limit was es nicht sein muss
Wenn man die gpu auf idealwert laufen würde also 1,7ghz wäre man bei 120w
Und das wäre wirklich ein guter ersatz zu einer gp106 gpu gtx1060 pascal.

Im ganzen text ging es nur um verbrauch und nicht über Mehr Leistung

Nun das hat nen Grund die ipc einer gpu wird mittels frontend L1/L2 cache und backend bestimmt
Die nvidia shader ipc ist seit 2012 identisch mit paar Verbesserungen bei turing wegen geringere cpu drawcalls
Oder anders man hatte die Möglichkeit parallel Berechnungen laufen zu lassen. Was in real kaum genutzt wurde.

Der kniff bei ampere ist es wieder zurück zum vorherigen muster zu gehen und die brachliegende int32 Einheiten für fp32 zu nutzen
Da gilt das Prinzip entweder oder
bsp rtx3060ti 4864=38sm
entweder 128shader arbeiten an einen frame mit fp32 oder nur 64 shader arbeiten an einen frame wogegen dann 64 int 32 Berechnungen abwechselnd laufen
So ist ampere gedacht.
quasi ist ampere eine Erweiterung der turing Architektur
bedingt durch diesen Prinzip muss es zu einen cpu drawcall limit kommen.
Wenn ampere mit vollen fp32 laufen können ist die gpu quasi anhand der shader menge quasi doppelt so schnell hier limitiert die cpu siehe rtx3090
Wird dagegen ein gewisser teil mt int32 berechnet limitieren die drawcalls von der gpu weil die cpu warten muss um diese zu liefern.
Das kann man nicht abstellen im idealfall ist man bei etwa 75% gpu load bei so einer Berechnung
Wird dagegen rein fp32 genutzt liegt es an der cpu ipc und takt das es nicht schneller geht


Nun welche api nutzen rein fp32
dx9,dx10, dx11 opengl
Welche nutzen mix
dx12, vulkan und dxr im speziellen oder das vulkan gegenstück

Ironisch das gerade der vorteil der turing Architektur aufgegeben wird Parallel int32 und fp32 zu nutzen
Ideal wäre es gewesen wenn fp32 wahlweise mit 64 oder mit 128shader laufen und dann int32 an und aus.
Es scheint aber so das dies nicht möglich ist und stattdessen 64 int32 laufen oder 128 fp32
da entstehen immer Wartezyklen.

So und nun zur Leistung
die theoretisch sein müsste wenn es kein cpu limit gibt
Hier muss man die shader vs fps von turing hochrechnen ist aber egal welcher gpu gen ab kepler (gtx6xx)
habe ich mit bsp standard rtx2060 1920 shader 100fps
geht die mathe runde so

100/1920*4864=254fps
Diese kommen aber nicht an warum?

Erstens backend limit also es limitiert die bandbreite
Zweitens frontend, es limitiert die cpu (technisch eher das vorladen in den L1 quasi drawcalls)
ich rechne aber mit etwa +100% wenn die cpu nicht limitiert.
macht aber die ipc dann niedriger als turing , ja das Stimmt.
Es liegt aber nicht am design sondern am cpu limit bzw bandbreite

Daher erwarte ich ja nen refresh sommer 21 mit gddr6x und +25% bandbreite was nochmal 25% mehr fps bei identischen chip bringen wird.
man reduziert quasi das bandbreiten und cpu limit.

Darum ist aktuell ein kauf einer gpu dringendst abzuraten

Die high end chips können ihr potenzial nicht ausfahren weil diese gnadenlos im cpu limit hängen sieht man schön in den 4k Ergebnissen.

Und das wird ab der rtx3070 vorbei sein. Den diese 5888 shader sind auslastbar lediglich limitiert hier das backend.
Darum nur rtx2080ti Leistung anstatt die möglichen +25% auf die rtx2080ti
Die rtx3060ti sehe ich bei etwa einer rtx2080s
Die rtx3060 mit nur 3840shader aber auf level der rtx2060s

Dazwischen ist zuviel platz

Darum erwarte ich eine rtx3060s mit 4352shader auf level einer rtx2080
klar sind das 4352 vs 2944 shader siehe bandbreiten limit
Um das genauer zu erörtern müsste man die rtx3070 analysieren am 15.10 ist es soweit.
Den ich erwarte entweder quasi verdoppelte Leistung unter 300€ bereich oder ebenso gnadenlose cpu limits selbst mit high end cpu weil man am backend limitiert wird.
 
Dann nimm halt die normale 3060er die vermutlich auch noch kommen wird oder sogar die 3050er. Nur weil da ne 60 im Namen steht heißt es nicht dass 400-450USD direkt unverschämt sind. Einfach auf die Performance schauen statt sich an Namen aufzuhalten.
Das hat mit der Leistung nicht unbedingt etwas zu tun... 60er sind schon immer der Einstieg in die Mittelklasse bzw. Mittelklasse... das die Leistung von Generation zu Generation steigt, sollte klar sein und ist ja schließlich ein muss... 400 bis 450 sind Preise die man eigentlich bei 70er-Karten erwarten sollte.

Ganz klar NV hat es hervorragend geschafft - durch den extremen Preisanstieg der letzten beiden Generationen - dass viele meinen die Preise der neuen Gen seien nun sehr günstig. Ist noch garnicht sooo lang her, da habe ich für eine 970 (eine 70er!!!!-Karte) nicht einmal 400 bezahlen müssen... nun sind sogar die 60er teurer und viele nehmen das als normal hin....

…..
Dessen Leistung kostete vor kurzem noch 700 Euro und nun offenbar nur noch 400 Euro.
Das alleine reicht schon aus, damit die GPU Absatz findet.
Nein. Nur für Leute die so denken wie Du.. Man kann doch den Preis nicht rechtfertigen, in dem man sagt, dass die Leistung auf Höhe der vorangehenden Highend-Klasse ist... Es ist und war schon immer so, dass Mittelklasse von heute, Highend-Leistung von gestern ist/war. NV ordnet seine Grafikkarten nach einer schematischen Nomenklatur ein.... 90/80 Highend... 70er obere Mittelklasse/untere Highend (je nach Ansicht)... 60er Mittelklasse... etc. Damit ist und bleibt die 60er ne Mittelklasse-Karte, egal welcher Chip, egal welche Leistung im Vergleich zur vorangeganenen Generation. 400 - 450 sind für eine 60er-Karte einfach zu viel. Leider machen die Käufer es noch mit. Da wünscht man sich ja langsam schon eine fette Wirtschaftskrise, so dass die Preise endlich mal wieder auf Normalniveau sinken. Klar alles wird teurer, so funktioniert nun mal unser Schuldgeldsystem. Aber diese Anstiege haben lediglich mit Raffgier zu tun.
 
Zuletzt bearbeitet:
Eine 3060TI, für 450USD halte ich auch für Unfug, wenn die 3070 "nur" 499USD ksoten soll.

Zum Stromsparthema.

Jedem das Seine!
Ich kann beide Seiten verstehen, auf der einen Seite sollte, bzw. darf einem ein Hobby nunmal Geld kosten. Da ist es dann auch eigentlich Latte, ob ein Rechner 3,60€ mehr Strom verbraucht im Monat (Bei mir wären es bei 200W unterschied und für mich, völlig übertrieben kalkulierten 2h am Tag).
Ich baue auch gerne Energieeffiziente PCs zusammen, aber einfach weil ich bei PC Hardware ein Nerd bin. Das geht auch ganz extrem.
Einen undervolteten 3700X, mit einer reduzierten TDP (55, oder gar 45W) dazu eine (aus aktueller Sicht) 3080 mit einer TDP Beschränkung auf 180W und undervolting.
So lässt sich schon ein extrem effizienter und toller kleiner Rechenknirps zusammendocktern ;) Gut, in ein paar Wochen gibt es hoffentlich eine wunderbare alternative ;)
 
Ganz klar NV hat es hervorragend geschafft - durch den extremen Preisanstieg der letzten beiden Generationen - dass viele meinen die Preise der neuen Gen seien nun sehr günstig. Ist noch garnicht sooo lang her, da habe ich für eine 970 (eine 70er!!!!-Karte) nicht einmal 400 bezahlen müssen... nun sind sogar die 60er teurer und viele nehmen das als normal hin...

Ja, das muss man Nvidia ganz klar attestieren: Es ist ihnen in den letzten Jahren meisterhaft gelungen, den Spielern und auch der Presse (*hust* PCGH) ein neues Preisbewusstsein einzuimpfen, und somit selbst 700-900€ teure Grafikkarten mit knausrigem VRAM als Schnäppchen aussehen zu lassen.
 
Dass die 3060Ti vor der eigentlichen 3060 auf den Markt geworfen wird macht mir etwas Sorgen. Mit 8GB bei der 3060Ti war ja eigentlich zu rechnen, aber das macht so den Eindruck als würde die normale 3060 wieder mit 6GB VRAM kommen... was ja bei Turing schon nicht zur Leistungsklasse gepasst hatte :ugly:
 
Ich finde die 3060 und 3070 sowieso unnütz.
derjenige der eine 2060 super hat, braucht keine 3060 und derjenige der eine 2070 super hat, braucht keine 3070.
derjenige der eine 2080ti hat, braucht auch keine 3080.
und die user mit 1060 oder 1070 können sich eine 2060 super oder 2070 super kaufen. Auch was P/L betrifft.
Aber ok. muss halt jeder selber wissen.
 
Zurück