News Geforce RTX 4060: Nvidia veröffentlicht Vergleiche mit GTX 1060 und eine echte Milchmädchenrechnung

Nichts gegen die GTX 1080 Ti, die ist wahrlich in Würde gealtert (das Special dazu ist leider aus Zeitgründen unter die Räder gekommen), aber jetzt noch eine zu kaufen, ist fahrlässig. Da fehlt gegenüber modernen Modellen so viel - wie Raytracing, DLSS und Energie-Effizienz - dass man höchstens von einem Tipp für knallharte Sparfüchse reden kann. Besser eine gebrauchte RTX 3060 12GB, wenn der Speicher das Argument ist.

-> https://www.pcgameshardware.de/Gefo...st-Benchmarks-Grafikkarten-Vergleich-1417376/

MfG
Raff
 
Wie ich darauf komme
Nun ada und ampere sind identisch was sm Struktur betrifft daher sind die zahlen egal. aber die Formel der Architektur ist
64 fp32 nativ 32 int32 nativ (sind für gaming irrelevant) 32 hybrid fp32 int32 Einheiten wovon 16 fp32 nativ können.
64+16=80 fp32 die übrigen 16 int32 fp32 sind optional und können per Treiber angewiesen werden für fp32 davon nehme ich 8 operationen = 80+8=88fp32 pro sm
Das ist bei ada und ampere identisch

Die Latenz also die Differenz cl22 mit 15gbps und 17gbps ist ein Multiplikator wenn die Bandbreite nicht reicht
Und das wird sie
Die cl22 ist ddr4 standard höchste Latenz bei vram
Da wir hier von gddr6 sprechen mit fast dreifachen mt/s vs dram
egal was ich als Latenz als basis nehme die Differenz ist gleich.


Man kann Argumentieren das bei 1080p nicht mehr als 250gb/s benötigt werden aber das stimmt nur bis 2020
Als die Konsolen darauf limitiert waren (ps4 pro 224gb/s 4,9tf)
nahezu jedes neue spiel benötigt min 350-450gb/s in jeder Auflösung ab 1080p den der Bild Inhalt hat nix mit dem renderauflösung zutun.
Das wird engine intern festgelegt und ist je spiel anders.
Besonders gut kann man das bei engines wie UE4 UE5 oder dunia 2, idtech6 anvil oder snowdrop engine 2 sehen.
Selbst die 4a engine nutzt das
ich erkenne die genutzte interne Auflösung daran das meine 48rop bei 1080p nicht mehr die 45fps erreicht in 1080p dann weiß ich das es intern auf 1080p rendert.

reicht die bandbreite für de games springt der Vorsprung der rtx4060 auf fast 25%
dafür müssen die spiele aber auch eben alt sein
Immer muss man aber das cpu limit im Auge haben den das wird der limitierende Faktor sein.
Ich sage nur farcry 6 das bei mir immer im cpu limit ist bei 1080p mit dxr +- 70-80% gpu load
meine erwähnte 97fps sind real nur 67fps
Es macht kein unterschied ob fsr an oder aus ist beides haben etwa 70fps das ist primär Treiber bedingt.
Den höchsten wert hatte ich zuletzt beim 531er mit 76fps
Mittlerweile habe ich fc6 komplett durch mit addons
ist quasi nur noch fürs benchen installiert.

Aktuell sortiere ich ne bench stelle für dead island 2 aktuell sehe ich belair emma Anwesen zum Laster
Die ue4 ist da sehr konstant weswegen andere stellen beliebig sind. aber eben auch ne stelle die quasi reproduzierbar bleibt.
Und wie es scheint sind die Gegner in dem abschnitt immer auf derselben stelle. auch wegen der enge des Weges.
Ein cpu limit gibt es da nicht und das trotz reiner raster Leistung +-72fps 96% load 7,04gb vram 0,2gb shared pcie bus
Das spiel rendert also intern auf 720p das könnte hindeuten das die Bandbreite reicht indemfall wäre das maxed von +88fps erreicht wird +23%
Bedingung ist das kein cpu limit greift
ja es gibt ausnahmen das auch neue spiele die 200gb/s völlig reichen da die basis 720p ist.
Das gilt aber nur ohne dxr
anderes bsp gleiche engine anderes spiel
hogwarts legacy +- 62fps schloss vom Hauptsaal zum Hof (dxr aktiv) andere abschnitte etwa hogmeats wirds weniger noch nicht geprüft
Vermutete Auflösung 768p bis 900p
Und je höher die Auflösung desto größer wird die Bandbreitenanforderung
Der Grund liegt beim streaming von SSD HDD ram und vram letzte ist entscheidend wie schnell die daten intern im Speicher verschoben werden (latenz des vram)

Grob sind das 720p +- 150-250gb/s
1080p 250-450gb/s
1440p 450-750gb/s
2160p 750gb/s-unbegrenzt
Das sind im groben die nativen Datenmengen die berechnet werden müssen.
Das schwankt stark da die Auflösung der Texturen hier wichtig sind von 32bit bis 2048bit

Und da moderne engines eher die Auflösung der Texturen variable berechnen wird das in Zukunft eher auf die Monitorauflösung skaliert entsprechend der vram menge (shader compiling)
Das ist die Aussicht, ne direkte 1-1 vergleich wird kaum mehr möglich werden


Der pcie bus schafft pro Sekunde pcie4 x16 32gb, x8 16gb, x4 8gb
abzüglich Verwealtungskosten sind das 28-30gb/s und je die hälfte

Die ssd bzw HDD ist das langsamste Glied
Ideal ist m2 pcie4 ssd mit maxed 7gb/s
hat man so was verbaut und nutzt direct storage sind 8gb vram kein problem
Es mag zu Laderuckler kommen aber mehr wird nicht einschneidend sein
SSD sata sieht das schon schlimmer aus mit aussetzenden Texturen und Standbildern, HDD läuft erst gar nicht
Gleiches gilt für zu wenig bandbreite am vram ende die fps brechen weg auf das min von +-0fps vs der älteren gen bis langsamer auf etwa 90fps vs 100 fps

Die rtx4060 ist doa
Sie kann schneller sein aber wird durch vram bandbreite limitiert.
Die 5% die ich der gpu gebe sind schon wohlwollend ohne angepasste spiele die sehr geringe Anforderungen an die Bandbreite hat kann diese nicht konkurrieren.
 
Die gute alte 1060. Erst vorgestern bei einem Bekannten gegen eine gebrauchte 6700 XT ausgetauscht. Abzüglich dem Erlös von der 1060 hat das Upgrade nur 200€ gekostet und hat dazu 12GB, also die doppelte Menge. Die 4060 hat es mit ihren 8GB einfach zu schwer gegen den Gebrauchtmarkt.

Gerade mal 2GB mehr als 2016, also vor 7 Jahren in der gleichen Klasse. Nee nvidia, lass mal stecken.
 
Es gäbe nichts zu beanstanden wenn die Karte RTX 4050 heißen würde. Aber ich bin dennoch Gespannt ob die 4050 in der 75 Watt Klasse gegen eine GTX 1650 was reißt.
 
Exakt. Nvidia will uns für dumm verkaufen. Darum hab ich das entsprechende Bild geteilt.

Aber manche haben sich scheinbar schon dran gewöhnt und es akzeptiert.

Dein Bild ist und bleibt schwachsinn, egal wie oft du es postest!
Würde es eine 4090X2 geben, dann wäre die 4090 in Relation auf dem Level der 2070.
Nach deiner Logik müsste die 4090 also das gleiche wie die 2070 kosten und, dass das nicht funktioniert, solltest doch selbst du merken?!

Die Karten sind wesentlich teurer geworden, aber dein Argument, dass du deshalb zu AMD gewechselt bist, hinkt so dermaßen, weil AMD den Preis ebenfalls ordentlich angezogen hat. Da gehst du aber irgendwie nicht drauf ein.
Wenn man dich damit konfrontiert, ignorierst du es, zeigst weiter mit dem Finger auf Nvidia und hältst alle anderen für Idioten.
Ich glaube eher, dass du für AMD liebäugelst und deshalb gegen Nvidia hatest. Der Preis spielt da nur eine untergeordnete Rolle.

Wie rechtfertigst du eigentlich deinen 5800X?
Der 1800X hat damals 559€ gekostet. Der 7950X3D lag zum Release bei knapp 800€.
Dass AMD den Preis um 33% angezogen hat, stört dich hier nicht, aber bei Nvidia? Wie heuchlerisch.
 
Zuletzt bearbeitet:
Ja, der dumme Kunde wird darauf reinfallen. Wenn das aber weiterhin (nicht nur hier) viral geht, was Nvidfia für einen Schrott produziert und damit mit solchen Milchmädchenrechnungen kommen muss, könnte das schnell zum Bumerang werden.

Haben wir ja jetzt schon, dass aktuelle Mid End-Karten bei den Händlern liegen bleiben. Das geschieht in dem Fall AMD und Nvidia recht und hoffentlich lernen sie draus, dass der Kunde eben doch nicht alles -und seis das abgredehteste Marketing, wo sich der Hersteller irgendwie zu retten versucht- kauft. Wenn die kommende 4060 mit der 1060 vergleichen wird, leuten bei mir die Alarmglocken, aber auf der anderen Seite finde ich den Vergleich lächerlich.
 
Nichts gegen die GTX 1080 Ti, die ist wahrlich in Würde gealtert (das Special dazu ist leider aus Zeitgründen unter die Räder gekommen), aber jetzt noch eine zu kaufen, ist fahrlässig. Da fehlt gegenüber modernen Modellen so viel - wie Raytracing, DLSS und Energie-Effizienz - dass man höchstens von einem Tipp für knallharte Sparfüchse reden kann.
???
Wer mit Pascal leben kann, .... will soundso net RT nutzen.
Statt DLSS geht auch FSR.
Und das man ne 1080Ti net sparsam einstellen kann glaube ich auch net. 250-->199W ist kein Hexenwerk
(nach m.E. vollkommen sinnlose Argumente für ne 3060)

Also wenn Jemand in der Familie/Bekannschaft ne 1080Ti viiiel preiswerter als ne 3060 bekommt, why not.
für nen Hunni allemal den Spass wert, wenns eeh nur zur Überbrückung der nächsten 2 Jahre ist
(in Games mal noch 1-2 Regler bedienen sollte auch helfen, ... muss ja net jedes Dingens auf Ultra sein)
 
Zuletzt bearbeitet:
Je geringer der Leistungszuwachs, um so absurder werden die Vergleiche.

Die RTX 4090 ist 8 mal schnell, als eine GTX 1060, das dann aber auch wirklich. Die 4060 wird wohl lediglich doppelt so schnell sein, was etwa eine GTX 1080Ti entspricht (mit 3GB VRAM weniger). Etwas mickrig, wenn man bedenkt, dass man darauf 7 Jahre warten mußte und die GTX 1060 schon für 250€ zu haben war.

Die 1060 hatte eine UVP von 299 Dollar, was aktuell ca. 325€ wären und inflationsbereinigt würde die 1060 heutzutage ca. 400-450€ kosten (müsste man mal genau ausrechnen). Wir hatten damals aber einen besseren Wechselkurs, was dafür sorgte, dass es die RX 580 und die GTX 1060 so günstig gab. Die 1080Ti wird recht ordentlich von einer 4060Ti zersägt, die 4060 könnte demnach sogar schneller als die 1080Ti werden.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die 1080Ti war glaube aber eher Faktor 2,2-2,4x so schnell wie die 1060, die 1080 lag bei 1,7-2,0x. Schwankt natürlich je nach Spiel.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Jede Person, die sich eine Karte für über 1000€ geholt hat, hat diesen Trend unterstützt und sich somit das Recht verwirkt sich darüber aufzuregen. Unfassbar wieviele Leute sich über die 4060 (Ti) echauffieren während im PC eine maßlos überteuerte 3080/3090 bzw. 4080/4090 schlummert.

Bevor ich mir so eine Karte hole, gebe ich das Hobby lieber komplett auf. Und das nicht "weil das Budget nicht vorhanden ist" wie einige dann gegenkontern.
 
???
Wer mit Pascal leben kann, .... will soundso net RT nutzen.
Statt DLSS geht auch FSR.
Und das man ne 1080Ti net sparsam einstellen kann glaube ich auch net. 250-->199W ist kein Hexenwerk
(nach m.E. vollkommen sinnlose Argumente für ne 3060)

Also wenn Jemand in der Familie/Bekannschaft ne 1080Ti viiiel preiswerter als ne 3060 bekommt, why not.
für nen Hunni allemal den Spass wert, wenns eeh nur zur Überbrückung der nächsten 2 Jahre ist
(in Games mal noch 1-2 Regler bedienen sollte auch helfen, ... muss ja net jedes Dingens auf Ultra sein)
Die ursprüngliche Aussage war schlicht, statt zu einer neuen 3060 zu einer gebrauchten 1080Ti zu greifen, und das ist nun mal totaler Blödsinn, weil Letztere außer einem irrelevant kleinen Leistungsplus beim klassischen Rasterisieren genau keinen Vorteil bietet. Die Vorteile der 3060 wurden bereits zur Genüge genannt und wenn's dir Spaß macht, kannst du die natürlich alle für dich persönlich für völlig irrelevant erklären, aber erstens gilt das nur für dich und nicht für andere, und zweitens ist es besser eine Reihe von Vorteilen zu haben, die einem nicht wichtig sind, als gar nicht erst irgendwelche Vorteile zu bieten.

Von Leuten, die mit Pascal leben können, denen 300 Euro zu viel sind, die eine 1080Ti praktisch geschenkt bekommen (bei eBay wirst du auf jeden Fall so schnell kein gut erhaltenes Exemplar für 'nen Hunni schießen), oder die sowieso nur was für den Übergang suchen, war zu keinem Zeitpunkt die Rede, und dass man in diesem superspeziellen Kontext Spaß mit einer 1080T haben kann, stand niemals zur Diskussion und wurde auch von niemandem bestritten.
 
NVidia, was hat man erwartet?

Pathtraysing soll, auf meiner alten GTX1080, so praktisch so schnell laufen wie auf meiner RX6800xt in Cyberpunk2077.
Wenn die PCGamer schon nicht riechen, dass da was stinkt, kann sich NVidia für die selben und die unwissende Masse wie Aktionären noch gröberes leisten.

Ich meine, schaut euch das an! Ihr kauft dann ja doch wieder NVidia.
Aussagen wie,"so das hat NV davon, kauf ich halt erst die RTX5000er Gen". Das tut denen garnicht weh.
Uii ja, voll die Bestrafung ?
 
Die ursprüngliche Aussage war schlicht, statt zu einer neuen 3060 zu einer gebrauchten 1080Ti zu greifen, und das ist nun mal totaler Blödsinn, weil Letztere außer einem irrelevant kleinen Leistungsplus beim klassischen Rasterisieren genau keinen Vorteil bietet. Die Vorteile der 3060 wurden bereits zur Genüge genannt und wenn's dir Spaß macht, kannst du die natürlich alle für dich persönlich für völlig irrelevant erklären, aber erstens gilt das nur für dich und nicht für andere, und zweitens ist es besser eine Reihe von Vorteilen zu haben, die einem nicht wichtig sind, als gar nicht erst irgendwelche Vorteile zu bieten.
Na dann könnte man auch ne 6700XT@339€ incl. RE nehmen.(praktisch <300€)
selbst ohne RT+DLSS überwiegen dann "Vorteile"

Die 3060 hat weder nen guten Preis noch ne gescheite Rohpower.
 
Jede Person, die sich eine Karte für über 1000€ geholt hat, hat diesen Trend unterstützt und sich somit das Recht verwirkt sich darüber aufzuregen. Unfassbar wieviele Leute sich über die 4060 (Ti) echauffieren während im PC eine maßlos überteuerte 3080/3090 bzw. 4080/4090 schlummert.
Dieses superpauschale Gewäsch kannst du dir sparen. Inwiefern der Käufer einer mit ausreichend VRAM ausgestatteten, extrem effizienten und mit einem Leistungsplus von 70 Prozent gegenüber der 3090 bärenstarken 4090 daran schuld sein soll, dass eine 4060 nur poplige 8 GB VRAM und ein Leistungsplus nahe null hat, weißt wahrscheinlich nur du (und natürlich alle anderen, die entweder gerne Neiddiskussionen führen oder es einfach nicht so mit logischem Denken haben). Wo soll denn da genau der Zusammenhang bestehen? Welcher Trend soll denn da auf diese Weise genau unterstützt worden sein?

Ich selber bin bei vielen Dingen auch nicht bereit, den Preis zu bezahlen, den andere Leute zahlen, Aber weder schreibe ich denen vor, was sie zu kaufen haben und was nicht, und schon gar nicht veranstalte ich irgendwelche Ihr-habt-alle-Rechte-verwirkt-Hexenjagden.
 
Pathtraysing soll, auf meiner alten GTX1080, so praktisch so schnell laufen wie auf meiner RX6800xt in Cyberpunk2077.
Wenn die PCGamer schon nicht riechen, dass da was stinkt, kann sich NVidia für die selben und die unwissende Masse wie Aktionären noch gröberes leisten.

Pathtracing auf einer 1080? Wie soll das gehen, wenn die Leistung schon bei normalen softwarebasierenden Raytracing massiv weggbricht? Die 1080 hat ja keine Tensor-Cores und ist im rastern meilenweit von aktuellen Karten weg. :huh:
 
Zurück