Geforce RTX 4000: Lovelace angeblich ohne größere Architektur-Änderungen

720p ist eine reine Benchmarkauflösung, in der Praxis nutzt die niemand. Und 1080p mit einer 6900XT/3090 ... ich bitte dich, die Karten sind für hohe Auflösungen gemacht und nicht für Auflösungen aus dem vorletzten Jahrzehnt.
Pssst, das darfst Du hier nicht sagen, das spricht gegen die Cherry-picked-Benchmarks der großen RDNA2 Karten... ;-)
 
720p ist eine reine Benchmarkauflösung, in der Praxis nutzt die niemand. Und 1080p mit einer 6900XT/3090 ... ich bitte dich, die Karten sind für hohe Auflösungen gemacht und nicht für Auflösungen aus dem vorletzten Jahrzehnt.
würde unter 4k so eine karte nichtmal mehr testen. man ist doch immer im cpu limit. und im cpu limit ist amd leicht schneller. aber 4k average ist die 3090 schon noch klar vor einer 6900xt. beim pcgh bench werden auch die niedrigeren auflösungen mitgerechnet und in 4k setzt sich die 3090 nochmal ab
 
Lovelace wird ein richtiges Monster und der monolithische Chip wird das MCM Design von AMD beim Verbrauch schlagen. Entweder prügelt AMD 500W+ in ihren Chip oder das wars für sie.
 
Besser als es gar nicht zu versuchen, findest Du nicht?
Wenn der Versuch (meiner bescheidenen Meinung nach) nie ernst gemeint war, dann ist es schlicht Jacke wie Hose. Wie ich schon schrieb, es ging und geht dabei um Image und Profitmaximierung - obwohl die Gamer nichts davon haben.
Also mit einiger Verzögerung (über 1 Jahr wenn ich mich recht erinnere?)
What? Das ging bedeutend schneller und teils auch schon mit 100%-Aushebelung, z.B. über diesen Weg:
Nvidia wurde hart angegangen endlich etwas dagegen zu machen, dann machen sie etwas und dann ist es reine Image-Pflege? Paradox...
Nö, wenn sie sich schlicht zur Imagepflege (wie schon ein paar mal erwähnt) bewegen lassen und dabei nichts anderes erreichen außer höherem eigenen Profit, dann ist da nichts paradox dran.
Und es sind durch die Separierung sehr wohl "mehr" GPUs entstanden da einige CMP Karten auf Turing Chips (12nm TSMC) basieren.
Ähm nein oder was genau ist die RTX 2060 12GB für eine Karte? Etwa keine Turing? Geht also doch auch für Gamer? Hm... Und werden etwa keine anderen Turingkarten (z.B. auch 1650/1660) hergestellt? Doch? Dann fehlen die CMP-Chips dort ebenso.
Nochmal: "Mehr" GPUs kann es dadurch gar nicht geben.
 
In 720p und manchmal auch in 1080p ist die 6900XT oft genug schneller. Eigentlich immer, wenn man dem CPU-Limit zu nahe kommt.

Ich würde mir aber auch unbedingt eine 6900XT kaufen wollen, wenn ich in 1080p spielen will.
Wen interessiert denn die Leistung im CPU Limit. Die allermeisten kaufen eine 3090, oder 6900Xt für maximale Details, oder Auflösung.
 
Wenn der Versuch (meiner bescheidenen Meinung nach) nie ernst gemeint war, dann ist es schlicht Jacke wie Hose. Wie ich schon schrieb, es ging und geht dabei um Image und Profitmaximierung - obwohl die Gamer nichts davon haben.
Nvidia hat sich dem Problem wenigstens angenommen und zumindest versucht, es zu lösen. AMD hat gar nichts getan, deswegen versteh ich nicht, wieso du Nvidia dafür so abstrafst, dass sie es überhaupt versuchen.
Was hätten sie denn tun sollen?
Nichts ist uncrackbar und egal was Nvidia getan hätte, irgendjemand hätte es ausgehebelt. Selbst wenn sie es Hardwareseitig begrenzt hätten.

Nochmal: "Mehr" GPUs kann es dadurch gar nicht geben.
Naja doch. Man hat die alten Fertigungsbänder wieder angeschmissen und den Vorgänger weiterhin produziert, um den Markt bedienen zu können, denn Turing klaut Ampere keine Kapazitäten.
 
Was ich aber nicht verstehe wie hier über die Stromverbräuche gemeckert wird und gleichfalls kaufen sich diese Leute aber dann trotzdem die Topkarte.

Die Entwicklung zu immer mehr Verbrauch gefällt mir zwar auch nicht, jedoch in meinem Anwendungsfall "einiger weniger Stunden" die Woche völlig irrelevant, ob die Karte nun 200W, 350W oder zukünftig 500W+ zieht. Daher die innere Divergenz :D
 
What? Das ging bedeutend schneller und teils auch schon mit 100%-Aushebelung, z.B. über diesen Weg:
Immerhin 6 Monate bis die Miner 70% erreicht haben.
 
Nvidia hat sich dem Problem wenigstens angenommen und zumindest versucht, es zu lösen. AMD hat gar nichts getan, deswegen versteh ich nicht, wieso du Nvidia dafür so abstrafst, dass sie es überhaupt versuchen.
Was hätten sie denn tun sollen?
Nichts ist uncrackbar und egal was Nvidia getan hätte, irgendjemand hätte es ausgehebelt. Selbst wenn sie es Hardwareseitig begrenzt hätten.
Du verstehst es tatsächlich nicht oder?

Das war NIE ein echter Versuch, nur Imagepflege (für Leute, die nicht nachdenken und jeden Marketingbullshit glauben) und gleichzeitig Profitmaximierung, weil sie bei den CMP-Karten ohne große Gegenwehr einen viel höheren Preis und damit Gewinn für die gleichen Chips (die sie sonst an Miner und Gamer verkaufen) verlangen können.
Nichts davon war ein echter ehrlicher Versuch etwas gegen Mining zu unternehmen oder die Gaming-Karten wirklich endgültig uninteressant für Miner zu machen.
 
@Julian K was wäre, deiner Meinung nach, denn ein "echter Versuch" gewesen?
Wäre es ein echter Versuch, wenn es das Problem gelöst hätte?
Wie schon gesagt, geht das nicht. Es ist nichts uncrackbar. Egal was du tust, irgendjemand hätte einen Weg gefunden es zu umgehen.
 
100%, weil man so die übrige brachliegende Leistung für einen zweiten Coin gleichzeitig nutzen kann.
Meinetwegen. Und was war da jetzt "schlecht" dran es zu versuchen? Hast Du Beweise dass es nur ein Marketing-Gag war? Wenn nicht ist das ziemlich üble Verleumdung...
 
"Angeblich soll Nvidias kommende Lovelace-Architektur keine großen Änderungen gegenüber der aktuellen Ampere-Architektur mit sich bringen."

Wieso auch ?!?
Einfach 600 Watt rein ballern, den Preis um 50 % erhöhen und gut ist ... :hail:

MfG Föhn.
 
Sind unter diesen 100 Spiele auch etliche ältere?
Selbstverständlich. Es geht auch nicht darum dlss auf alten Schinken zu verlangen. Aber von den 10 Titeln die ich als neue Spiele habe ists halt auch nur eines (eben God of War) wo die Technik einen echten (hier aber auch wirklich großen) Vorteil bringt.

Ein anderer Punkt wäre aber bei weniger anspruchsvollen Spielen auch zu erwähnen wo dlss Vorteile hätte wenn es denn unterstützt würde. Beispiel Diablo Resurrrcted. Das Ding läuft bei mir problemlos nativ in 4K. DLSS wurde da ja auch erst nachträglich reingepatcht. Es ist rein von der Performance her nicht nötig aber mit genutztem DLSS habe ich die 60fps bei mindestens 30% weniger GPU Last und ebensoviel weniger Verbrauch und deutlich geringerer Lautstärke. Bei dem Spiel ists mir auch egal wenn das Gras ein bissl flimmert. Was ich sagen will: Nur die Performance zu betrachten und damit ein "ältere Spiele brauchens eh nicht" zu rechtfertigen ist auch nicht ganz richtig. Klar, ein Counterstrike braucht kein dlss mehr - aber die Spiele zwischen aktuellem AAA und uralt (also die Spiele die erschienen sind als dlss so hart beworben aber nirgends genutzt wurde) hätten durchaus noch nen Mehrwert davon - aber da kommt halt wenig bis nix.
 
Zurück