Geforce RTX 4080 im Geekbench: Knapp schneller als die RTX 3090 Ti

Ja ist aber unlogisch, weshalb sollte es für andere nicht flüssig wahrgenommen werden?
Sagen wir ein Spiel hat maximal 60 Bilder pro Sekunde, dann gibt eine teure Grafikkarte nicht mehr Bilder pro Sekunde. Es seitdenn man schaltet vsync aus, das man ein paar frames mehr bekommt. Wenn wäre der Bildschirm wichtig, je mehr Hertz desto flüssiger laufen die Bilder ab.
Du scheinst Grundlagen nicht zu verstehen. Mehr Fps können abseits der Bildausgabe Vorteile bringen. Deine Argumentation ist auch zu eindimensional. Ein Spiel mit 60 Fps Begrenzung kann durchaus von einer schnelleren Karte profitieren, weil die ermöglichen kann Auflösung und Details weiter zu erhöhen.
Weiter oben fragst du, wofür man die schnelle Karten braucht. Ich stelle jetzt mal nicht die Frage nach der Definition von "brauchen" im privaten Umfeld. Fakt ist, eine Grafikkarte bekommt man schnell "klein", sei es RT, hohe Auflösungen/ Fps oder VR.
Deiner unterschwellinge Kritik, dass die Leute verführt werden, immer das neuste zu kaufen, ohne vielleicht zu hinterfragen, ob es notwendig ist, kann ich nachvollziehen. Andererseits gibt es, wie oben angeführt, tatsächlich auch objektive Argumente dafür. Ob die immer auch zutreffen ist eine andere Frage.
Um mal ein bisschen wieder on-topic zu kommen. Neue Karten benötigen nicht unbedingt mehr Energie als alte, anders als du behauptest. Die neuen Karten sind effizienter und wenn man sie nicht voll ausnutzt merkt man das auch. Setzt man eine Fps Begrenzung so, dass die Karte die die meiste Zeit erreicht, erhält man nicht nur die besten Frametimes, sondern kann auch noch Energie sparen.
 
Die Asus TUF 7900 XTX kommt mit 3x8 Pin Steckern - also bis 525W
Mal sehen was da taktmäßig geht

Nach bisherigen Infos ist bei RDNA3 aktuell (mutmaßlich wegen eines Designfehlers in Hardware der erst im Refreshchip behoben werden kann) bei allerspätestens 2,9 GHz Schluss und zwar völlig egal wie viel Spannung, Leistung, etc. erlaubt wird.
War mir bisher nicht geläufig, ist die Frage ob man einen "Refresh" macht oder nicht. Aber 2,9Ghz wären ja auch durchaus eine gute Steigerung.

Daraus wurde am Ende dann nichts und man verkauft praktisch ne 7800 als 7900.
So bitter würde ich es nicht sehen, denn eine 7900XT ist ja grds. der große Chip mit abgeschalteten Einheiten, insofern schon einer 79xx würdig.

Leider verbaut AMD auch eher einen Mittelklasse Chip (300mm²) auf den High End GPUs und verlangt dann 899-999$.

Wo habe ich behauptet, dass es ein kleiner Mittelklassechip ist?
Ich meinte nicht, dass es ein kleiner Mittelklassechip ist. Ich habe deine Aussage aber schon richtig verstanden, dass du von der Größe auf die Klasse schließt? Immerhin sagst du, dass es ein Mittelklassechip mit nur 300mm² ist der auf einer High End CPU verbaut wird, oder?

Dem kann ich eben nur entgegnen, dass dies ziemlicher Nonsens ist, der Chip hat keine 300mm² sondern über 500mm² und ist damit bspw. 40% größer als Nvidias AD103 (4080) Chip, während Nvidias HighEnd Chip nur 15% größer ist! Du hast einfach komplett ignoriert oder vergessen, dass AMD hier auch Cache Chips verbaut, die eben extern sind und nicht wie bei Nvidia intern und jetzt habe ich das Gefühl, dass du genau verstanden hast was du vergessen hast, aber deine Aussagen irgendwie retten willst! Völlig unnötig! Ich will nur richtig stellen, AMDs 7900XT(X) Chip hat 533mm² Gesamtfläche, ist damit deutlich kleiner als der 4090 CHip, aber eben deutlich größer als der 4080 Chip und dennoch ist er günstiger als eben jener 4080 Chip. Was dank MCM und Kostenersparnis gar kein Problem darstellen muss.
 
Nach bisherigen Infos ist bei RDNA3 aktuell (mutmaßlich wegen eines Designfehlers in Hardware der erst im Refreshchip behoben werden kann) bei allerspätestens 2,9 GHz Schluss und zwar völlig egal wie viel Spannung, Leistung, etc. erlaubt wird.

Ursprünglich waren wohl über 3 GHz ab Werk angepeilt und damit direkte Konkurrenz zur 4090 (daher auch der Name 7900), den Boardpartnern wurde "easily over 3 Ghz" gesagt und das Betabios geht bis 3,7 Ghz max.
Daraus wurde am Ende dann nichts und man verkauft praktisch ne 7800 als 7900.
Weißt du noch, wo du das her hast? nVidia merkt mit dem Tape Out "ups, die Dinger laufen ja doch viel effizienter, wir haben Stromversorgung und Kühler total überdimensioniert". Und AMD merkt "Ups, nVidia hat doch eine gute Effizienz und Doppelups, unsere Chips laufen mit mehr als 10% weniger Takt als geplant".
Das wären schon sehr viele Zufälle und Beispiele für schlechte Ingenieurskunst dieses Mal^^
Und nochmal Nachtrag, sorry.

Wenn der Preis auch egal ist, würde ich die 2 PCs mit 4 CPUs und 4 Grafikkarten mit Stickstoff kühlen um noch mehr Leistung rauszuholen.

Und ich Wette mit dir, selbst die neueste Grafikkarte von nvidia hat nichtmal annähernd die Leistung, wenn ich bedenke, sagen wir mal in den Optionen stelle ich anti-aliasing auf maximum, stelle den Bildschirm auf 4k, spiele mit 120 Bilder pro Sekunde, und spiele noch mit VR, und den andere schnick-schnack stelle ich auf maximum, und im spiel stelle ich alles auf maximum oder auf ultra, dann würde alles nur noch ruckeln.
Und schade denn es gibt ja kein SLI und kein Crossfire mehr. Und die Technik war einfach nur die, das der Bildschirm geteilt wurde, und jede Grafikkarte rechnet eine Hälfte. Es hätte mehr Sinn ergeben wenn Anwendungen oder spiele besser programmiert werden, das wenn man 2 Grafikkarten hat, das die Anwendung erkennen soll welche Grafikkarte schneller ist und welche langsamer ist, und das dass programm die einzelnen Aufgaben den Grafikkarten zuweist. Bspw. Die starke Grafikkarte bekommt mehr Rechenaufgaben, und die schwache Grafikkarte bekommt einfachere Rechenaufgaben. Wenn ich bedenke in nem spiel was gibt's da alles? Licht, texture, Polygone, physikalische Abläufe... da müsste jedes Spiel die Aufgaben verteilen, anstatt die Bildschirme zu halbieren und jede Karte rechnet eine Hälfte. Die Denkweise ist einfacher und simpler, aufwendiger wäre es die Aufgaben zu verteilen.
Aber egal, ich finde mit sli und crossfire hätte man wirklich viel Leistung rausholen können. Früher bei 3dfx gab es doch Grafikkarten mit sogar 4 grafikchips drauf, wurde wohl auch nicht effizient genutzt.
Und wenn ich bedenke manche bestimmte Anwendungen mit cuda oder OpenCL ost es auch möglich das die Grafikkarten besser effizient zusammen arbeiten. Eben, ist halt alles nur ne anwendungssache wie die Aufgaben verteilt werden.
SLI ist gestorben, weil die Bandbreite/Latenz um Informationen zwischen mehreren Grafikkarten auszutauschen zu gering ist. Es müssen daher immer alle Informationen im Grafikspeicher beider Grafikkarten vorgehalten werden um schnell genug ein Bild Rendern zu können (~17 ms).
Bei CUDA-Anwendungen, z.B. Machine Learning oder 3D-Rendering sind ein paar Dutzend Millisekunden Latenz egal, die können sogar den Grafikspeicher mehrerer Karten kombinieren und die Daten durch das SLI-Interface quetschen da die Berechnung ungleich lämger dauert.
Du scheinst Grundlagen nicht zu verstehen. Mehr Fps können abseits der Bildausgabe Vorteile bringen. Deine Argumentation ist auch zu eindimensional. Ein Spiel mit 60 Fps Begrenzung kann durchaus von einer schnelleren Karte profitieren, weil die ermöglichen kann Auflösung und Details weiter zu erhöhen.
Weiter oben fragst du, wofür man die schnelle Karten braucht. Ich stelle jetzt mal nicht die Frage nach der Definition von "brauchen" im privaten Umfeld. Fakt ist, eine Grafikkarte bekommt man schnell "klein", sei es RT, hohe Auflösungen/ Fps oder VR.
Deiner unterschwellinge Kritik, dass die Leute verführt werden, immer das neuste zu kaufen, ohne vielleicht zu hinterfragen, ob es notwendig ist, kann ich nachvollziehen. Andererseits gibt es, wie oben angeführt, tatsächlich auch objektive Argumente dafür. Ob die immer auch zutreffen ist eine andere Frage.
Um mal ein bisschen wieder on-topic zu kommen. Neue Karten benötigen nicht unbedingt mehr Energie als alte, anders als du behauptest. Die neuen Karten sind effizienter und wenn man sie nicht voll ausnutzt merkt man das auch. Setzt man eine Fps Begrenzung so, dass die Karte die die meiste Zeit erreicht, erhält man nicht nur die besten Frametimes, sondern kann auch noch Energie sparen.
This! Overwatch 2, max. Details, nativ 4K, 118 fps (Freesync bis 120 Hz) – 150 Watt. Auf der 3090 220 Watt.
CoD MW 2 (2022), max. Details, 4K mit DLSS Quality, 118 fps, 180-200 Watt.
CoD MW (2019) gleiche Einstellungen 250 Watt auf der 3090.
Das spart zwar aktiv Strom – der Anschaffungspreis der 4090 ist aber unverhältnismäßig mehr^^
 
Zuletzt bearbeitet:
AD103 ist auch nur ein verkappter Mittelklassechip den Nvidia im oberen Bereich platziert hat, nur noch beschissener als bei AMD.
Wenn Jensen bis zum Launch den Preis nicht korrigiert (799-899) wird das nix.
Du bist also so schnell bereit, für einen "kleinen" Mittelklassechip mit nur 379mm² der sich beim Vorgänger zwischen GA106 und 104 einsortiert, also in der Größe in etwa die Leistungsklasse x060er abbildet, 800 USD zu zahlen? Wenn man ehrlich ist, ein Preis über 500 USD ist lächerlich hoch! Wir reden hier von einem Chip der gegen den Vollausbau in Korrelation steht, wie eine 3070 zur 3090, die 3070 gabs noch für 499 USD, die 4080 nun für 1.199 USD.

Mal kurz in Relation gesetzt:

3090 = 10.496 Cores = 1.499 USD
3070 = 5.888 Cores (56,09%) = 499 USD (33,28%)

4090 = 16.496 Cores = 1.599 USD
4080 = 9.728 Cores (58,97%) = 1.199 USD (74,98%)

Wie kann die 4080 da ein "gutes" Geschäft sein? Die 4080 ist in meinen Augen ein PreisLeistungsrohrkrepierer! Die 4090 ist in meinen Augen gar nicht schlecht, schnell und im Vergleich geradezu günstig und der Aufpreis der UVP ist meines Erachtens normal. Die 4080 ist dagegen ehrlicherweise nichts anderes als eine verdammte Unverschämtheit.
 
Du hast die Inflation und den schwachen Eurokurs vergessen.

10% Inflation und 20% mehr Aufschlag für den Wechselkurs.
Die 699 Dollar wären eher 950 UVP in Euro gewesen.
Die UVP ist aber nicht 950€, sondern 719€ in D.
Dann hätte es NV anpassen müssen, das hab dann wohl weniger ich, sondern eher NV vergessen. ;)

Machts aber nicht besser, Preisaufschlag von 100% zu 50% Mehrleistung zur letzten Gen. Fertig. Ist zu viel des guten, ganz einfach.

Tut aber niemand und das ist gut so.
Du jedenfalls nicht, nein. Viele andere werden es aber.
Dann Kauf doch eine schwächere AMD. Die Leistung passt zum Preis.
Wenn ich eine 7900XTX kaufe, dann ist die nicht wirklich schwächer als eine zu teurere 4080 ;)
Und komm nicht mit der RT Keule, da gibt es noch zu wenige gute Games für als das sich der Premium Aufpreis lohnen sollte. Und DLSS3 zähl ich erst gar nicht, da gibt es ja kaum ne Handvoll Games.
 
Du scheinst Grundlagen nicht zu verstehen. Mehr Fps können abseits der Bildausgabe Vorteile bringen. Deine Argumentation ist auch zu eindimensional. Ein Spiel mit 60 Fps Begrenzung kann durchaus von einer schnelleren Karte profitieren, weil die ermöglichen kann Auflösung und Details weiter zu erhöhen.
Weiter oben fragst du, wofür man die schnelle Karten braucht. Ich stelle jetzt mal nicht die Frage nach der Definition von "brauchen" im privaten Umfeld. Fakt ist, eine Grafikkarte bekommt man schnell "klein", sei es RT, hohe Auflösungen/ Fps oder VR.
Deiner unterschwellinge Kritik, dass die Leute verführt werden, immer das neuste zu kaufen, ohne vielleicht zu hinterfragen, ob es notwendig ist, kann ich nachvollziehen. Andererseits gibt es, wie oben angeführt, tatsächlich auch objektive Argumente dafür. Ob die immer auch zutreffen ist eine andere Frage.
Um mal ein bisschen wieder on-topic zu kommen. Neue Karten benötigen nicht unbedingt mehr Energie als alte, anders als du behauptest. Die neuen Karten sind effizienter und wenn man sie nicht voll ausnutzt merkt man das auch. Setzt man eine Fps Begrenzung so, dass die Karte die die meiste Zeit erreicht, erhält man nicht nur die besten Frametimes, sondern kann auch noch Energie sparen.

Ja aber das sind 3 paar Schuhe, mit der Auflösung, die fps, und die Details.
Meines Wissens wenn man mehr fps hat, hat es gegenüber Details und Auflösung keinen Vorteil.
Und ausserdem muss es die Anwendung unterstützen das mehr als 60 fps möglich sind. Was für das Auge besser ist, wenn der Bildschirm mehr Hertz hat.

Und nein, sorry, ich glaube da hatten war uns falsch verstanden, ich meinte.... sagen wa, ich habe ne nvidia 4000 rtx, und paar Monate später gibt es ne nvidia 4100 rtx, mit nur bisschen mehr Leistung aber kostet fast doppelt soviel. Weisste wie ich meine?, ich meine wegen nur bisschen mehr leistung kaufe ich mir keine neue Grafikkarte, und bezahle ne fast das doppelte. Ich sage mal so, irgendwann bzw einestages stößt man an die physikalische Grenzen an der fertigungsgröße die "nm", an der Taktfrequenz, dann ist Ende. Entweder kauft man sich dann nen zweiten PC, das man die zusammenschaltet um mehr Leistung zu haben, oder man kann sich gleich nen quantencomputer kaufen, wenn es die irgendwann zu kaufen gibt für Privatanwender.

Ja normalerweise je kleiner die Fertigungstechnologie desto besser, also weniger Stromverbrauch, geringere Hitzeentwicklung. Trotzdem wenn ich sehe, bspw nvidia Grafikkarten mit ca 600 Watt Stromverbrauch, das ist extrem. Meine radeon rx 580 verbraucht maximal 200 Watt.
 
Wie kann die 4080 da ein "gutes" Geschäft sein? Die 4080 ist in meinen Augen ein PreisLeistungsrohrkrepierer! Die 4090 ist in meinen Augen gar nicht schlecht, schnell und im Vergleich geradezu günstig und der Aufpreis der UVP ist meines Erachtens normal. Die 4080 ist dagegen ehrlicherweise nichts anderes als eine verdammte Unverschämtheit.
Nvidia hat doch schon vor Wochen bestätigt, dass Ampere abverkauft werden soll. Die 4080 hat offenbar die Aufgabe genau das zu tun. Sie verkauft die 4090 oder die übrigen Ampere Karten, weil diese im Vergleich dazu dem Käufer vernünftig erscheinen sollen.

Edit:
Ja aber das sind 3 paar Schuhe, mit der Auflösung, die fps, und die Details.
Meines Wissens wenn man mehr fps hat, hat es gegenüber Details und Auflösung keinen Vorteil.
Das verstehe ich leider nicht. Mit mehr Fps kann ein Spiel schneller auf Eingaben reagieren, Animationen flüssiger abspielen, bei manchen ist sogar die Physik oder die Mauseingabe an die Fps gekoppelt.
Und ausserdem muss es die Anwendung unterstützen das mehr als 60 fps möglich sind. Was für das Auge besser ist, wenn der Bildschirm mehr Hertz hat.
Ersteres ist quasi der Standard. Spiele, die auf so niedrige Fps begrenzt sind, genießen meist den Ruf als schlechte Konsolen Ports.


Und nein, sorry, ich glaube da hatten war uns falsch verstanden, ich meinte.... sagen wa, ich habe ne nvidia 4000 rtx, und paar Monate später gibt es ne nvidia 4100 rtx, mit nur bisschen mehr Leistung aber kostet fast doppelt soviel. Weisste wie ich meine?, ich meine wegen nur bisschen mehr leistung kaufe ich mir keine neue Grafikkarte, und bezahle ne fast das doppelte.
Bei Nvidia stagniert das Verhältnis von Kaufpreis (in De) zu Fps seit Jahren (bestenfalls). Das kritisiere ich auch seit längerem. Das gute ist, wenn keiner den teueren Kram kauft, muss der Preis sinken.


Ja normalerweise je kleiner die Fertigungstechnologie desto besser, also weniger Stromverbrauch, geringere Hitzeentwicklung. Trotzdem wenn ich sehe, bspw nvidia Grafikkarten mit ca 600 Watt Stromverbrauch, das ist extrem. Meine radeon rx 580 verbraucht maximal 200 Watt.
Ich rate dir Benchmarks anzusehen, dann sollte dir klar werden, dass Grafikkarten nicht per se von ihrem Verbrauch begrenzt werden. Bloß, weil 600W als Grenze einstellbar ist, heißt das nicht, dass diese dauerhaft verbraucht werden.
 
Zuletzt bearbeitet:
Nvidia hat doch schon vor Wochen bestätigt, dass Ampere abverkauft werden soll. Die 4080 hat offenbar die Aufgabe genau das zu tun. Sie verkauft die 4090 oder die übrigen Ampere Karten, weil diese im Vergleich dazu dem Käufer vernünftig erscheinen sollen.
Ja ist schon in Ordnung, allerdings passt das Verhältnis nicht. Die 4090 und die 4080 sind sich viel zu nahe, wie im übrigen die 7900XT und XTX eigentlich auch, wobei die Diskrepanz dort bei weitem nicht so groß ist. Die 4090 halte ich (in Zusammenhang mit der Entwicklung des Marktes) für schon fast vernünftig (auch wenn ich aktuell noch abwarten würde, was sich mit dem Stecker dann tut). Die 4080 brauchen sie so nicht auf den Markt bringen. Kein klar denkender Mensch sollte in irgendeiner Entscheidung zu dieser Wahl gelangen können!
 
Das wollte ich nicht sagen, ich habe nur gesagt, dass einige grüne Anhänger die RT Leistung als ganz wichtig ansehen werden, nicht dass jeder der die RT Leistung als wichtig ansieht ein grüner Fan ist!



Exakt meine Aussage



Natürlich, jeder neutrale Mensch trennt das auf! Nur nicht neutrale trennen nicht. Was bringt mir eine teurere und in meinen Szenarien langsamere Karte?
Die Entscheidung muss jeder für sich treffen, ich habe aktuell ein einziges Spiel mit RT in der Playlist, dagegen 20 Spiele ohne! Dazu kaufe ich spätestens alle 2 Gens eine neue Karte und sehe für mich aktuell keinen Sinn in RT Leistung zu investieren.
1. Danke für die relaxte Antwort ;)
2. Nur auffällig (nicht bei dir, sondern allgemein) das hier immer von der tollen Leistung AMD´s gesprochen wird und RT Leistung als nichtig abgetan wird. Wenn ich sagen möchte, das ich die Raster Leistung der 6900XT gut finde, dann sage ich genau das und nicht. Die 6900XT hat eine tolle Leistung. Dann springen auch nicht so viele aus den Ecken und kommen mit der schwächeren RT Leistung.
Du scheinst Grundlagen nicht zu verstehen. Mehr Fps können abseits der Bildausgabe Vorteile bringen. Deine Argumentation ist auch zu eindimensional. Ein Spiel mit 60 Fps Begrenzung kann durchaus von einer schnelleren Karte profitieren, weil die ermöglichen kann Auflösung und Details weiter zu erhöhen.
Weiter oben fragst du, wofür man die schnelle Karten braucht. Ich stelle jetzt mal nicht die Frage nach der Definition von "brauchen" im privaten Umfeld. Fakt ist, eine Grafikkarte bekommt man schnell "klein", sei es RT, hohe Auflösungen/ Fps oder VR.
Deiner unterschwellinge Kritik, dass die Leute verführt werden, immer das neuste zu kaufen, ohne vielleicht zu hinterfragen, ob es notwendig ist, kann ich nachvollziehen. Andererseits gibt es, wie oben angeführt, tatsächlich auch objektive Argumente dafür. Ob die immer auch zutreffen ist eine andere Frage.
Um mal ein bisschen wieder on-topic zu kommen. Neue Karten benötigen nicht unbedingt mehr Energie als alte, anders als du behauptest. Die neuen Karten sind effizienter und wenn man sie nicht voll ausnutzt merkt man das auch. Setzt man eine Fps Begrenzung so, dass die Karte die die meiste Zeit erreicht, erhält man nicht nur die besten Frametimes, sondern kann auch noch Energie sparen.
Ein Beispiel dazu.

Ein Arbeitskollege und ich haben eine 3070 und 3060TI undervolted und übertaktet und die TDP begrenzt.
Ergebnis:

Die 3070 des Kollegen leisten bei 130W rund das doppelte meiner alten optimierten GTX1070 bei 150W.
Meine 3060TI leistet bei 135W das selbe.

Also 100% mehr Leistung, bei weniger Verbrauch. Natürlich werden die neuen Karten immer Effizienter, nur manchmal muss man selbst Hand anlegen um das Produkt zu bekommen, das man eigentlich haben will.

Eine 3060 ohne TI ist zum Beispiel deutlich ineffizienter, als die 3060ti und die 3070.
 
Zuletzt bearbeitet:
Ja ist schon in Ordnung, allerdings passt das Verhältnis nicht. Die 4090 und die 4080 sind sich viel zu nahe, wie im übrigen die 7900XT und XTX eigentlich auch, wobei die Diskrepanz dort bei weitem nicht so groß ist. Die 4090 halte ich (in Zusammenhang mit der Entwicklung des Marktes) für schon fast vernünftig (auch wenn ich aktuell noch abwarten würde, was sich mit dem Stecker dann tut). Die 4080 brauchen sie so nicht auf den Markt bringen. Kein klar denkender Mensch sollte in irgendeiner Entscheidung zu dieser Wahl gelangen können!
Genau dieser Effekt ist bestimmt so gewünscht. Die 4080 soll (vorerst) nur dazu dienen die anderen Karten wie eine vernünftige Wahl aussehen zu lassen. Später irgendwann, wenn der Überbestand an 3080-3090 Ti abverkauft wurde, kann Nvidia ganz einfach den Preis der 4080 senken und damit attraktiv machen.
 
Dem kann ich eben nur entgegnen, dass dies ziemlicher Nonsens ist, der Chip hat keine 300mm² sondern über 500mm² und ist damit bspw. 40% größer als Nvidias AD103 (4080) Chip, während Nvidias HighEnd Chip nur 15% größer ist! Du hast einfach komplett ignoriert oder vergessen, dass AMD hier auch Cache Chips verbaut, die eben extern sind und nicht wie bei Nvidia intern und jetzt habe ich das Gefühl, dass du genau verstanden hast was du vergessen hast, aber deine Aussagen irgendwie retten willst!
Du scheinst zu ignorieren, dass ich eben die Cache Chips nicht ignoriert habe, warum weißt nur du.
Ich hab dir sogar eine Berechnung gegeben mit verwertbaren Daten, die du aber ignorierst.
Die Chiplets habe ich deshalb außer acht gelassen, weil 6nm lächerlich günstig ist und die Yields mit Sicherheit 100% bei 37,5mm² sind.

Ich möchte aber die Kosten bzgl. 4/5nm zwischen AMD und Nvidia vergleichen und letztendlich kritisiere ich beide Hersteller für ihre Preise.
Völlig unnötig! Ich will nur richtig stellen, AMDs 7900XT(X) Chip hat 533mm² Gesamtfläche, ist damit deutlich kleiner als der 4090 CHip, aber eben deutlich größer als der 4080 Chip und dennoch ist er günstiger als eben jener 4080 Chip. Was dank MCM und Kostenersparnis gar kein Problem darstellen muss.
Ja er hat 533mm² Gesamtfläche aber wegen den Chiplets muss man das doch ganz anders bewerten, warum ignorierst du mal wieder diesen Fakt?
300mm² hat der bedeutsamste Teil der GPU und der wird auf dem neuesten Node (5nm) gefertigt was am teuersten ist.
6nm ist ein vergleichsweise alter und sehr günstiger Hut.

Fühl dich doch nicht ständig in deiner AMD Ehre gekrängt.

TLDR nur für dich:
Die Preise beider Hersteller sind für den Poppes nichts anderes hab ich mit meinen Aussagen aufgezeigt.
Du bist also so schnell bereit, für einen "kleinen" Mittelklassechip mit nur 379mm² der sich beim Vorgänger zwischen GA106 und 104 einsortiert, also in der Größe in etwa die Leistungsklasse x060er abbildet, 800 USD zu zahlen? Wenn man ehrlich ist, ein Preis über 500 USD ist lächerlich hoch! Wir reden hier von einem Chip der gegen den Vollausbau in Korrelation steht, wie eine 3070 zur 3090, die 3070 gabs noch für 499 USD, die 4080 nun für 1.199 USD.

Mal kurz in Relation gesetzt:

3090 = 10.496 Cores = 1.499 USD
3070 = 5.888 Cores (56,09%) = 499 USD (33,28%)

4090 = 16.496 Cores = 1.599 USD
4080 = 9.728 Cores (58,97%) = 1.199 USD (74,98%)

Wie kann die 4080 da ein "gutes" Geschäft sein? Die 4080 ist in meinen Augen ein PreisLeistungsrohrkrepierer! Die 4090 ist in meinen Augen gar nicht schlecht, schnell und im Vergleich geradezu günstig und der Aufpreis der UVP ist meines Erachtens normal. Die 4080 ist dagegen ehrlicherweise nichts anderes als eine verdammte Unverschämtheit.
Ich habe nicht gesagt, dass ich die 4080 dann automatisch kaufen werde...
Rein von der Leistung her wäre es eine 70er Karte, wie ich bei AD103 aber schon öfter angemerkt habe... du hast es ja sogar zitiert lol
Entweder hast du Lese und Verständnisprobleme oder du ignorierst das bewusst.
Genau dieser Effekt ist bestimmt so gewünscht. Die 4080 soll (vorerst) nur dazu dienen die anderen Karten wie eine vernünftige Wahl aussehen zu lassen. Später irgendwann, wenn der Überbestand an 3080-3090 Ti abverkauft wurde, kann Nvidia ganz einfach den Preis der 4080 senken und damit attraktiv machen.
Nvidida wird die Karte nie so viel im Preis senken, dass sie besonders attraktiv bzw. fair bepreist ist.
Da müssten sie schon einen AD102 verbauen.

Theorethisch gäbe es auch eine riesige Lücke zwischen 4080 und 4080ti, da die 80ti meist nur knapp unter dem Topmodell angesiedelt war. Wieder ein Hinweis darauf, dass der AD103 eigentlich ein 70er Chip sein sollte.
 
Zuletzt bearbeitet:
Theorethisch gäbe es auch eine riesige Lücke zwischen 4080 und 4080ti, da die 80ti meist nur knapp unter dem Topmodell angesiedelt war. Wieder ein Hinweis darauf, dass der AD103 eigentlich ein 70er Chip sein sollte.
Für mich ist dieser neue Chip "AD103" ein Teil von Nvidias Marketing, um die Einordnung der Karten für Enduser zu erschweren oder verschleiern. Man nimmt damit die direkte Vergleichbarkeit, was in etwa der gleiche Move war, als man "Titan" oder "x090" als neues Modell eingeführt hat. Vergleicht man die Chips anhand ihren Größe, was maßgeblich für die Produktionskosten ist, sieht man, dass Nvidia wieder mehr oder weniger (4080 12GB) geschickt erneut versucht Preisanhebungen zu verschleiern. Man möchte den drittkleinsten Chip nun für über 1000$ verkaufen.
 
Man muss eigentlich nur die Die Größe und Leistungsabstand zum Topmodell vergleichen um Schlüsse ziehen zu können.
Nvidia testet halt mit jeder neuen Generation die Grenzen aus.
 
Fühl dich doch nicht ständig in deiner AMD Ehre gekrängt.
Ich fühle mich nicht gekränkt, keine Sorge. Nur passen die Relationen in deiner Argumentation in meinen Augen nicht, egal ob lächerlich oder nicht, die Cache Chips kosten auch Geld und ganz sicher auch nicht wenig. Dazu kommt, dass ich niemals behauptet habe, dass AMD nicht günstiger produziert. Dennoch schafft AMD es den Preis verhältnismäßig "niedrig" zu halten, wenn man die 4080 dagegen betrachtet, 230mm² in 6nm werden eben mal mind. genauso viel kosten wie 70mm² mehr in 4nm!

Zu teuer sind beide, aber wie schon gesagt, passt für mich eine 4090 und im Verhältnis eine 7900XTX durchaus zusammen, die 4080 ist es was stört.
Die Preise beider Hersteller sind für den Poppes nichts anderes hab ich mit meinen Aussagen aufgezeigt.
Sehe ich tatsächlich anders, die 4090 und die 7900XTX passen in meinen Augen zur aktuellen Situation und Preisentwicklung zum Vorgänger! Die 4080 im Extremen und die 7900XT im kleinen Rahmen passen nicht zu ihren großen Brüdern.
2. Nur auffällig (nicht bei dir, sondern allgemein) das hier immer von der tollen Leistung AMD´s gesprochen wird und RT Leistung als nichtig abgetan wird. Wenn ich sagen möchte, das ich die Raster Leistung der 6900XT gut finde, das sage ich genau das und nicht. Die 6900XT hat eine tolle Leistung. Dann springen auch nicht so viele aus den Ecken und kommen mit der schwächeren RT Leistung.
Aber kann man es den Leuten verübeln?

Seit nunmehr zwei Generationen wird und wurde RT hier im Forum massiv angepriesen, wirklich sinnvoll ist es erst seit DLSS 2.3 da ist, vorher war es eben ob NV oder AMD nicht nutzbar. Mit der 4090 ändert sich das in meinen Augen. Daher kann ich schon den einen oder anderen verstehen (sehe es ja im Grundsatz selber so), der RT (nich) nichts abgewinnen kann. Letztlich wird hier auch sehr viel auf ein Spiel, in deren Umsetzung RT wirklich mal gut ist, abgestellt ist, als zweites Argument kommt dann, dass es schon 200 Spiele gibt und alle Triple A (MWII?) Spiele damit kommen. Dabei wird immer wieder vergessen, dass von den 200 Spielen die es geben mag, 95% für die allermeisten User uninteressant sind, 90% eine nicht wirklich gelungene Umsetzung von RT bieten und 50% auch mit bisheriger Hardware nicht wirklich gut liefen! Bleiben am Ende vieleicht 10 Spiele übrig die im Kontingent sind, wo es sich lohnen würde über RT nachzudenken.

Ja, ich stehe der Technik noch sehr skeptisch gegenüber und fühle mich teilweise an die wilden 3D Hypezeiten erinnert! Oder PhysX war auch mal so eine Erfindung, die sich letztlich zwar durchgesetzt hat, aber eben nie so wie man es erwartet hat. Ja, RT wird sich durchsetzen, aber wenn es ähnlich PhysX läuft (wo Verrückte wie ich sich extra eine zweite GPU gekauft haben, die nur die PhysX Effekte berechnen sollte) wird sich das ganze erst durchsetzen, wenn es im Mainstream möglich ist und da sind bei solchen Preisen wie aktuell, bald eher Karten eie eine 4030 / 7300 zu erwarten.

P.S.
Ich habe erst zwei Spiele gespielt, in denen ich RT richtig gut fand, CB2077 und Dying Light. In allen anderen Spielen (bspw. F1 2021) bemerke ich es einfach nicht und empfinde den Performanceverlust in keiner Relation zum Grafikgewinn (gut, bin ja auch AMD User aktuell und daher mehr betroffen). Aber am Beispiel Dying Light möchte ich noch hinzufügen, dass eine 3090 (non TI) mir nicht ausreichen würde um zu spielen. DLSS ist dort eine Katastrophe und "schmiert" wie Sau, ohne DLSS und mit RT MAX ist es aber schon nahezu unspielbar (meine im Kopf zu haben, dass es damals die Percentils waren und gar nicht die AverageFPS; war aber nicht mein Rechner und ich hab mir das nur mal angeschaut, weil der Kollege schon dachte, sein Monitor wäre hin)
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wer weiß welche Konditionen AMD in Wirklichkeit hat, sicher nicht teurer...
Natürlich sind das NUR die reinen Kosten der Chiplets, da kommt natürlich noch einiges oben drauf, wie Platine, R&D usw.
 
Zuletzt bearbeitet:
Guckt euch doch nur die ALU Anzahl und die Diegröße an

Beim Topmodell hat NV die Vorteile des neuen Prozesses voll in Leistung investiert:

GA 102 10752SP und 628 mm² -> AD102 18432SP und 608 mm² -> + 71% SP und - 3% Fläche
GA103 7680SP und 496 mm² -> AD103 10752SP und 379 mm³ -> +40% SP und -24% Fläche
GA104 6144SP und 393 mm² -> AD104 7680SP und 295 mm² -> +25% SP und - 25% Fläche
GA106 3840SP und 276 mm²

AD103 ist eher ein 104er Chip und AD104 ist eher ein 106er Chip.
 
Meine radeon rx 580 verbraucht maximal 200 Watt.
Und Du siehst keinen Fortschritt?
Vor ~2 Jahren konntest Du schon mit der RX 6800/RTX 3070 zwei Karten kaufen, die auf 100W begrenzt, immer noch doppelt so schnell wie deine 200W RX 580 sind.

Das Ganze fällt wohl unter...ich möchte gerne und kann doch nicht...und alles was ich nicht haben kann ist voll Sch....e.

Aber wenn es Dir geholfen hat deinen Frust mal von der Seele zu schreiben hat es ja auch was Gutes.
 
SLI ist gestorben, weil die Bandbreite/Latenz um Informationen zwischen mehreren Grafikkarten auszutauschen zu gering ist. Es müssen daher immer alle Informationen im Grafikspeicher beider Grafikkarten vorgehalten werden um schnell genug ein Bild Rendern zu können (~17 ms).
Bei CUDA-Anwendungen, z.B. Machine Learning oder 3D-Rendering sind ein paar Dutzend Millisekunden Latenz egal, die können sogar den Grafikspeicher mehrerer Karten kombinieren und die Daten durch das SLI-Interface quetschen da die Berechnung ungleich lämger dauert.
Nicht ganz richtig.
Denn seit Nvidia SLI nutzt, ist es schon so, dass beide (bzw. 3 oder 4) Grafikkarten die gleichen Informationen im Speicher haben müssen und sich der Gesamtspeicher nicht vermehrt - steht so auch in jedem SLI Test seit Übernahme von 3Dfx durch Nvidia, da eigentlich nur 3DFX SLI für Halbbildberechnungen nutzte.

SLI und Crossfire sind gestorben, weil temporale AA Methoden eine abwechselnde Bildberechnung durch 2 Grafikkarten unmöglich machen.
Immerhin brauchen diese AA Methoden die Inflormationen aus den älteren Bildern, um AA im neuen Bild zu schaffen.
Bei SLI (und Crossfire) Karten fehlt genau das vorhergehende Bild und damit die Chance, temporale AA Methoden zu nutzen
Das Video kenn ich und hab ich schon verlinkt.
Es sind aber noch andere Kosten involviert wo es für Nvidia deutlich teurer ist, Board + Kühler. Ist halt ein Rattenschwanz.
Das Board dürfte kaum teurer sein. Sie haben ungefähr gleiche Bedingungen dafür - bis auf die RAM Chips.
Durch den einen 12 Pin Anschluss ist das Boarddesign sogar noch einfacher, als mit 2-3x 8 Pin Stecker.
Beim Kühler sind sie selbst Schuld.. sie haben auf 600W hin entwickelt und brauchten einen entsprechenden Kühler. Dass sie erst NACH der Herstellung der Werkzeuge für die Kühler bemerkten, dass die Karte auch bei deutlich weniger Stromaufnahme viel Leistung bringt, ist dann eher auf schlechtes Projektmanagement zurückzuführen.
 
Zuletzt bearbeitet:
Zurück