News AMD Radeon: RDNA 4 ohne High-End-GPU? [Gerücht]

Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Wieso sollte ich natives 8K überhaupt wollen/nutzen? 8K mit DLSS sieht mindestens genau so gut aus, benötigt weniger Energie und bietet mir dadurch mehr Reserven für andere Effekte.
8K ist jetzt schon mit DLSS + FG flüssig (60 FPS+) möglich, nativ nicht.

Wir haben jetzt mit den Tensor Cores in der 4090 zwar über 1 POPS, aber was ist wen wir mit den Shadern im PFLOPS-Bereich landen... Dann können wir mit sagen wir 10 PFLOPS ein PFLOP für DLSS hergeben, und ich denke nicht, dass die Rechenleistungs-Anforderungen für DLSS in Zukunft steigen werden - wüsste nicht, warum, solange die Auflösung nicht steigt und für mehr als 4K sehe ich auch keine echte Zukunft.
Mehr/schnellere Shader steigern die FPS aber nicht linear. Es wird langsam immer schwerer sämtliche Shader komplett auszulasten, deswegen steigt die Zahl mit jeder Generation auch nicht wirklich stark und man will hin zu Ray Tracing, wo dir deine 10 PFLOPS Shader gar nichts bringen, weil es auf die RT Leistung ankommt.

Mal ganz davon abgesehen, dass mehr und schnellere Shader auch mehr Energie benötigen und ich das gleiche auch mit DLSS + FG wesentlich effizienter und besser erreichen kann.

Sehe ich noch nicht so. Ich achte bei meinen GPUs nach wie vor ausschließlich auf die Rasterizing-Leistung.
Dann wird dir die Zukunft gar nicht schmecken, denn Raster kommt langsam an seine Grenzen ;)
 
Zuletzt bearbeitet:
Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Ich persönlich finde 8K absolut überflüssig und pure Übertreibung. Sieht der EU-Gesetzgeber scheinbar ähnlich - wenn auch aus anderen Gründen. Wir sollten erst einmal auf UHD nativ 60 FPS kommen - bei steigenden Anforderungen durch diverse Spiele-Engines.
 
Du glaubst doch nicht ernsthaft, dass ein Normalo überhaupt weiß, was DLSS ungefähr ist? Er benutzt, wenn überhaupt, in den Grafikoptionen nur die Einstellung Ultra, Normal oder Low, je nach dem Gefühl für sein System. Vermutlich sogar, ohne zu testen, ob eine höhere Einstellung auch nicht ruckeln würde.

Der Normalo geht in die GeForce-Experience Software, klickt das installierte Spiel an und drückt auf optimieren. Fertig.

Der Kunde kauft seinen Komplettrechner und es ist ohnehin in fast allen Komplettrechnern eine Nvidia-Karte. Und genau das will der Normalo auch auf der Produktbeschreibung lesen. Weil jedes fünfte Spiel ja mit Nvidia-Karten meant to be played ist. Dass das nur ein Marketingvideo ist, das sich Nvidia eingekauft hat, und da genauso gut Intel oder wer auch immer werben könnte, schnallen doch gerade Teenager, die ja oft eine große Zielgruppe für Gaming sind, gar nicht.

So funktioniert Marketing. Abseits der Techforen mit nackten Zahlen und echtes Interesse für Platinen und Chips muss das Produkt erfahrbar werden und sei es durch abstrakte Zurschaustellung der eigentlichen Leistung. PCs werden optisch mit ARGBs aufgehübscht und fetten Kühlern versehen, iPhones in Titanhüllen gepackt und bei den Elektro-Cupras werden ab Werk Vierrohr-Auspuffanlagen in Bronze auf den Diffusor gemalt. Das alles ist rational total lächerlich, aber mit vollständigen, technischen Spezifikation wird der reine Konsument gelangweilt, der will Show und das wohlige Gefühl, sich mit seinem Erwerb entsprechend tolle Produkte eingekauft zu haben.


Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Ja, sobald der neue Samsung 57" 32:9 Monitor rauskommt, stehe ich vor dem Auflösungsproblem. Da werde ich DLSS brauchen.

Ich achte bei meinen GPUs nach wie vor ausschließlich auf die Rasterizing-Leistung.

Das wird zukünftig nur noch ein Teil des allgemeinen feature sets der Pixeldarstellung sein, ob nun AMD, Intel oder Nvidia. Das kann man natürlich so handhaben, entspricht aber nicht der aktuellen Entwicklung und dem zu erkennenden Trend. Seit DLSS3 stehe ich dem aufgeschlossen gegenüber, da ich es sogar auf Quality anschalte, obwohl ich die Leistung auch nativ abrufen könnte. Leiser, deutlich geringerer Verbrauch und keine großartig sichtbaren Einbußen.
 
Ich persönlich finde 8K absolut überflüssig und pure Übertreibung. Sieht der EU-Gesetzgeber scheinbar ähnlich - wenn auch aus anderen Gründen. Wir sollten erst einmal auf UHD nativ 60 FPS kommen - bei steigenden Anforderungen durch diverse Spiele-Engines.
ich find sogar 4K als Übertreibung in vielen Fällen. Probiere grad meinen neuen Monitor aus und in Doom Eternal reicht die GPU längst nicht für die Auflösung. Das Spiel passt aber die FPS ständig dynamisch an, ich seh den Unterschied nicht, außer ich mache Screenshots und vergleiche mit Zoom
 
120 CU´s sollte doch für highend Rastergaming in 4k@FSR3 reichen. (und etwas mehr Takt +Auslastung als bei der XTX@96)

Pathtracing kann man Anderen, ... enthusiastischen Raff´s überlassen.
Mal abwarten ob ne PS6 überhaupt Sowas können will, ... sonst kommts evtl. gar net in viele Games.
 
Zuletzt bearbeitet:
Die 7970 war auf dem Papier High-End und GCN wurde unter anderem hier für seine Features gefeiert, war aber in Wirklichkeit der Sargnagel für AMD. Ich hatte damals beide Karten gleichzeitig, eine 7970 und eine aufgebohrte Nvidia-Mittelklasse aka GTX 680, und die 680 hat die 7970 überall zerlegt, mit kleinerem Die, weniger Transistoren, kleinerem Speicherinterface und weniger Verbrauch/Lautstärke.

Die 7970 ist natürlich besser gealtert wegen 50% mehr VRAM, und vielleicht deswegen besser in Erinnerung geblieben, als sie in Wirklichkeit war. Kepler war der KO für AMD. Und Maxwell hat noch mal nachgetreten.
Ich habe die Entscheidung nie bereut.
Es hat mich nie geärgert
Ich habe die Entscheidung bis heute nicht bereut.
also alles richtig gemacht.
Also wenn jemand 4x schreibt, dass er nix bereut, hab ich irgendwie das Gefühl, dass er irgendwas bereut.
 
Isch könnt mich jetzt aufrege, aber isch sach mir: ruhisch, Brauner. Janz ruhisch. Willst ja dem Eulschen hier nich seine Arbeit wegnehme...:D

Gruß

Brauner...?
Du verwechselst mich mit was anderem.

Ich hab schon öfters Verwarnungen bekommen, finde ich auch in Ordnung. Aber sicher nicht, weil ich rechter Abschaum wäre.
 
Brauner...?
Du verwechselst mich mit was anderem.

Ich hab schon öfters Verwarnungen bekommen, finde ich auch in Ordnung. Aber sicher nicht, weil ich rechter Abschaum wäre.
Erstens, das mit dem: "ruhig, Brauner" bezog sich auf mich und das sagt man zu Pferden, wenn sie scheuen. Und zweitens: wenn ich es ernst gemeint hätte, dann gäbe es hinter meiner Aussage doch keinen Smiley, oder. Von daher...:-D

Eieiei, man muss wirklich aufpassen was man sagt/schreibt, es wird teilweise HÖLLISCH missverstanden:ugly:

Gruß
 
Die 7970 war auf dem Papier High-End und GCN wurde unter anderem hier für seine Features gefeiert, war aber in Wirklichkeit der Sargnagel für AMD. Ich hatte damals beide Karten gleichzeitig, eine 7970 und eine aufgebohrte Nvidia-Mittelklasse aka GTX 680, und die 680 hat die 7970 überall zerlegt, mit kleinerem Die, weniger Transistoren, kleinerem Speicherinterface und weniger Verbrauch/Lautstärke.

Die 7970 ist natürlich besser gealtert wegen 50% mehr VRAM, und vielleicht deswegen besser in Erinnerung geblieben, als sie in Wirklichkeit war. Kepler war der KO für AMD. Und Maxwell hat noch mal nachgetreten.




Also wenn jemand 4x schreibt, dass er nix bereut, hab ich irgendwie das Gefühl, dass er irgendwas bereut.
In diesem Benchmark sieht es aber nciht so aus als ob die 680 gewinnt.

Man kann die Benchmarks halt immer noch finden und deine Aussagen überprüfen, dann sieht man das die 7970 Ghz oft schneller war.
Ich hatte damals übrigens auch beide Karten.
Erst die 680GTX dann die 7970 Ghz Edition.
Ich bin gewechselt, weil Nvidia damals kein DX11 konnte bzw. nur in Software (stell dir mal RTX in Software vor)
sie hatten aber natürlich trotzdem damit geworben.
Als ich das spitz bekommen hatte war die Karte verkauft und dazu habe ich mit der 7970 auch noch mehr Ram bekommen.
Ich hatte nie wieder und auch nie vorher eine Karte die so lange gehalten hat wie die 7970 Ghz.
Die wurde auch schon so oft hier auf PCGH gelobt, also von PCGH.

Viele Grüße
OK, ihr habt mich überzeugt. Ich lag falsch mit meiner Einschätzung.
Hi,
informiere die lieber nicht in Foren.
jedenfalls nicht darüber wer besser ist.
Allgemeine Fragen z.B. was ist DLSS ?,
Oder "wie baue ich .... ?",
sind Fragen bei denen einem geholfen werden kann, sonst sehe ich eher schwarz.

In jedem Forum gibt es quantitativ am meisten "Info" von Leuten die stark zu einer bestimmten Marke tendieren und das ist dann so gut wie nie objektiv
 
Zuletzt bearbeitet:
Falsch .
Würde Amd etwas wirklich gleichwertiges ( Gesamtpaket , Preis ) liefern können , würden sich sicher schon aus Neugier viele dafür entscheiden .

Nur Amd kann eben nicht !

Und im CPU Bereich wird sich das kurze Erfolgserlebniss auch bald ändern , wenn Amd weiterhin nur Stupide Kerne zusammenklebt !
Wo ist denn ein Ende des Erfolges der Zen-CPUs zu sehen?
So weit man hört, soll die nächte Gen. wieder sparsamer, schneller und moderner werden als alles was Intel zur Zeit bauen kann!?

Wie kommt man dann dazu so eine Vermutung zu äußern, bei dem Infobild?
Weißt du etwas das sonst niemand weiß,
außer das AMD deiner Meinung nach schlechter sein muss?

Ich für meinen Teil sehe hier nur "Es kann nicht sein was nicht sein darf :heul:"

Meine Meinung:
Es wäre für alle Konsumenten gut wenn AMD weiter erfolgreich ist.
Wer unbedingt will findet auch jetzt schon Wege zu viel Geld auszugeben und es wird auch niemand daran gehindert.
 
Zuletzt bearbeitet:
Jaja, meine Märchen... Deine Unwahrheiten kenne ich ja schon länger. Bleib mal lieber bei den Fakten. Ich sagte nirgends etwas von TSMC 10nm vs Samsung 8nm, wieso auch? RDNA2 wurde in TSMC 7nm gefertigt.

Ja das ist nichts neues, dass du am Märchen erzählen bist und bei den Fakten zu bleiben würde dir auch nicht schaden, auch wenns beim Thema AMD dir wohl sehr schwer zu fallen scheint.

Aber dann mal zu deinen "Fakten"

TSMC N7: Transistor density (MTr/mm2) 91.2–96.5
https://en.wikipedia.org/wiki/7_nm_process

Samsung 8LPP: Transistor density (MTr / mm2) 61.18
https://en.wikipedia.org/wiki/10_nm_process

Ist ja nur eine 1,5 mal so hohe Transistor Dichte. Keine große Sache. Was Du manchmal von Dir gibst...

Die Transistor density die du hier anführst sagt überhaupt nichts darüber aus wie gut der Prozess performt.
Du kannst dir hier nämlich die Transistordichte der beiden GPUs im Vergleich anschauen und wirst feststellen, dass diese eng beisammen liegen.

GA102: 44,56 MT/mm²
Navi 2X: 51,56 MT/mm²
GA100: 65,37 MT/mm² (TSMC 7)

Und wenn wir dann die Unterschiedliche Packungsdichte ausrechnen ist die bei AMD 15% und nicht 50% höher. Zumal eine höhere Packungsdichte sich in einigen Bereichen negativ auf den Takt auswirkt, siehe Zen4 vs Zen4c.

Jedoch sagt wie oben schon erwähnt die Packungsdichte des Prozesses nichts aus, im Gegenteil in der Vergangenheit gab es genügend Fälle wo der neue Prozess erstmal schlechter war, da nicht so hohe Taktraten erreicht wurden. Siehe AMD Umstieg von 90nm auf 65nm oder Intel von 14nm auf 10nm.

Und wo ist jetzt der Beleg, dass Nvidia eine Limitierung bei Samsung hatte oder der Prozess hinsichtlich der Taktbarkeit so viel schlechter war? Konnte Nvidia etwa nicht den Takt fahren den sie wollten? Mir ist dazu nichts bekannt, außer dass sie überrascht von AMDs Leistung waren und die TDP hochgeschraubt haben.

Für Nvidia war der Prozess perfekt, da sie ein großes Kontigent für wenig Geld bei Samsung bekommen haben. Wenn dich das stört, musst du dies Nvidia ankreiden, sie hätten ja auch bei TSMC fertigen können!
Aber ist immer wieder schön, wie du da den "Fertigungsnachteil" herausstellst, ihn aber bei der neuen Generation mit dem speziell angepassten Prozess für Nvidia unter den Tisch fallen lässt. Man nimmt es halt so wie man es braucht.

Ich mache AMD nicht schlecht, ich ordne sie realistisch ein.

Der Witz war gut!

Und wenn man sich dann das monolithische Design von RDNA 3 anschaut und mit Nvidia vergleicht muss man feststellen, dass die reine Architekturen was den Verbrauch betrifft nah beisamen liegen. Taten sie im übrigen auch schon bei der Generation davor, hätte Nvidia nicht die TDP angehoben.
Interessant ist doch eher der Punkt, dass man sieht, dass das Chipletdesign auch hier zu Lasten der Effizienz geht und wie man dies mit späteren Iterationen optimieren möchte?
Auch welchen Weg Nvidia gehen wird, ob sie weiter bei Monolithen für den Gamingmarkt bleiben werden? Für den Professionellen Einsatz ist es ja klar, dass alle auf eine Art von Chiplets setzen werden aufgrund der Skalierbarkeit der Performance, die leider so für den Gamingsektor nicht möglich ist.
AMDs Ansatz ist hier klar günstig zu produzieren, um die Produkte so besser am Markt platzieren zu können. Und solange Nvidia die Preisdurchsetzungskraft hat, werden sie Meiner Meinung nach weiter auf Monolithen setzen im Gamingsektor und dadurch vermutlich auch die bessere Effizienz bieten mit der nächsten Generation. Ich denke nicht, dass AMD diese Lücke mit RDNA 4 und Chiplets schon schließen können wird, sie werden eher versuchen über den Preis zu punkten.
 
In jedem Forum gibt es quantitativ am meisten "Info" von Leuten die stark zu einer bestimmten Marke tendieren und das ist dann so gut wie nie objektiv
Die Markentendenz habe ich rausgelesen. Aber es war, soweit ich das gesehen habe, fachlich korrekt.
Ich kann nicht behaupten, dass Nvidia die bessere Hardware hätte, weil auf dem Papier auf der anderen Seite auch 130 TFLOPS FP16-Leistung stehen und das muss man auch erst mal hinbekommen. Rein vom Potenzial könnte man sich fast vorstellen, dass plötzlich etwas das Bottleneck lösen könnte, und man auf einen Schlag die Leistung auch abrufen könnte. Aber vermutlich nicht in der 7000er Generation von AMD.
Das, was Nvidia rein von der Leistung her mit der 4090 hinbekommt, ist de facto für Windowsnutzer überzeugender und nimmt man die Raytracing-Leistung hinzu, ist auch die 4080 etwas überzeugender als die 7900XTX, allerdings beim VRAM absolut nicht. Deshalb wär mir die 4080 auch so keinen Aufpreis wert. Und die 20% mehr Raytracing Leistung bei der 4080 sind allenfalls ausschlaggebend, wenn der Preis gleich wäre.

Tatsächlich ist das Problem von meiner Seite ganz einfach: Ich bin Linuxnutzer und benutze keinen Closed-Source Treiber. Deshalb kann ich für die Tensor Cores höchstens Beifall klatschen und hoffen, dass AMD oder Intel es in ihre GPUs früher oder später auch einbaut, denn die haben Open Source Treiber.
Edit: Bisher hatte ich nicht das Gefühl, einen Nutzen aus ihnen zu ziehen, aber ich sehe jetzt ein, dass sie für bestimmte Dinge eben doch recht nützlich sind.
 
Zuletzt bearbeitet:
Ironie? Traurige Wahrheit. Einen 4090-Konkurrenten kann AMD leider nicht bieten. Ich gehe davon aus, dass das in der nächsten Generation leider ähnlich aussieht.
AMD kann, will aber nicht.
Es war möglich einen 4090 Killer zu bringen, allerdings für nicht weniger Geld und noch höheren Stromverbrauch.
Eigentlich ist es doch gut, wenn man keine Grafikkarten für 4 Slots, 600 watt Stromstecker und dann auch noch 2000 Euro auf den Markt bringt.
Irgendwo hört der Spaß dann auf, und AMD war bei der Produktbesprechung sicher der Meinung, am Ende lohnt sich die Entwicklung für den zu erwartenden Markt dann nicht wirklich.
Wenn AMD die 7900er Karten als RDNA4 ordentlich modifiziert und optimiert, und dann die 4090 beim nächsten mal schlägt, dann reicht das generell schon aus.
Wichtig wäre halt, das das auch für Raytracing gilt.
Wenn das für rund 1000 Euro möglich sein sollte und man gleichzeitig nicht mit der Wattschleuder hantiert, dann wird das von den Kunden sicherlich gut aufgenommen.
Wer dann eine 5090 haben möchte, die eine Leistungs- udn 2 Preisklassen höher spielt, der würde vermutlich auch keine überdrehte Radeon kaufen, sei die auch nur 10 oder 20% langsamer.
Am Wichtigsten für AMD und deren Geschäft ist auf jeden Fall wie immer ein nicht nur konkurrenzfähiges Produkt für die große Menge an Käufern in den unteren Preisklassen für 300 und 500 Euro.
AMD hat völlig den Anschluss an Nvidia verloren bei Grafikkarten, schade.
Das stimmt so nicht.
Du solltest dich mal vorher informieren, bevor du solche Sachen von dir gibst.
Lies dich schlau, z.B. hier:


Intel kann nicht, AMD will nicht. Das ist ein kleiner, aber feiner Unterschied.
Es ist aus deren Sicht halt wenig sinnvoll, vor allem aber wohl auch nicht lukrativ genug, um die Kosten wieder reinzuholen und ordentlich Gewinn mit dem ganzen Aufwand zu haben.
Der Großteil der Leute kauft nämlich prinzipiell eher NVidia, die bringen meistens auch eher die Karten raus und haben eher neue Features, und dadurch holt man sich halt die Käufer udn den Umsatz.
Für AMD lohnt das Monate spätere Hinterhergehüpfe, um dann einigermaßen gleichzuziehen finanziell halt einfach nicht, weil der Markt dann auch schon schnell gesättigt ist.
NVidia hat klar den Vorteil durch mehr Umsatz, mehr Geld für Arbeiter und Entwicklung, zudem Einkäufe bei den Fertigern wie TSMC für die besten Stücke vom Kuchen.
Das alles ist aber weit von dem entfernt, dass AMD völlig den Anschluss verloren hätte, so Intel-mäßig^^.
AMD bekommt imerm noch gute Kritiken von unserem Raff und sogar Kaufempfehlungen, wenn natürlich auch der Preis dafür stimmt.
Solange dem so ist, ist alles völlig in Ordnung.
 
Zuletzt bearbeitet:
Das stimmt so nicht.
Du solltest dich mal vorher informieren, bevor du solche Sachen von dir gibst.
Lies dich schlau, z.B. hier:


Ja natürlich, wahrscheinlich wäre es auch möglich gewesen, mit einem Powertarget von 800w nochmal 30% aus der 4090 zu kitzeln, welche ja noch nicht mal der Vollausbau ist. AMD hängt einfach 2 Generationen hinterher, da interessiert auch keinen was wann wahrscheinlich irgendwie vielleicht möglich gewesen wäre. Aber das ist ja auch AMDs Ding. Meine nächste Grafikkarte kommt auf jeden Fall nicht mehr von AMD. Und dafür gibt es einige Gründe. Die reine Leistung ist nur einer.
 
Die 7970 war auf dem Papier High-End und GCN wurde unter anderem hier für seine Features gefeiert, war aber in Wirklichkeit der Sargnagel für AMD. Ich hatte damals beide Karten gleichzeitig, eine 7970 und eine aufgebohrte Nvidia-Mittelklasse aka GTX 680, und die 680 hat die 7970 überall zerlegt, mit kleinerem Die, weniger Transistoren, kleinerem Speicherinterface und weniger Verbrauch/Lautstärke.
Zerlegt ist übertrieben, aber es war der rundere Chip. Kleiner, meist schneller, weniger Verbrauch. Was auch daran lag, dass GCN1.0 viel Ballast mitgeschleppt hat, der eigentlich eher für einen Compute-Chip notwendig wäre, während RDNA dann von diesem Ballast befreit wurde und ein reiner Gaming-Chip wurde.
Ich habe eigentlich wohl eher sagen wollen es war das letzte Mal als man im Highend wirklich mitreden konnte/wollte.
Denn während die 680 die bessere/effizientere Wahl war, war man wenigstens ansonsten noch knapp bei der Musik, später auch nochmal mit der GHZ Edition, aber ab dann kam kaum noch was, nur noch über den Mehrverbrauch.
In diesem Benchmark sieht es aber nciht so aus als ob die 680 gewinnt.
Die Karten waren knapp beisammen, aber das ist als würde man sagen die Fury X ist genauso gut wie die 980 Ti.
Nvidia ist hier monate später mit einem kleineren, effizienteren Chip angetreten. Es ist sehr wahrscheinlich, dass man eigentlich was schnelleres geplant hatte, aber es dann nicht bringen musste. Stattdessen war AMD aber schon sichtlich am Limit und das war dann auch die Geburtsstunde wo Nvidia bemerkt hat sie können ja einfach über der xx80 Klasse noch was neues einführen und NOCH mehr Geld kassieren, denn der Enthusiastenbereich gehört ab dem Moment ihnen : Die TI und Titan waren geboren.
BIS zu diesem Zeitpunkt waren Karten recht "günstig". Performancekarten bis 200 €, danach fing schon Highend mit 300-400 an und "Enthusiast" ging halt bis ca 600. Aber AMDs GCN Weiterentwicklungen brachten nicht den gewünschten Erfolg und das Ergebnis kennen wir: Preiserhöhungen und neue Klassen über den bestehenden.
Nuallan hat schon recht, GCN war quasi der Anfang vom Ende, ich hätte es als letzten Versuch gesehen im Highend noch mitmischen zu wollen/können.
Die 7970 war halt einige Monate die absolut schnellste Karte, weil sie die erste im 28nm Prozess war. Aber seit Erscheinen der 680 ging das Feld nach und nach zu Nvidia und mit Maxwell war die Diskussion sowieso beendet.
Und wenn man sich dann das monolithische Design von RDNA 3 anschaut und mit Nvidia vergleicht muss man feststellen, dass die reine Architekturen was den Verbrauch betrifft nah beisamen liegen. Taten sie im übrigen auch schon bei der Generation davor, hätte Nvidia nicht die TDP angehoben.
Ich frage mal nach, bevor ichs falsch verstehe. Meinst du die Radeon 6xxx Serie vs die Geforce RTX 3xxx?
 
Zuletzt bearbeitet:
Deine Unwahrheiten kenne ich ja schon länger. Bleib mal lieber bei den Fakten. Ich sagte nirgends etwas von TSMC 10nm
Du sagst, der Prozess war so schlecht wie 10nm! 8nm war deutlich besser als der Standard 10nm, das war nicht so, ja er war schlechter, auch das bestreite ich nirgends, nur nicht soo schlecht wie du ihn machst.


Ich sprach von der 4090 und Du kommst mir mit dem XTX vs 4080 Vergleich. Schönes Bait&Switch.
Du bist so witzig,
Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung,
1000€ werden zu 1600 EUR? 200€ sind keine Differenz mehr ? Du machst dich mit deinen Aussagen einfach nur lächerlich, 20% sind also egal? Dann sag das Mal deinem Chef, dass du gerne bereit bist auf 20% zu verzichten und gleichzeitig 4% mehr Arbeit verrichtet, der wird sich freuen, wenn du aber 20% mehr willst und 4% weniger leistet, wird er dich wohl vor die Tür setzen.

Wenn 1000 = 1200 Eur sind, dann gute Nacht. Im übrigen liefert MF die XTX schon ab 949€, also ist eine RTX4080 21,07% teurer, für deutlich mehr als 4% weniger Rasterleistung.

Dennoch, auch das überliest du ja völlig, sehe ich die RTX als gute Karte, habe nur absolut kein Verständnis für die 4070Ti und drunter. Für 820€ ist das eine Frechheit, so gut wie die Karte ist, in Relation zum Preis ist dies lächerlich schlecht, dazu noch mit 12GB viel zu knapp bemessen. Die 4080 und die 4090 sind geile Karten
 
Sry, die Fury und die 980ti waren meiner Meinung nach 2 völlig unterschiedliche Klassen.
Da gab es das wirklich nie, dass die Fury schneller war.
Du sagtest ja selbst "Die 7970 war die letzte High End"

Außerdem gab es noch die
-7970 GHZ Edition-
Diese Karte war ~ 200 MHZ schneller, das war mein Modell und sie hat sehr oft gegen die 680 GTX
gewonnen.
Auch war die 680 schnell vom Markt verschwunden.
Einmal weil der Chip veraltet (kein DX11) und sie damit in neuen Games immer langsamer als die Konkurrenz war und 2. weil der Speicher zu klein war.

Ich habe es selbst erlebt und habe die Karte auf grund schlechter Leistung verkauft
Dem Käufer war auch nicht wirklich wohl bei der Sache 600 Euro auszugeben, ich vermute er hat sie auch bald weiter verkauft....
 
Zuletzt bearbeitet:
Zurück