RDNA 3 ist offiziell: AMD stellt Radeon RX 7900 XTX mit 24 GiB und 7900 XT mit 20 GiB vor

Wenn wir Pech haben sehen wir im Dezember eine 4090 für über 3K und eine 4080 für um die 2 K und eine 7900XT zwischen 1700-1800 Euro.
Bei der Inflation bin ich schon bei Dir, ist einer der Gründe, wieso ich überhaupt das erste mal bereit bin, mehr als 1k für eine Grafikkarte hinzublättern. Nach oben hin gibts aber bei mir eine natürliche Grenze:D
Bei der Strassenpreisentwicklung bin ich optimistischer, ich denke Nvidia steht bei der Produktion der 4090 gerade auf der Bremse, um noch den Ampere Überhang zu verkaufen, ich rechne mit einer Normalisierung spätestens Januar/Februar, vielleicht sogar schon vorher.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Bei der Inflation bin ich schon bei Dir, ist einer der Gründe, wieso ich überhaupt das erste mal bereit bin, mehr als 1k für eine Grafikkarte hinzublättern. Nach oben hin gibts aber bei mir eine natürliche Grenze:D
Bei der Strassenpreisentwicklung bin ich optimistischer, ich denke Nvidia steht bei der Produktion der 4090 gerade auf der Bremse, um noch den Ampere Überhang zu verkaufen, ich rechne mit einer Normalisierung spätestens Januar/Februar, vielleicht sogar schon vorher.
Nee, glaub ich nicht. Guckst du hier.


Das scheint mehr als ein Gerücht zu sein. Dafür gibt es eine ganze Menge Belege und gut informierte Kreise bestätigen das auch,

Die Frage ist und bleibt was macht AMD? Wie ist die Liefersituation und wieviel stopfen sich die Händler in ihre kleinen gierigen Taschen?

Ausserdem nimmt der "Überhang" gerade zügiger ab, als es vielen Lieb sein wird. Schau dir mal die Kurse für eine 3080TI/ 3090 an. Die steigen schon wieder und falls AMD nicht genug Produzieren kann, dann "gute Nacht Herrmann".

Im Grunde ist die RT Schwäche von AMD für alle eine einzige Katastrophe.

Egal was die Büttenredner hier im Forum zum besten geben.

Die 4090 wollen/können sich nicht allzu viele leisten. Desweitern ist der Abstand zwischen 4090 und 4080 ein echter Witz und viel zu groß.

Beim letzten Release war es der Ram der mich zur 3090 hat greifen lassen und diesmal der Leistungsabstand.

Was der Markt wirklich gebraucht hätte, wäre eine 7900er auf einem etwas höheren Leistungsniveau als eine 4080 aber in allen Bereichen. Das ganze zu einem Kurs von um die 1000 Euro und dann hätte man wirklich den Markt aufrollen können.

Stattdessen ist das Ding ein weiterer "Carton de Blamage", wie alles andere davor auch.
Sie hängen wieder komplett eine Generation hinterher und liefern eine RT- Leistung zwischen 3090/3090ti und ihre vermeintlich hohe Rasterizierungsleistung wird stark auf Kosten der Effizienz gehen, wie wir alle bald sehen werden.

Zu allem Überfluss passt im Zweifelsfall zwischen eine 4080 und eine 4090 zur Not noch eine 4080S und eine 4080Ti
und mit einer 4090 Ti könnte NV AMD wahrscheinlich die nächsten 4 Jahre in Schach halten.

Ich hoffe nur, das sie aufgrund des moderneren Designs beim nächsten mal gleichziehen oder sogar mal einen Schritt voraus sind. Diesmal zahlen sie vielleicht nur Lehrgeld.

Was ein so dominanter Markteilnehmer bedeutet sehen wir bei NV ja an der Ladenkasse.
 
Zuletzt bearbeitet von einem Moderator:
Du machst schon wieder den selben Fehler.
nein. Du machst einen Fehler. Du hast immer noch nicht verstanden, was ich sage, aber behauptest schon wieder IRGENDWAS.

Du kaufst selbst 200€ Karten und bist irgendwann bei 500€+ so weit, dass du nur noch das Beste kaufen würdest.
äh nein. Aber das ist auch wieder was, was du erfindest.

Aber dann reicht die 7900 nicht, dann reicht die 4090 nicht für Content Creator und am Ende stehst du mit einem Budget von 200€ bei der Quadro. Sehe es doch ein, dass 800€ Preisunterschied eine Menge Geld ist!
HÄ das war doch nie die Frage. Ich bin ziemlich gut in Mathe "und so...", ich hab Mathe schließlich auch studiert.
Aber was du daherredest, hat nichts damit zu tun.
Es geht um absolute Unvernunft. Wer das Hobby weit genug oben anstellt und/oder Geld hat, einfach irgendeinen Betrag auszugeben, für den sind solche Probleme nebensächlich.
Würde ich extrem unverhältnismäßig leben, würde ich eben nicht die 1300€ Karte kaufen die mir nicht alles bietet. Wenn ich schon weiß, dass ich zu viel für was ausgebe, dann gleich das Beste - oder nichts.

Ich kenne sehr viele Content Creator die es beruflich oder nebenberuflich machen und da war eine Karte wie eine 3090 ein Segen. Für "wenig" Geld 24GB, starke Performance bei den Adobe Produkte, Streaming und Co. und gleichzeitig eine tolle Gaming-Grafikkarte.
Ja und weiter?
Keine Ahnung warum du die 3090/4090 nur rein für Gamer siehst.

WTF wo schreibe ich das???
Die NÄCHSTE Erfindung deinerseits. Gehts eigentlich nicht ohne??
Es gibt viele gute GPUs für verschiedene Einsatzzwecke. DU warst derjenige, der einzelne GPUs an einzelne Zwecke gebunden sah. Wach mal auf, weniger Schwarz-Weiß, ein bisschen mehr Realität...
Übrigens hat Nvidia das auch genau so vermarktet. Für reine Spieler nehme ich lieber die 3080, 10% weniger Leistung und spare viel Geld, einfach weil die Spiele keine 24GB brauchen.
die 3080 hat 10% weniger Leistung als die 4090? Hä?

Ist das nun "deine Logik?"
Wtf?
Das scheint mehr als ein Gerücht zu sein.
weil du es so möchtest?

Dafür gibt es eine ganze Menge Belege und gut informierte Kreise bestätigen das auch,
welche. Nenne sie bitte, außer der "News"?
Desweitern ist der Abstand zwischen 4090 und 4080 ein echter Witz und viel zu groß.
ich finde es ist das allererstme Mal seit vielen Jahren, dass der Aufpreis gerechtfertigt ist...
Sonst sinds 10-15% bei extrem viel Aufpreis
Jetzt sinds theoretisch 65%
Ich finde da macht man es ausnahmsweise richtig.

Zu allem Überfluss passt im Zweifelsfall zwischen eine 4080 und eine 4090 zur Not noch eine 4080S und eine 4080Ti
und mit einer 4090 Ti könnte NV AMD wahrscheinlich die nächsten 4 Jahre in Schach halten.
Es passt einiges dazwischen.
Auch eine schnellere AMD Karte. Denn dank MCM ist es ja auch möglich einen größeren Chip nachzuliefern, während der Rest gleich bleibt.
Und sei es ein 3 Ghz Chip oder ein deutlich größerer.
Was AMD natürlich langfristig braucht ist ordentlich flotten RT Support.
AMD Fans werden das dann plötzlich feiern mit "siehste, die bringen das halt erst wenn es wirklich notwendig ist!"

Was RT Performance betrifft ist ja Intel ganz gut dabei, mal schauen was Battlemage und Co liefern.
 
Zuletzt bearbeitet:
Nee, glaub ich nicht. Guckst du hier.


Das scheint mehr als ein Gerücht zu sein. Dafür gibt es eine ganze Menge Belege und gut informierte Kreise bestätigen das auch,
Nvidia weis wo man das richtige Geld macht, das sollte schon klar sein.
Die Frage ist und bleibt was macht AMD? Wie ist die Liefersituation und wieviel stopfen sich die Händler in ihre kleinen gierigen Taschen?

Ausserdem nimmt der "Überhang" gerade zügiger ab, als es vielen Lieb sein wird. Schau dir mal die Kurse für eine 3080TI/ 3090 an. Die steigen schon wieder und falls AMD nicht genug Produzieren kann, dann "gute Nacht Herrmann".
Das ist schon seid Wochen bekannt, bei den tiefstpreisen waren wir schon angelangt. Jetzt geht es wieder nach oben.
Im Grunde ist die RT Schwäche von AMD für alle eine einzige Katastrophe.
Naja Schwäche und Katastrophe ist da eher der Nvidia stromadater sowie die mangelhafte Verarbeitung (Lüfter etc.) bei Karten die über 2k kosten.
RT ist nicht alles!
Egal was die Büttenredner hier im Forum zum besten geben.

Die 4090 wollen/können sich nicht allzu viele leisten. Desweitern ist der Abstand zwischen 4090 und 4080 ein echter Witz und viel zu groß.
Man sieht das du keine Ahnung hast, dank scalpen & co können sich sehr viele eine 2k Karte leisten. Sogar so gut das die mehrere Karte gleichzeitig bestellen können und dazu noch selektieren. Genau das zeigt aktuell mit was für Qualitätsmängel Nvidia und die boardpartner zu kämpfen haben. Wünsche mir mal einen Launch ohne dieser Probleme.
Beim letzten Release war es der Ram der mich zur 3090 hat greifen lassen und diesmal der Leistungsabstand.

Was der Markt wirklich gebraucht hätte, wäre eine 7900er auf einem etwas höheren Leistungsniveau als eine 4080 aber in allen Bereichen. Das ganze zu einem Kurs von um die 1000 Euro und dann hätte man wirklich den Markt aufrollen können.
Lass die Karte erstmal das Licht der Welt erblicken, erst dann darfst du dich wieder mit solchen phantasien hier melden!
Stattdessen ist das Ding ein weiterer "Carton de Blamage", wie alles andere davor auch.
Sie hängen wieder komplett eine Generation hinterher und liefern eine RT- Leistung zwischen 3090/3090ti und ihre vermeintlich hohe Rasterizierungsleistung wird stark auf Kosten der Effizienz gehen, wie wir alle bald sehen werden.
Wieder einer Generation hinterher?
Also wenn ich mir rdna2 angucke sehe ich Gleichstand, rt mal außen vor gelassen.
Dein Nick solltest du besser in un… optimieren.
Zu allem Überfluss passt im Zweifelsfall zwischen eine 4080 und eine 4090 zur Not noch eine 4080S und eine 4080Ti
und mit einer 4090 Ti könnte NV AMD wahrscheinlich die nächsten 4 Jahre in Schach halten.
Denk an die Dual-Karte die noch kommen könnte!
Ich hoffe nur, das sie aufgrund des moderneren Designs beim nächsten mal gleichziehen oder sogar mal einen Schritt voraus sind. Diesmal zahlen sie vielleicht nur Lehrgeld.
Das wünscht du dir nicht wenn du ehrlich bist!
Was ein so dominanter Markteilnehmer bedeutet sehen wir bei NV ja an der Ladenkasse.
Naja das Problem sitzt ja weiterhin vor dem Bildschirm.

Was mir noch dazu einfällt das du ja so enttäuscht bist von der amd Präsentation, was nehmen wir denn positives aus der Nvidia Präsentation mit?
Also hängengeblieben ist bei mir dlss 3.0 und 2-4x Leistung zum Vorgänger. Letzteres sehe ich ehrlich gesagt nirgends. Außer vllt mit dlss3.0 was irgendwann mal die nächsten Jahre in ein paar Spielen integriert wird. Da du ja auch einer bist der ohne rt nicht überlebensfähig ist, brauchst du da bestimmt auch keine dlss3.0 oder? Bei der brachialen Leistung hast du ja auch genug Power bzw. deine Karte. Auch wird ja immer so getan als ob die Karte mit nur rund 330w im Schnitt läuft, wenn die Karte voll ausgereizt läuft dann brauch die auch im Schnitt ihre 450w durch die Bank. Ich wünschte mir Nvidia hätte die Karte mit 600w gebracht. :banane:
Glaube das hätte uns hier viel Quark erspart.
Aber wer weis ne ti/Titan kommt ja zum Jubiläum, Denke da könnte dann doch noch was werden.
 
Zuletzt bearbeitet:
Das spannende wird die aktuelle gpu-Gen von AMD/NV werden. Denke Frühling/Sommer 23 wirds die zu sehr guten Preisen geben. Wenn ich umrechne dass eine RX7900xt ca. 70%schneller als eine RX6900xt ist und diese irgendwas um die 1000€ kosten wird. Dann könnte man man die RX6900XT für 500€ oder weniger bekommen. (Älter Generationen sind eh nochmal günstiger im Normalfall). Danm werden die Miner nix kaufen. TSMC hat schon gesagt dass die Chipnachfrage aktuell sehr gering ist. Also 2023 könnte das Jahr werden in dem es massenhaft alte+neue gpu's gibt und wenig Nachfrage. Wer jetzt cool bleibt und abwarten kann wird nächstes Jahr vielleicht mit Hammer-GPU-Preisen belohnt.
 
Das spannende wird die aktuelle gpu-Gen von AMD/NV werden. Denke Frühling/Sommer 23 wirds die zu sehr guten Preisen geben. Wenn ich umrechne dass eine RX7900xt ca. 70%schneller als eine RX6900xt ist und diese irgendwas um die 1000€ kosten wird. Dann könnte man man die RX6900XT für 500€ oder weniger bekommen. (Älter Generationen sind eh nochmal günstiger im Normalfall). Danm werden die Miner nix kaufen. TSMC hat schon gesagt dass die Chipnachfrage aktuell sehr gering ist. Also 2023 könnte das Jahr werden in dem es massenhaft alte+neue gpu's gibt und wenig Nachfrage. Wer jetzt cool bleibt und abwarten kann wird nächstes Jahr vielleicht mit Hammer-GPU-Preisen belohnt.
Naja warten kann man immer, die Frage ist nur muss man es? Denke nicht. Aktuell gibts gute Karten zu guten Preisen der alten Generation. Viel Günstiger wird es nicht wirklich werden.
Ich kaufe mir eine „neue“ Karte wenn ich eine brauche oder haben möchte. Kaufe so viele Karten, aber das ist ein anderes Problem.
 
HÄ das war doch nie die Frage. Ich bin ziemlich gut in Mathe "und so...", ich hab Mathe schließlich auch studiert.
Aber was du daherredest, hat nichts damit zu tun.

Bisher sind mir nur Mathematiker begegnet, die beim Thema "Logik" sehr gut waren... du scheinst aber einfach Recht haben zu wollen. Im Spoiler eine ganz simple Logikkette:

Ich: Habe den Preisunterschied von ~800€ angeführt und die 7900 im Gegensatz zur 4080/90 gelobt in diversen Punkten. Dazu sind eben 800€ viel Unterschied! Das war der simple Startpunkt wo du jedes mal angefangen hast zu widersprechen.

Du: Machst bei dem Preisunterschied keinen Unterschied mehr
Rollora schrieb:
Aver WENN ich mir eine völlig überteuerte Karte kaufe, dann due deutlich schnellere mit mehr Features und Zukunftssicherheit.

Ich: Habe darauf hingewiesen, dass die 4090 (und damals die 3090) vor allem toll und "günstig" war für Content Creator und als reine Gamer Karte eben gerade bei der 3080/3090 häufig keinen Sinn gemacht hat.

Du:
Rollora schrieb:
Beruflich nutze ich höchstens ne Quadro btw

Ich: Keine Ahnung warum du die 3090/4090 nur rein für Gamer siehst.

Du:
Rollora schrieb:
WTF wo schreibe ich das???
Die NÄCHSTE Erfindung deinerseits. Gehts eigentlich nicht ohne??


Sorry, vielleicht war meine Schlussfolgerung einfach nicht richtig und du willst mit deinen Antworten gar nichts suggerieren. Aber wenn du mich zitierst und dann schreibst, dass du beruflich höchstens eine Quadro verwendest, dann dekradierst du die 4090 eben zur Gamerkarte only.

Back to Topic:
Bin gespannt auf die ersten Praxis-Tests. Die Karte macht bis auf Raytracing scheinbar alles besser als Nivida und selbst da scheint ja eine 3090 Performace vorhanden zu sein.
 
Das habe ich ja selbst vermutet und am Ende geschrieben. Trotzdem triggert es hart, wenn er so gegen die 7900 schießt, dass Preisargument von 800€ nicht anerkennt und auf meine Antwort, dass die 3090/4090 eine tolle Karte für Content Creator ist, einfach nur antwortet, dass man beruflich nur eine Quadro nutzen kann. Natürlich intepretiere ich da herein, dass dann eben diese Karten only Gamer Karten für ihn sind.

Daher auch mein "sry" und "back to topic". Ist irgendwie auch die Zeit zu Schade für. Geht hier schließlich um die 7900 Karte von AMD. :)
 
Bisher sind mir nur Mathematiker begegnet, die beim Thema "Logik" sehr gut waren... du scheinst aber einfach Recht haben zu wollen.
ums mal anders zu versuchen: nein, das war nicht meine Intention. Denn es gab da schlichtweg nichts zum Recht haben - wir haben uns nicht verstanden. Das passiert leider manchmal, vor allem bei schriftlicher Kommunikation.
Ich versuche es nochmal anders zu formulieren.
Mein GPU Kaufbereich (preislich) lag immer bei etwa 200€ (Radeon X800XL, HD 5850, 6870, Geforce 1060- das wären jetzt wohl schon 400-500 oder so, wegen der Preiserhöhungen). Das ist so mein "Vernunftrahmen"
Wenn ich jetzt aber 1x "crazy" sein möchte und mir einfach mal das beste kaufen möchte, ist es mir schon egal ob ich 1300 oder 2000€ zahle, also ob ich das 6x oder 10x zahle, weil ich sowieso schon unvernünftig handle.
Natürlich gilt dein Argument, 700€ sind viel Geld. Ich glaube nur, wer jenseits von 1000€ für eine GPU ausgibt, den kümmern die zusätzlichen hunderter weniger. Zumindest mich würden sie dann nicht kümmern.
Ich persönlich stecke jeden Cent in was anderes, bin bei PC Hardware recht pragmatisch: ich kaufe fast nur, wenn was nicht mehr funktioniert. Und dann gehe ich so vor: ich schau mir die Produkte in einem Preisbereich an, sowie die knapp darüber und darunter. Ich schau mir an, ob die Balken und Features bei den anderen Produkten tatsächlich so viel "besser" sind, oder ob ich das merken würde. 20-30% schneller merkt man meist nicht, aber gerade der Unterschied lässt sich "ganz oben" oft gut bezahlen: eine 3090 (ti) war jetzt nicht atemberaubend schneller als die 3080, aber preislich schon ziemlich abgehoben.
Die 4090 sehe ich hier übrigens als willkommene Abwechslung, die dürfte tatsächlich nochmal ordentlich oben drauf legen.
Für mich ist das noch nicht relevant, hab mir gerade wieder eine Wohnung gekauft die dann mal den Kindern gehören wird. Falls irgendwann mal alle abbezahlt sind, ich also schuldenfrei bin, kann ich mir ja irgendwas total schwachsinniges kaufen. Obs nun ein Porsche wird oder eine 2000€ Grafikkarte ist dann egal. Gerade im Anbetracht des Porsches wären die 1300 oder 2000€ dann ja wirklich irrelevant.

Das meinte ich halt irgendwie auch: bei Luxusgütern redet man (oft, aber nicht immer) eigentlich nicht mehr über den Preis, man kauft sie ja nicht weil man sie sich zusammenspart. Manche kaufen sich sinnlos teure Uhren. Die zeigen auch nur die Zeit. Manche kaufen sich sinnlos teure Handy, Autos usw. oder eben GPUs.

Ich: Keine Ahnung warum du die 3090/4090 nur rein für Gamer siehst.
Da möchte ich einhaken: ich sehe die Geforce nicht nur bei Gamern, und ich sehe sie eben nicht nur bei Content Creatoren.
Ich kenne einige, die sich das Ding sofort holen werden, weil sie eben 4K/HDR/144+ FPS /RT usw usf mit allem drum und dran spielen wollen, vielleich sogar mehrere Bildschirme.
Wer Geld für Bildschirme ausgibt die 1000€ kosten, während es gute natürlich auch schon um 300 gibt, dann kauft sich so ein jemand auch möglicherweise die beste GPU.
Content Creators gibtst ja verschiedene "Klassen". Ich selbst bin keiner, aber ich arbeite in der Wissenschaft, bei uns zählt Zuverlässigkeit. Aber ich kenne einige die die Geforce fürs Spielen haben wollen, andere, die damit wohl rendern und Co. Nvidia hat in manchen Bereichen (abseits des Spielens) was die Treiber betrifft ja nach wie vor die Nase vorne und ich denke da sind dann ein paar Hunderter zusätzlich auch schon egal.
Beruflich ist Zeit wohl Geld. Ich selbst bin da mit meinen ATIs mal verzweifelt, das war aber ein kleines Projekt fürs Studium: beim Rendern von CGI Eiswürfeln ist nach 20h ca immer wieder die GPU abgeschmiert. Das war allerdings auf einer Radeon. Also immer nach fast 1 Tag warten obs nun fertig wird. Deadlines rückten näher usw usf. hab ichs beim Kollegen rendern lassen.
Aber das ist eine für diese "Diskussion" eine völlig irrelevante Geschichte.

Sorry, vielleicht war meine Schlussfolgerung einfach nicht richtig und du willst mit deinen Antworten gar nichts suggerieren.
Jedenfalls wollte ich dich nicht triggern, sondern meine Meinung über den Unvernunft von Preisen jenseits einer gewissen Marke kundtun.

Aus altruistischen Gründen werde ich dennoch keine 2000€ oder 1000€ Grafikkarte kaufen wollen, denn ich will eine solche Preisgestaltung gar nicht fördern.
Glaubt man aber dem PCGH Thread unter dem Test der 4090, dann ist sie für viele interessant.

Sorry, dass wir unnötigerweise Emotionen austauschen mussten und ich dich getriggert hab, war nicht meine Absicht. Ich hätte wohl selber auch ruhiger agieren können, mir wurden hier aber schon oft Dinge in den Mund gelegt, die ich so nicht gesagt/geschrieben/gemeint habe um mich dann anschließend zu beleidigen...

Aus der Sicht eines Ingenieurs muss es aber geil sein so ein Ding auf den Markt zu bringen. Also so etwas wie die GH100 oder die GA102, in der man nicht kleckert sondern klotzt und einfach das maximal mögliche realisiert.
 
Zuletzt bearbeitet:
Nvidia weis wo man das richtige Geld macht, das sollte schon klar sein.
Das ist unbestritten. Hat aber mit den Fakten nichts zu tun.

Das ist schon seid Wochen bekannt, bei den tiefstpreisen waren wir schon angelangt. Jetzt geht es wieder nach oben.
So ist es.

Naja Schwäche und Katastrophe ist da eher der Nvidia stromadater sowie die mangelhafte Verarbeitung (Lüfter etc.) bei Karten die über 2k kosten.
Keine Frage, wer sollte das in Zweifel stellen.

RT ist nicht alles!
Stimmt aber ohne RT ist alles nichts.

Man sieht das du keine Ahnung hast, dank scalpen & co können sich sehr viele eine 2k Karte leisten. Sogar so gut das die mehrere Karte gleichzeitig bestellen können und dazu noch selektieren. Genau das zeigt aktuell mit was für Qualitätsmängel Nvidia und die boardpartner zu kämpfen haben. Wünsche mir mal einen Launch ohne dieser Probleme.
Was ist das denn für eine Argumentation? Weil sich soviele eine solche Karte leisten können heulen hier auch alle rum?

Fällt gerade ziemlich schwer bei deinem Ton und deiner Argumentation dich ernstzunehmen.

Lass die Karte erstmal das Licht der Welt erblicken, erst dann darfst du dich wieder mit solchen phantasien hier melden!
Wäre mir neu das ich dich fragen müsste, wann und wo ich mich mit welchen Phantasien zu melden habe. Aber du darfst gerne Abbitte leisten wenn die Karten denn da sind.

Wieder einer Generation hinterher?
Also wenn ich mir rdna2 angucke sehe ich Gleichstand, rt mal außen vor gelassen.
Dein Nick solltest du besser in un… optimieren.
Mach dir mal keine Sorgen um meinen Nick. Alles was Fortschritt bedeutet heist zu meinem Leidwesen NVDIA. Genau wie eine 7900er mit einer 3090 konkurriert, hat sich eine 6900er mit einer 2080s in RT geprügelt. Klar, wenn du alles relevante ausblendest ist ein Trappi fast genauso gut wie ein Polo. Du must nur ganz fest dran glauben.

Denk an die Dual-Karte die noch kommen könnte!
Ja wo ist sie denn? Und wann kommt sie.

Das wünscht du dir nicht wenn du ehrlich bist!
Nur weil du offenkundig nicht zu diferrenzierten Betrachtungen Fähig bist, musst du das nicht anderen unterstellen. Von dieser NV Dominanz profitiert niemand ausser NV


Naja das Problem sitzt ja weiterhin vor dem Bildschirm.
Das tut es meistens.

Was mir noch dazu einfällt das du ja so enttäuscht bist von der amd Präsentation, was nehmen wir denn positives aus der Nvidia Präsentation mit?
Also hängengeblieben ist bei mir dlss 3.0 und 2-4x Leistung zum Vorgänger. Letzteres sehe ich ehrlich gesagt nirgends. Außer vllt mit dlss3.0 was irgendwann mal die nächsten Jahre in ein paar Spielen integriert wird. Da du ja auch einer bist der ohne rt nicht überlebensfähig ist, brauchst du da bestimmt auch keine dlss3.0 oder? Bei der brachialen Leistung hast du ja auch genug Power bzw. deine Karte. Auch wird ja immer so getan als ob die Karte mit nur rund 330w im Schnitt läuft, wenn die Karte voll ausgereizt läuft
Das zum Thema " Keine Ahnung". Die meisten halten es für Schwachsinn einen 144 Hertz Moni mit 250 Frames laufen zu lassen. Meine Karte läuft im Schnitt mit meinem 3440 x 1440 Moni und 144 FGrames mit 65 Prozent. Da braucht sie noch nichtmal 300 Watt Wenn ich sie frei drehen lasse liegen zwischen einer 75-85 Prozentigen und einer 100% Stromauslastung minimalste Leistungsunterschied. guckst du hier.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Also beschäftige dich erstmal mit dem Thema bevor du deine Fachkenntnisse hier zum Besten gibst.

dann brauch die auch im Schnitt ihre 450w durch die Bank. Ich wünschte mir Nvidia hätte die Karte mit 600w gebracht. :banane:
Glaube das hätte uns hier viel Quark erspart.
Aber wer weis ne ti/Titan kommt ja zum Jubiläum, Denke da könnte dann doch noch was werden.
Das glaube ich dir, das du dir das wünscht. Aber es wird dir nicht helfen dabei zu sehen, das die Effizenz der 4000 Serie deutlich über der von AMD liegt.


Desweiteren und das nur am Rande war der Beitrag eine Antwort auf Mindovermatter.
 
Zuletzt bearbeitet von einem Moderator:
@ unrealitiy
Ich denke ich lasse es mit dir zu schreiben, aktuell gibts es nichts handfestes. Ab dem 13.12.22 können wir ja gerne hier weiter diskutieren, dann macht es erst wirklich Sinn. Bis dahin sind es nur wünsche und Vermutungen von uns beiden.
 
Jo genau, 6 von 100k heißt "keiner lastet die mehr aus weil sie kokeln". Wobei die Karte ja in der Regel so gut wie nie 450W zieht. :lol:
Die meisten sind ja garnicht in der Lage die Karte richtig auszufahren! Dazu kommt das die Angst aktuell gegenwärtig ist, deshalb gibst bald eine Fire-Edition mit nem 2kg Feuerlöscher!:lol:

Edit
Jetzt geht’s in die nächste Runde und die atx3.0 Netzteile schmilzen auch dahin, oh man was für ein fail! Gut bei den Usern die hier vertreten sind kann ja nichts passieren, die sind Safe!

Ich bin mal gespannt wie Nvidia ihre 4080er an den man bekommen will, amd hat die 12gb Variante schon vorm Launch eliminiert. Die 16GB Version wird kein Land sehen das sollte schon jedem klar sein. Das amd bei der Präsentation schon sehr tief gestapelt hat liegt genauso auf der Hand.
 
Zuletzt bearbeitet:
Die meisten sind ja garnicht in der Lage die Karte richtig auszufahren! Dazu kommt das die Angst aktuell gegenwärtig ist, deshalb gibst bald eine Fire-Edition mit nem 2kg Feuerlöscher!:lol:

Ich bin mal gespannt wie Nvidia ihre 4080er an den man bekommen will, amd hat die 12gb Variante schon vorm Launch eliminiert. Die 16GB Version wird kein Land sehen das sollte schon jedem klar sein. Das amd bei der Präsentation schon sehr tief gestapelt hat liegt genauso auf der Hand.
Bin mal gespannt, eigentlich lässt sich der von NV anvisierte Preis so kaum halten. Selbst die RT Leistung der 4080 dürfte nicht wirklich deutlich über einer 3090 liegen.

In 10 Tagen ist ja Relase der Karte,bin mal gespannt was die Tests sagen.
 
@ unrealitiy
Ich denke ich lasse es mit dir zu schreiben, aktuell gibts es nichts handfestes. Ab dem 13.12.22 können wir ja gerne hier weiter diskutieren, dann macht es erst wirklich Sinn. Bis dahin sind es nur wünsche und Vermutungen von uns beiden.
So machen wir das. :bier:
Die meisten sind ja garnicht in der Lage die Karte richtig auszufahren! Dazu kommt das die Angst aktuell gegenwärtig ist, deshalb gibst bald eine Fire-Edition mit nem 2kg Feuerlöscher!:lol:
Das ist mal eine gelungen Punktlandung für dich. Ich musste echt lachen. Aber in der Tat, da ist was wahres dran.


Ich bin mal gespannt wie Nvidia ihre 4080er an den man bekommen will, amd hat die 12gb Variante schon vorm Launch eliminiert.
Da bin ich ehrlicherweise auch gespannt. Im Verhältnis ist die 4090 ein echtes Schnäppchen. Und je nach Verkaufspreis die 7090 auch.

Die 16GB Version wird kein Land sehen das sollte schon jedem klar sein. Das amd bei der Präsentation schon sehr tief gestapelt hat liegt genauso auf der Hand.
Ähem, mit den Vermutungen wollten wir doch aufhören.

Was aber nicht heisst, das du nicht Recht haben könntest. Ehrlicherweise und auch wenn du das nicht glaubst.

Ich würde mir das sogar für uns alle wünschen. Allein mir fehlt der Glaube.

Wir werden sehen.
 
Zurück