News Grafikkarte kaufen: AMD sticht Nvidia bei Mindfactory nun komplett aus

Die 7900 xt zieht 315 Watt, dein 3900 105 Watt, für den Rest nochmal ca. 100, dann bist du bei etwa 520 Watt bei Volllast. Das müsste ein gutes Markennetzteil also packen. Passieren kann bei einem Markennetzteil nichts, außer dass der Rechner instabil wird.
Oder besagte Marke Gigabyte heißt :devil:
nVidia bleibt eigentlich nur noch für RT Fans interessant.

Für den Rest führt an AMD eigentlich kein Weg vorbei.

Die RX 6xx0 Reihe kommt mittlerweile in attraktiven Preisbereichen an.
Dort ist nVidia quasi überhaupt nicht konkurrenzfähig.
Und im Top End ist die Speicherausstattung bei AMD einfach super.
Einzige Ausnahme ist mittlerweile besagte 3060 (die originale mit 12GB)
Während die 6600 XT/6650 XT mehr Leistung für ähnliches Geld liefern haben sie eben nur 8GB. Da überleg ich mir auch Nvidia. Aber sonst ist wirklich nur die 4090 interessant da konkurrenzlos.
gut zu wissen, stream selber nich und nach kurzem googlen scheint das mitlerweile wirklich nur noch n altes Hörensagen zu sein.
Und genau das ist ein Problem durch die Bank bei AMD/Nvidia Diskussionen.
 
Es ist gut wenn AMD mehr Karten verkauft, eventuell senkt Nvidia die Preise um gegenzuhalten.
Für mich gibt es zu Nvidia keine Alternative. NVenc ist immer noch zu gut und AMD hinkt da 2 Generationen hinterher. Raytracing ist nice2have und man nimmt es mit. Und da Ich mich nach einem 4K 240Hz Monitor umsehe (bzw UWQHD mit ebenfalls 240Hz) ist die Leistung wichtig und da gibts nur die 4090, alles darunter ist als Besitzer von einer 3090 uninteressant. DLSS usw. interessiert mich weniger, da setze Ich eher auf leicht reduzierte Details und schnellere Hardware, auch wenns brauchbar aussieht und gute FPS liefert - es gibt noch n bissl was zu meckern.
Und ein einziger Shop, auch wenns riesig ist - es ist keine Marktanalyse, Nvidia verkauft die Karten wie bescheuert, vor allem die 4090 weil eben das beste Produkt aufm Markt. Und die Preise sinken langsam.
P.S. es gibt noch das VRAM-Drama da die kleineren Nvidia Karten mit entsprechend kleinerem VRAM kommen und es bei einigen Spielen bereits klemmt. 8GB reichen nicht, 10GB sind knapp ausreichend für heute und bald nicht mehr. AMD hat da einen leichten Vorteil bei der Mittelklasse.
 
Eine MPT optimierte 6900XT lag weit vor einer 3090 im Raster.
Definiere weit.

Du hast keine Lust dich Ewigkeiten mit dem Treiber und Bugs rumzuärgern? -> Nvidia
Ich sag nur DPC und Error occurred on GPUID: 100, beides geht Hand in Hand. Seit dem 22H2 Update ein großes Problem und Nvidia ignoriert es gekonnt. Die erhöhte Latenz taucht inzwischen zwar endlich bei den bekannten Problemen auf, ob und wann was passiert ist aber mehr als fraglich. Mich plagt der Fehler seit Monaten und es nervt nur noch inzwischen, versucht habe ich schon so ziemlich alles erdenkliche. Und nein, es liegt nicht an irgendeinem OC.

Die Treiber beider Hersteller sind weit davon entfernt perfekt zu sein, also lass den Nonsens einfach bleiben.
 
Zuletzt bearbeitet:
Finde ich gut, Nvidia muss die Preise senken. Es kann nicht sein, dass eine RTX 3080 700€ gekostet hat und für eine RTX 4080 nahezu das doppelte verlangt wird.
Erstens bekam man eine RTX 3080 quasi nie für 700 Euro und zweitens ist an dem hohen Preis der 4080 ganz allein AMDs schwache Generation verantwortlich.
Nvidia hatte für die Karte früher eher 899 oder 999 Euro angepeilt, weil sie davon ausgingen, dass die 7900XTX nur 10% unterhalb der 4090 herauskommt.
Das ist nicht verhältnismäßig. Dann kann man sich gleich eine RTX 4090 kaufen.
Das Preisleistungsverhältnis ist bei der 4080 dennoch tendenziell besser.
 
Aha nach deiner Theorie müsstet du also Porsche Fahren weil es ja nur logisch ist sich immer das leistungsstärkste zu kaufen.

Ich spiele selber mit dem Gedanken mir eine 4090 zu kaufen, finanziell ist es drin aber Moralisch nicht.
Letztendlich bin ich mit beiden Lagern im Moment nicht im reinen, auch weil meine 6900XT noch ausreicht.

Ich denke eine 4080Ti oder 4090Ti wird nochmal etwas Bewegung in den markt bringen.
Rechne auch damit das AMD diesmal vor NVIDIA die next gen einläutet also ende Mitte bis ende 2025
RNDA 4 wird vermutlich ein guter Wurf was man so hört.
Fahre einen BMW M2.
Aber einen Aufpreis von 500 Euro bei Grafikkarten gegen mehre tausend Euro bei einem Auto zu vergleichen ist ein Unterschied. ?. Aber laut Logic hast du recht.
4K spielen ist reiner Luxus.
3 tausend für meinen Monitor. 5 tausend für den Computer. Vor 3 Jahren hab ich genau 50 Prozent gezahlt für die gleiche Leistung.
Aber ich bin da voll bei dir. Die Preise sind krank und es wird noch schlimmer werden.
Zur Zeit ist die 4090 gut runter gegangen. 1600 ist doch mal gegen 2000 plus ein guter Weg. Wie du sagtest sobald die Titan oder 4090ti bzw 4080ti kommt wird sich noch mehr tun.

Hatte vorher eine 2080ti nun eine 4090 der Unterschied ist krank genau so wie der Preis.
Man kann sich über die Preise aufregen.
Aber kann mich nicht zurück erinnern.. ob es jemals zwischen den Versionen so eine Leistungssteigung gab.
 
Die schnellste Karte war schon immer die teuerste und somit nur für Randgruppen. Zähle ich also nicht als Argument.


Das ist 3x das gleiche. Dir fällt also selbst schon auf, dass nur der Preis aktuell für AMD spricht.


Naja, FSR ist schon ganz gut, aber DLSS ist halt nochmal ne Klasse besser und gerade Frame Generation ist ein Gamechanger, wenn es richtig implementiert wurde und sauber arbeitet.


CUDA würde ich nicht als Nische bezeichnen, aber ja, genau das meine ich.


Meiner Erfahrung nach weist der AMD Treiber mehr Bugs auf und es dauert auch länger, bis sie gefixt werden.
In meinem Bekanntenkreis machen viele genau deshalb einen Bogen um AMD.


Genau das meine ich aber. Keine Software ist Bugfrei, auch nicht von Nvidia und das hat auch niemals irgendjemand behauptet, aber bei AMD ärgert man sich häufiger und länger mit Fehlern rum.
1. Es spricht nicht nur der Preis für AMD
2. FSR ist absolut Gleichwertig mit DLSS, siehe letzten Tests... DLSS 3.0 warten wir was AMD bringt, ist jetzt wohl kaum wichtig bei der Anzahl Spiele
3. Cuda, wer braucht das normalerweise?
4. Treiber, schwachsinn
 
Hab auch nichts anderes behauptet aber die 4090 ist nun mal für 99% der Leute ziemlich egal. Klar wer das schnellste will kommt um Nvidia nicht herum aber wie viele wollen das auch schon?
Sie ist auf Platz 3 der Top-10 Produkte bei Geizhals. Also scheinbar nicht so wenige?

Und du hast nicht verstanden das das eine Anspielung darauf ist das du Verbrauch und Effizienz als 2 Punkte aufführst. Daher auch der zusätzliche Satz mit Smiley
Es sind ja auch zwei Punkte. Die Effizienz gibt der Verbrauch im Verhältnis zur Leistung an. Es gibt User, die sich ein Limit beim Verbrauch setzen und welche, denen Effizienz wichtig ist.
Du hast 3x "Preis" mit anderen Worten beschrieben.

DLSS ist besser aber ich würde nicht sagen das das eine Klasse unterschied ist. Frame Generation verstehe ich überhaupt nicht, was soll ich mit zusätzliche Frames die die Reaktion nicht verbessern und eigentlich auch nur gut funktionieren wenn ich bereits 60-80 FPS habe.
Man merkt, dass du es nicht verstehst. Es funktioniert auch unterhalb von 60 FPS gut und dein Auge "isst" mit.
Die flüssigere Bildrate macht sich definitiv bemerkbar. Davon kann ich dir aus erster Hand berichten und ich will es nicht mehr missen. Höhere Frames, niedrigerer Verbrauch bei minimal besserer Latenz. Warum sollte ich sowas nicht wollen? Das ist ein no Brainer.

Ich schon, nicht das das unwichtig ist aber wie viele kaufen sich hier nur darum einen GPU bzw. machen daran ihre Entscheidung fest? 10% oder doch eher weniger?
Keine Ahnung, aber das tut doch gar nichts zur Sache? Es ging nie darum, wie viele aus welchen Gründen sich für eine Karte entscheiden, sondern welche Gründe es gibt.

Der ein oder andere erzählt mir auch warum AMD CPUs schrott sind da sie seit Bulldozer einen bogen um AMD machen. Ich selbst habe lange jeden von ASRock abgeraten nach Problemen mit meinem MB.... nutze aber mittlerweile seit 5 Jahre eins und empfehle es aufgrund von 0 Problemen auch jeden.
AMD hat sich nach Bulldozer noch einiges geleistet. Selbst bei ZEN4 mit den WHEA Errors oder der defekten Chrage der 5700XT. Dave hat mal im Forum verlauten lassen, dass er auch nur Probleme mit der 5700XT hatte. Danach brannte das Forum.
Oder die 7900XTX, die wesentlich niedriger Boosteten und dabei heißer wurden als andere. AMD hat anfangs verlauten lassen, dass das so korrekt ist und man die Karten nicht umtauscht. Von den AMD Verfechtern kam die Ausrede, dass das vom Praktikanten kam, weil Feiertage. Reinste Spekulation.
 
RNDA 4 wird vermutlich ein guter Wurf was man so hört.
Ich erinnere da an die Sachen die man bis ein paar Monate vorm Launch von RDNA3 so gesagt hatte :S

Solltest du nicht eine Seeeehr gute Glaskugel haben würde ich so frühe Sachen ehr mit Vorsicht sehen.

Sie ist auf Platz 3 der Top-10 Produkte bei Geizhals. Also scheinbar nicht so wenige?
Verzeih aber sind die Geizhals Top nicht nur nach suche entstanden?
Also wenn ich neugierig bin was die kostet, auch wenn ich nie einen kaufe, treibe ich das dann doch hoch oder ?

Sollte dem so sein ist die Aussagekraft davon sehr mau.
 
Ich sag nur DPC und Error occurred on GPUID: 100, beides geht Hand in Hand. Seit dem 22H2 Update ein großes Problem und Nvidia ignoriert es gekonnt. Die erhöhte Latenz taucht inzwischen zwar endlich bei den bekannten Problemen auf, ob und wann was passiert ist aber mehr als fraglich. Mich plagt der Fehler seit Monaten und es nervt nur noch inzwischen, versucht habe ich schon so ziemlich alles erdenkliche. Und nein, es liegt nicht an irgendeinem OC.
Ich hab den Fehler bei mir noch nicht einmal feststellen können und habe das aktuelleste Windows und den aktuellsten Treiber. Wie kann man den Triggern?
Die erhöhte Latenz steht schon einige Zeit im Buglog.
 
15% nennst du weit? Schon etwas albern meinst du nicht? Ampere lässt sich genauso gut untervolten und übertakten ...

Mit Shunt Mod vielleicht. Da musst du aber eben auf der Platine rum löten. Solange du die TDP nicht ordentlich erhöhen kannst, bring übertakten wenig. Meine 3090 war übrigens untervoltet bei den 20500 Time Spy Score. Normal hat die nicht mal 20K gemacht.
 
nVidia bleibt eigentlich nur noch für RT Fans interessant.
Muss man denn Fan sein, um RT zu aktivieren?
Diese Argumentation stößt sich schon wieder an der Realität.
Für den Rest führt an AMD eigentlich kein Weg vorbei.
Momentan ja, nach dem Release der RTX 4070 sieht das schon wieder anders aus.
Oder warum glaubst du bietet AMD die Karten der letzten Generation momentan so günstig an?
Doch nur weil Nvidia Druck ausübt. Deshalb senkte AMD auch den Preis der 7900XT.
Und im Top End ist die Speicherausstattung bei AMD einfach super.
Und für die meisten Spieler völlig nebensächlich, da 16 und 12GB immer noch reichen.
nVidia zwingt einen förmlich dazu die 4090 zu kaufen.
Alle anderen Produkte sind super uninteressant.
Die 7900XTX ist nicht interessanter als eine 4080.
Sie ist langsamer, benötigt mehr Strom und hat das schlechtere Featureset.
Du könntest auch behaupten AMD treibe die Nutzer mit dem hohen Preis der 7900XTX zur 4090.

Sind wir ehrlich 1129 zu 1679 Euro ist auch kein allzu großer Unterschied.
Wer jetzt nicht auf RT abfährt und trotzdem eine 4070ti einer RX 7900 XT vorzieht, dem ist eigentlich nicht mehr zu helfen.
Und wer jetzt nicht auf den großen Blender V-RAM für seine Full HD oder WQHD Auflösung abfährt, der holt sich einfach eine sparsamere Karte mit den neuesten Features (FG, DLSS3, VR) und zieht die 7900XT easy ab, könnte man auch schreiben.
in den GH.de Top 10 sieht man allerdings das vielen nicht mehr zu helfen ist .....
Weil sie sich in deren Augen für das Produkt entscheiden, dass besser zu ihnen passt? ;-)
 
Das Problem an Mindfactory für solche Verkaufszahlen und deren Vergleiche ist immer noch, dass bei Mindfactory schon lange Asus komplett fehlt. Das heißt also auch keine TUF (und Strix) und vor allem bei Nvidia sind die TUF-Karten unheimlich beliebt.

MF hat das gemacht, was die allermeisten kleineren Händler schon lange gemacht haben, Asus ausgelistet.

Zu hohe RMA-Quoten, ein absolut miserabler B2B-Service und ein Käufer-Klientel, das - man muss es einfach so sagen - die Tendenz hat, ein DAU zu sein, was nur zusätzliche Kosten verursacht. Die Folgen eines guten Marketings.
 
Ich hab den Fehler bei mir noch nicht einmal feststellen können und habe das aktuelleste Windows und den aktuellsten Treiber. Wie kann man den Triggern?
Die erhöhte Latenz steht schon einige Zeit im Buglog.
Die erhöhte Latenz steht erst seit Kuzem im Buglog. Wie man den Fehler triggern kann? Wenn man ihn nicht hat, wohl gar nicht. Bei mir spiked die Latenz wenn die Karte hin- und her taktet, das geht schon mal auf 4-6 ms hoch. Wird der Spike noch schlimmer, steigt der Treiber aus und es kommt zum Crash (Error occurred on GPUID: 100). Dabei ist es egal ob die Karte mit OC, UV oder Stock Settings läuft. Ich bin demzufolge nur im Desktop-Betrieb davon betroffen, beim Gaming ist der Takt stabil und die Latenz im tiefgrünen Bereich.

Aufmerksam wurde ich auf das Problem anfangs weil ich beim Sound knacksen und kurze Aussetzer vernommen habe. Knacksen und Aussetzer gibt es inzwischen nicht mehr, dafür weiter das unberechenbare Verhalten. Mal ist 2-3 Wochen Ruhe, Mal passiert es mehrmals am Tag.

Im Nvidia Forum und auf Reddit gibt es mehrere lange Threads zu dem Fehler. Primär melden sich dort 4090 Besitzer, vereinzelt sind aber auch Ampere Nutzer dabei.

Mit Shunt Mod vielleicht. Da musst du aber eben auf der Platine rum löten. Solange du die TDP nicht ordentlich erhöhen kannst, bring übertakten wenig. Meine 3090 war übrigens untervoltet bei den 20500 Time Spy Score. Normal hat die nicht mal 20K gemacht.
Du nimmst ernsthaft 3DMark als Grundlage für deine Zahlen und Behauptungen? Ganz großes aua. Im 3DMark war RDNA2 schon immer stark, im realen Gaming Betrieb sieht es dann aber oft anders aus. Welche Spannung und welcher Takt lag beim UV an?
 
Erstens bekam man eine RTX 3080 quasi nie für 700 Euro und zweitens ist an dem hohen Preis der 4080 ganz allein AMDs schwache Generation verantwortlich.
Nvidia hatte für die Karte früher eher 899 oder 999 Euro angepeilt, weil sie davon ausgingen, dass die 7900XTX nur 10% unterhalb der 4090 herauskommt.

Das Preisleistungsverhältnis ist bei der 4080 dennoch tendenziell besser.
Es gab anfangs massig RTX 3080er für 700-800€, für den Preis habe ich meine auch bekommen. Später nicht mehr, nichtsdestotrotz war die UVP auch später noch bei unter 800€.

Das mag sein, hatte auch nicht erwartet, dass die XTX doch soweit hinter der 4090 landen wird.

Auf dem Papier ja. Aber im direkten Vergleich zu teuer. Eine 3090 hatte eine UVP von 1500€ und war nicht weit weg von der 3080. Eine 4090 kostet ca. 1700€ (also 200€ mehr als die 3090), setzt sich aber ein gutes Stück von der 4080 ab.
Aber mal schauen, vielleicht wird irgendwann bei der 4080 die 1000€ Grenze geknackt, wäre wünschenswert. Ist an sich nämlich ne super Karte mit ausreichend VRAM.
 
Sie ist auf Platz 3 der Top-10 Produkte bei Geizhals. Also scheinbar nicht so wenige?
Auf einer Suchliste und nun?
Es sind ja auch zwei Punkte. Die Effizienz gibt der Verbrauch im Verhältnis zur Leistung an. Es gibt User, die sich ein Limit beim Verbrauch setzen und welche, denen Effizienz wichtig ist.
Du hast 3x "Preis" mit anderen Worten beschrieben.
Der Verbrauch ist doch bloß ein Ergebnis der Effizienz und der ausgegebenen Leistung. Muss man halt beide karten auf 250W begrenzen und die effizientere gewinnt bei FPS oder man begrenzt auf XFPS und die effizientere wird weniger verbrauchen. Das sind schlicht 23 Seiten der selben Medaille
Man merkt, dass du es nicht verstehst. Es funktioniert auch unterhalb von 60 FPS gut und dein Auge "isst" mit.
Die flüssigere Bildrate macht sich definitiv bemerkbar. Davon kann ich dir aus erster Hand berichten und ich will es nicht mehr missen. Höhere Frames, niedrigerer Verbrauch bei minimal besserer Latenz. Warum sollte ich sowas nicht wollen? Das ist ein no Brainer.
Ja aber darunter sieht man auch eher Bildfehler da das eben nicht perfekte KI-Bild länger angezeigt wird. Die Latenz wird übrings schlechter, Reflex lässt sich schließlich auch ohne DLSS 3 aktivieren.
Keine Ahnung, aber das tut doch gar nichts zur Sache? Es ging nie darum, wie viele aus welchen Gründen sich für eine Karte entscheiden, sondern welche Gründe es gibt.
Ja es gibt gründe das meiste davon interessiert aber nur eine Minderheit. Gibt auch gute gründe sich einen Porsche zu kaufen aber die ziehen nicht bei einer eher allgemeinen Diskussion.
AMD hat sich nach Bulldozer noch einiges geleistet. Selbst bei ZEN4 mit den WHEA Errors oder der defekten Chrage der 5700XT. Dave hat mal im Forum verlauten lassen, dass er auch nur Probleme mit der 5700XT hatte. Danach brannte das Forum.
Oder die 7900XTX, die wesentlich niedriger Boosteten und dabei heißer wurden als andere. AMD hat anfangs verlauten lassen, dass das so korrekt ist und man die Karten nicht umtauscht. Von den AMD Verfechtern kam die Ausrede, dass das vom Praktikanten kam, weil Feiertage. Reinste Spekulation.
Ja und Nvidia grillt gerne mal deine Karten bei hohen FPS, hat kaum Relevanz da es eben nicht die Regel sondern eine absolute Aufnahme ist aber scheinbar geht es hier ja nur noch um Sonderfälle .
 
2. FSR ist absolut Gleichwertig mit DLSS, siehe letzten Tests...
Nein, ganz bestimmt nicht. FSR neigt nach wie vor selbst unter Qualität zu höherer Flimmerneigung, erst in The Witcher 3 kurz angemacht und danach wieder abgeschaltet. Bei Balanced oder Performance ist DLSS immer schwächer.

Hier nicht, da nicht, in Forspoken auch nicht, hier auch nicht, Hogwarts auch nicht, Witcher auch nicht.
In den ganzen kürzlichen Tests von Computerbase habe ich nicht ein Beispiel gefunden wo FSR 2 ein besseres Ergebnis oder ein gleichwertiges attestiert wurde.
DLSS 3.0 warten wir was AMD bringt, ist jetzt wohl kaum wichtig bei der Anzahl Spiele
19 aktuelle Spiele unterstützen DLSS 3.0. Das sind schon einige.
 
Zuletzt bearbeitet:
Zurück