News Grafikkarte kaufen: AMD sticht Nvidia bei Mindfactory nun komplett aus

Die kauputten Karten in der Diablo 4 Beta.
Zeig her und Beweise mit bitte, dass ein Problem vorliegt und es sich nicht um Montagsmodelle handelt.
Ich habe die Beta auch gespielt und meine Karte ist nicht abgeraucht. Ich habe auch New World mit einer 3090 gespielt und auch keine Probleme gehabt.
 
Das ist Unfug.
Du willst die schnellste Karte? -> Nvidia
Du willst die effizienteste Karte? -> Nvidia
Dir ist der Verbrauch wichtig? -> Nvidia
Dir ist DLSS oder RT wichtig? -> Nvidia
Du brauchst die Karten auch zum Arbeiten? -> Nvidia
Du hast keine Lust dich Ewigkeiten mit dem Treiber und Bugs rumzuärgern? -> Nvidia

Für AMD sprechen aktuell zwei Faktoren: Open Source und der Preis.
P/L Verhältnis vieleicht?
 
Kann ich verstehen, du wirst aber auch einsehen, dass VR eine extrem kleine Nische ist und der Aufwand derzeit noch in keiner Relation zur Rückmeldung steht.
Sagte doch nur wünschte, wer wenn nicht PCGH soll das bitte machen ;)
P/L Verhältnis vieleicht?
Wo ist das bei AMD besser in dieser Gen, wenn man mal neutral alle pro und contra s auf den Tisch bringt?
Würde mich auch seehr stark interessieren ob eine 6900XT schneller / besser sein soll als eine 7900XT.
Das würde ja absolut nicht für AMD sprechen weil man /ich vom Nachfolger mehr Performance erwartet:ka:
Bezieht sich nur auf VR Spiele und da nicht alle, aber einige und alle performen schlechter als man erwartet. Kann man wie gesagt in den AMD Foren, Igor Forum usw. finden.
 
Nein, die Karten sind, im freien Markt, bei etwa 1000€ gestartet und dann langsam auf 850€ gesunken. Dann kam der Miningboom.
Das stimmt einfach nicht, ich war doch selber ein Early Bird. Meine damalige Ventus habe ich bei Alternate für 700€ bekommen, musste nur ein paar Tage warten. In der ersten Woche war es locker machbar eine zur UVP zu bekommen.
Aber ja, als der Miningboom kam, waren die Preise jenseits von Gut und Böse. War letzten Endes aber nicht Nvidias Schuld.
 
Aber warum soll man für das exakt gleiche Produkt woanders mehr zahlen?
Ich lass die Milka bei Aldi doch nicht liegen nur weil die bei Edeka teurer ist.

Richtig. Genau deswegen ist die Auswertung ja für die Tonne. Wird das Produkt denn woanders (Edeka aus Deinem Beispiel = Synonym für alle anderen Mitbewerber) im Verhältnis ebenso gut verkauft ? Damit hast Du praktisch eine Nische (DIY) in der Nische (1 Händler mit bestem Preis) ausgewertet. Sämtliche Online-Mitbewerber, stationäre Handelsketten inkl. Vertrieb von Komplettsystemen werden schlichtweg nicht berücksichtigt. Ohne weitere Vergleichswerte hat das für mich keinerlei Aussagekraft hinsichtlich des aktuellen Gesamtmarktes.

Und der DIY Markt ist doch ein guter Indikator was interessant ist, warum sollte man das nicht auf Fertig PCs übertragen können?
Komplett-PCs bedienen i.d.R. ein anderes Kundenprofil. Ich kann den Trend einer Nische nicht automatisch auf den restlichen Markt anwenden. Eine Trendindikationen würde ich daraus nicht ableiten wollen, da sich auch der aktuelle market share gänzlich anders darstellt.
 
Zuletzt bearbeitet:
Im Bereich 8-10 Gb tummeln sich die Angebote auf ebay wie noch nie zuvor.
1.673 !!! Angebote allein auf Ebay, darunter 3060 ti, 3070 (ti) und 3080 10GB.
Wer jetzt seine 3070 verkauft, realisiert aktuell mind. 50% Wertverlust.
Man kann nur spekulieren, warum aktuell so viele (mehr als 700 Karten) 3070er Karten verkauft müssen.
Ob der Abverkauf nur durch die Bereinigung am Kryptomarkt zu erklären ist, will / kann ich nicht beurteilen.
Es sind immer wieder Verkäufer dabei, die ihre Karten zum Zocken verwendet haben.
Der Wertverlust bei 8 bzw. 10 GB Karten aus dem Hause Nvidia ist immens.
 
Wenn der Anteil von Intel in einem Monat um knapp 10% steigt ..
Sehr logisch
Diesen Monat gibt es einen Fehler bei Auswahl der Stichprobe, ansonsten sind die Werte konsistent.
Du liest andere Test wie ich
Na welche liest du denn? Beispiel? Kann es sein, dass du die Unwahrheit erzählst?
Zeig mir doch mal ein CB Abschnitt vonnktuellen Spiel wo Fsr 2.0 schlechter abschneidet?
Ich hab dir doch die Verlinkungen zu 5 aktuellen Tests genau an die Stelle geliefert, wo die Qualität bewertet wird. Die Tatsache, dass du da nicht mal draufklickst, zeigt mir schon, dass du kein Interesse an einer konstruktiven Debatte hast.
 
Falsch. Der Verbrauch ist ein Faktor, mit dessen Hilfe man die Effizienz bestimmen kann.
Die Leistung ist der zweite dafür nötige Faktor.
Oh man... Raider heißt jetzt Twix und so. Das ändert doch nichts an meiner Aussage wenn die Effizienz gut ist (und das ist sie bei Nvidia, das verneint doch hier niemand) dann ist auch der Verbrach gut solange man Äpfel mit Äpfel vergleicht.
Nein, nicht unbedingt und diese "Bildfehler", die immer alle als Argument angeben, musst du idR. mit der Lupe in Standbildern suchen, also hört doch endlich auf mit dem Mist.
Selbst in Tests von Digital Foundry und co. wurden die Fehler als nicht auffällig beschrieben.
Ja aber eben nicht bei 30 FPS zu 60 FPS.
Oha man...
Ja, das stimmt, aber eine AMD Karte hat gar kein Reflex. Die Latenz ist also besser als nativ, aber mit Reflex wäre sie noch besser, ja.
Könnte daran liegen das das bei AMD Anti-Lag heißt, was kommt als nächstes AMD kann kein Raytracing weil es kein RTX ist und die CPUs können auch kein reBar?
Zumal es mir hier nur um einen Vergleich Nvidia vs Nividia ging, ja AMD kann das nicht toll, ich würde es aber auch nicht auf meiner Nvidia karte aktivieren.
Du hast doch nicht mal eine DLSS3 fähige Graka. Woher nimmst du also bitte deine Expertise?
Ich habe eine 4090 im Rechner, Spiele immer mit DLSS und FG, wenn verfügbar, und habe von diesen Bildfehlern noch nichts mitbekommen.
Ich kann die Abwehrhaltung dagegen absolut nicht nachvollziehen. Im Idealfall sparst du Energie und erhöhst deine Framrate. Warum sollte man das nicht wollen? Weil es in Ausnahmefällen nicht perfekt ist?
Sorry, das ist kein Argument. Nichts in deinem PC funktioniert perfekt. Alles ist nur getrickst.
Das fängt schon bei einfachen Datentypen.
Totschlag Argument ICH finde es gut MICH stört es nicht. Ja was soll ich da noch sagen.
Wo hast du denn bitte den Unfug her? Das stimmt absolut nicht, sorry.
New Worlds vergessen? Bei Diablo gab es soweit ich weiß wieder ein Problem.
 
Einfach mal die speicherfressendsten Titel zu Gemüte führen, dann sieht das Gesicht wieder normal aus.
Wo limitieren denn 16GB V-ram? Zeig mir einen einzigen Fall.
Langsam wird es lächerlich. Ich verstehe ja, dass 10GB ab und zu knapp sind und man in 4K Details reduzieren muss, aber 16?
Nein, es gab mehrere Beispiele, bei denen AMD/ATi die schneller Karte hatte und billiger war.
Welche wäre das zum Beispiel gewesen?

Die kauputten Karten in der Diablo 4 Beta.
Die Karten waren in der Mehrzahl nicht kaputt, mit einem CMOS Reset liefen die meisten Systeme wieder. Zudem betraf es auch Nutzer mit einer 6900XT.
Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.
Deswegen sind die Marktanteile von AMD Grafikkarten so stark gefallen, ergibt Sinn.
 
Oh man... Raider heißt jetzt Twix und so.
Ob es so viel Sinn macht Grafikkarten auf eine maximale Leistungsaufnahme zu setzen und dann die Effizienz zu vergleichen sei mal dahingestellt. In der Regel vergleicht man die Produkte wie sie auf den Markt kommen.

Ja aber eben nicht bei 30 FPS zu 60 FPS.
Da muss ich widersprechen. Ich spiele momentan Portal und da bringt mir Frame Generation auch von 30 FPS eine enorm gesteigerte Qualität in Bewegung.
Es ist auch kein schneller Shooter.

Könnte daran liegen das das bei AMD Anti-Lag heißt, was kommt als nächstes AMD kann kein Raytracing weil es kein RTX ist und die CPUs können auch kein reBar?
Anti Lag ist eine Lösung im Treiber. Reflex wird mittels SDK in die Spiele API implementiert.
Nvidia Low Latency ist der Counterpart.

Totschlag Argument ICH finde es gut MICH stört es nicht. Ja was soll ich da noch sagen.
Darstellungsfehler und Artefakte gibt es ohne DLSS3 ganz genauso.
Zu Beispiel die niedrigen FPS, Ruckler, oder Tearing, da man zu wenig FPS hat um in den Framebegrenzer zu laufen. In Summe sind die Artefakte und Nachteile inkl. DLSS3 klar geringer.
Eine absolut revolutionäre Entwicklung, wie schon DLSS2.
 
Aber wenn du so oder so quasi kein Limit im Budget hat, warum dann noch auf Effizienz achten?

Wie du siehst, werden die Verkaus-Charts von Karten angeführt, die nur ein Viertel oder ein Drittel einer 4080 kosten.
Wenn man halt nur 300, 400 oder 500 Euro zur Verfügung hat, achtet man halt mehr auf das Preis-Leistungsverhältnis oder anders ausgedrückt: FPS pro Euro.

Bei den letzten Vergleichen die ich so gesehen habe, spielt z.B. die RX6700 fast auf Niveau einer 3070. Kostet aber 150 Euro weniger. Die Differenz in der Effizienz zwischen den beiden Karten hält sich auch noch in Grenzen.
Jemand der nicht jeden Tag mehrere Stunden am zocken ist, wird am Jahresende den Unterschied auf der Stromrechnung nicht merken.
Dann kennst du meine Ansprüche nicht. Das ist wie bei Haushaltsgeräten. Kaufst du billig, kaufst du of 2 mal und ich versuche immer auf hohen FPS bei maximalen Details zu zocken aber leg dafür auch noch wert auf Effizienz, der Nebenkosten zu liebe.
 
Diesen Monat gibt es einen Fehler bei Auswahl der Stichprobe, ansonsten sind die Werte konsistent.

Na welche liest du denn? Beispiel? Kann es sein, dass du die Unwahrheit erzählst?

Ich hab dir doch die Verlinkungen zu 5 aktuellen Tests genau an die Stelle geliefert, wo die Qualität bewertet wird. Die Tatsache, dass du da nicht mal draufklickst, zeigt mir schon, dass du kein Interesse an einer konstruktiven Debatte hast.
Okay..
Du hast dreimal atomic head verlinkt das nur fsr 1.0 unterstützt und forspoken
Quality gegen quality zitiere ich gerne:
Ob native Auflösung, DLSS auf „Quality“ oder FSR auf „Quality“, ist dabei gleich. Das Problem lässt sich nicht umgehen. Jedoch sind die Abstände zwischen Spielerkamera und betroffenem Objekt unterschiedlich zwischen den drei Technologien. So flimmert zum Beispiel mal ein Objekt mit FSR oder mit DLSS nicht, während 3 m weiter plötzlich dasselbe Objekt mit FSR nicht mehr flimmert, dafür aber mit DLSS – und ein paar Schritte weiter flimmert die native Auflösung mit TAA, dafür aber beide Upsampling-Varianten nicht mehr.

Davon abgesehen ist die Bildstabilität mit allen drei Technologien vergleichbar, im Quality-Modus lässt sich kein Gewinner ausmachen. Bei gleicher Renderauflösung ist das native TAA also unterlegen. Im Performance-Modus hat DLSS dann minimale Vorteile gegenüber FSR.


Minimale Vorteile.. mich hauts um

F1 hat implementierungsfehler
Steht auch im test drin

Toll du du gleich dreimal fsr 1.0 test linkst
 
Das ist tatsächlich ein Punkt, bei dem er recht hat. Insgesamt gibt es mehr Fehler, die Leistung, am Tag 1, ist öfters schlechter und AMD stellt die Treiberunterstützung schneller ein, als Nvidia (5 Jahre gegen 7 Jahre, als untere Grenze. Außerdem verhindert AMD, dass man die neuen Treiber hacken und nutzen kann.

Allerdings ist es heute nicht mehr sonderlich schlimm (wenn man mit der kürzeren Treiberunterstützung leben kann).

Ist bei AMD nach 5 Jahren Treiber-Updates tatsächlich Schluss?
Das war mir z.B. gar nicht bewusst...
Das sie dann auch noch aktiv verhindern, dass man "sich selbst um neuere Treiber kümmert", ist dann doppelt unschön.

Ist zwar ein Valider Punkt aber mal ehrlich in so einem Forum wird wohl die Mehrheit die Grafikkarte früher austauschen.
Naja außer die Preise gehen weiter durch die Decke :ugly:

Da wäre ich mir gar nicht mal mehr sooo sicher.
Hier im Forum wird es vielleicht tatsächlich viele nicht treffen, aber in freier Wildbahn werden die Karten dann doch häufig deutlich länger genutzt. Vor allem heutzutage.

Ich selbst bin noch mit einer 1070 unterwegs. Ich nehme, wie auch hier wohl die Meisten, nicht jede Generation mit. Daher habe ich mir die 20'er Generation gar nicht angeschaut. Bei der 30'er habe ich dann schon mal genauer hingesehen, aber durch den Mining-Boom war die dann auch raus. Jetzt kommt die 40'ger Generation und die Karten sind von der Hardware her 'meh oder völlig überteuert.

Meine Karte ist jetzt 6 Jahre alt und muss daher immer noch ihren Dienst leisten. Das tut sie, mit erheblichen Abstrichen natürlich, aber noch immer. Bei AMD wäre ich jetzt aber bereits gekniffen.

Auch den Wertverlust sollte man berücksichtigen. Wenn ich nach 3 oder 4 Jahren meine alte Karte verkaufe, ist AMD bereits nahe am Mindesthaltbarkeitsdatum. Nvidia hat dann gerade mal die Hälfte rum.

Daher ist die Langzeitunterstützung meiner Meinung nach nicht zu vernachlässigen.
 
Ist bei AMD nach 5 Jahren Treiber-Updates tatsächlich Schluss?
Nein:
1680621081338.png


Der aktuelle 23.4.1 unterstützt auch die Polaris Karten aus 2016 :ka:
 
Der aktuelle 23.4.1 unterstützt auch die Polaris Karten aus 2016 :ka:
Wenn das kein Zufall ist, dann wohl ein Punkt weniger der gegen AMD spricht.

Edit.
Von wegen lange GPUs nutzen, wenn ich meine Bekannten anschaue, da gibts 2 Kategorien.
Die 1. sind welche die spätestens nach 3-4 Jahren aufrüsten und das nicht zu knapp.
Die 2. sind die die nach wohl 8-10 jahren dann irgendwann vielleicht doch mal einen neuen Rechner, weil irgendwie läuft spiel xy nicht so doll.

Ist nicht repräsentativ ich weiss ... aber mir scheinen die meisten leute entweder recht flott aufrüsten oder so lange den Rechner behalten das auch 7jahre Treiber support zu wenig sind :S
 
Zurück