News Grafikkarte kaufen: AMD sticht Nvidia bei Mindfactory nun komplett aus

Wünschte PCGH würde da mehr testen! Gerne auch mit Wunschliste, welche Spiele für die User hier von Bedeutung wären.
Würde mich auch seehr stark interessieren ob eine 6900XT schneller / besser sein soll als eine 7900XT.
Das würde ja absolut nicht für AMD sprechen weil man /ich vom Nachfolger mehr Performance erwartet:ka:
 
Wo gabs bitte eine 100% Inflation? Nichtmal Strom ist so viel teurer geworden.
Bei Technik sind die Preise im letzen jahr auch eher gefallen. Je nach Produkt 25-50%
wenn ich mich recht erinnere war der strom bei hetzner colocation bei ~25ct, nun guck jetzt mal. das doppelte. naja strom ist auch deren hauptaufgabe neben internet/peering.
 
Der Verbrauch ist doch bloß ein Ergebnis der Effizienz und der ausgegebenen Leistung.
Falsch. Der Verbrauch ist ein Faktor, mit dessen Hilfe man die Effizienz bestimmen kann.
Die Leistung ist der zweite dafür nötige Faktor.

Ja aber darunter sieht man auch eher Bildfehler da das eben nicht perfekte KI-Bild länger angezeigt wird.
Nein, nicht unbedingt und diese "Bildfehler", die immer alle als Argument angeben, musst du idR. mit der Lupe in Standbildern suchen, also hört doch endlich auf mit dem Mist.
Selbst in Tests von Digital Foundry und co. wurden die Fehler als nicht auffällig beschrieben.

Die Latenz wird übrings schlechter, Reflex lässt sich schließlich auch ohne DLSS 3 aktivieren.
Oha man...
Ja, das stimmt, aber eine AMD Karte hat gar kein Reflex. Die Latenz ist also besser als nativ, aber mit Reflex wäre sie noch besser, ja.

Du hast doch nicht mal eine DLSS3 fähige Graka. Woher nimmst du also bitte deine Expertise?
Ich habe eine 4090 im Rechner, Spiele immer mit DLSS und FG, wenn verfügbar, und habe von diesen Bildfehlern noch nichts mitbekommen.
Ich kann die Abwehrhaltung dagegen absolut nicht nachvollziehen. Im Idealfall sparst du Energie und erhöhst deine Framrate. Warum sollte man das nicht wollen? Weil es in Ausnahmefällen nicht perfekt ist?
Sorry, das ist kein Argument. Nichts in deinem PC funktioniert perfekt. Alles ist nur getrickst.
Das fängt schon bei einfachen Datentypen.

Ja und Nvidia grillt gerne mal deine Karten bei hohen FPS, hat kaum Relevanz da es eben nicht die Regel sondern eine absolute Aufnahme ist aber scheinbar geht es hier ja nur noch um Sonderfälle .
Wo hast du denn bitte den Unfug her? Das stimmt absolut nicht, sorry.
 
Zuletzt bearbeitet:
Du nimmst ernsthaft 3DMark als Grundlage für deine Zahlen und Behauptungen? Ganz großes aua. Im 3DMark war RDNA2 schon immer stark, im realen Gaming Betrieb sieht es dann aber oft anders aus. Welche Spannung und welcher Takt lag beim UV an?
Sag bloß? Deshalb waren es ja im 3D Mark auch über 15%. In Spielen waren es im Durschnitt 15%. In Ray Tracing waren es -30%.
 
Es gab anfangs massig RTX 3080er für 700-800€, für den Preis habe ich meine auch bekommen. Später nicht mehr, nichtsdestotrotz war die UVP auch später noch bei unter 800€.
Ich habe alles versucht und wenig später eine 3080 von einem Scalper für 1000 Euro gekauft.
War es ein Fehler? Nein, da der Preis sich fast 2 Jahre gehalten hat.
Außer ein paar wenigen Glücklichen kam niemand in den Genuss.

Eine 3090 hatte eine UVP von 1500€ und war nicht weit weg von der 3080.
Weil AMD sehr nahe an der 3090 dran war.
Deshalb brauchte es eine Karte die viel Leistung für einen niedrigen Preis bot und sie hat die AMD Konkurrenz völlig ausgestochen. Mal abgesehen vom V-ram.
Eine 4090 kostet ca. 1700€ (also 200€ mehr als die 3090), setzt sich aber ein gutes Stück von der 4080 ab.
Diese Generation benötigt Nvidia keinen Preisbrecher.
Dieses mal werfen sie Features und RT in die Waagschale.
 
Aber da der Markt mit FHD und WQHD überfüllt ist und kaum jemand auf 4K spielt wundern mich es nicht das AMD mit den guten Preisen so Punktet. Für 4K Spieler wie mich sind diese Karten völlig uninteressant.

Komisch, ich zock mit meiner XTX gerade das auf Radeons eher kaputte Forza Horizons 5 mit RT Ultra in 5760x3240p + FSR Q (=UHD) durchgängig im gesetzten 60Fps-Limit mit um die 280-320W Verbrauch... :ka: (und ballere damit 16 GB VRAM zu)

Was mach ich falsch, dass diese Karte für mich nicht völlig uninteressant wird? :huh:
 
AMD ist eben für gut informierte Spieler*innen die Nummer 1 und uneingeschränkte Empfehlung wenn es um Leistungsstarke Produkte geht.
Da hat Nvidia schlichtweg das Nachsehen, da sie nicht mehr mit guten Produkten, sondern mit Skandalen wie katastrophalen Treiberproblemen, Brandproblematik, usw. auffallen.

Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.

AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.
 
AMD ist eben für gut informierte Spieler*innen die Nummer 1 und uneingeschränkte Empfehlung wenn es um Leistungsstarke Produkte geht.
Da hat Nvidia schlichtweg das Nachsehen, da sie nicht mehr mit guten Produkten, sondern mit Skandalen wie katastrophalen Treiberproblemen, Brandproblematik, usw. auffallen.

Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.

AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.

Jawoll, SIR!
 
AMD ist eben für gut informierte Spieler*innen die Nummer 1 und uneingeschränkte Empfehlung wenn es um Leistungsstarke Produkte geht.
Da hat Nvidia schlichtweg das Nachsehen, da sie nicht mehr mit guten Produkten, sondern mit Skandalen wie katastrophalen Treiberproblemen, Brandproblematik, usw. auffallen.

Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.

AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.

ChatGPT ist jetzt auch AMD fanboy. xD
 
Ich warte immer noch auf Takt und Spannung, die beim UV der 3090 genutzt wurden.

Sorry ich weiß es nicht mehr, ich habe die Karte seit einem halben Jahr nicht mehr. Ich weiß auch gar nicht was du so wirklich von mir willst? Ich wollte damit lediglich ausdrücken das AMD in der Letzten Generation konkurrenzfähig zu Nvidia war, was sie in dieser eben nicht sind.
 
Frame Generation verstehe ich überhaupt nicht, was soll ich mit zusätzliche Frames die die Reaktion nicht verbessern und eigentlich auch nur gut funktionieren wenn ich bereits 60-80 FPS habe.
Nimm es mir nicht übel, aber Frame Generation versteht hier kaum einer, weil niemand bereit ist sich damit zu beschäftigen und am Ende die Fehlannahmen, die meist von AMD Usern gestreut werden um das Feature schlecht zu reden, übernehmen.

Deine Reaktionszeit, bzw Eingaben verhalten sich bei 40 FPS oder 240 FPS auch nicht groß unterschiedlich. Die Reaktionszeit bei Sportlern nach dem Startschuss liegt etwa bei 150 bis 200ms.
Wenn pro Sekunde 40 Bilder über den Screen laufen, kommen da 25ms drauf, + ein kleiner Overhead für die Erstellung des Bildes. In der Endabrechnung lohnt sich das aber, abseits von kompetitiven Shootern.
 
Wieso eigentlich ein neuer Account?
Warum wohl ?

Sorry ich weiß es nicht mehr, ich habe die Karte seit einem halben Jahr nicht mehr.
Ah ja, wenn man sich an prozentuale Werte erinnert, sollte das auch bei Taktraten und Spannungen möglich sein. Oder man hält das irgendwo bildlich/schriftlich fest. 3DMark lädt auch jedes Ergebnis hoch, damit Online-Vergleiche möglich sind.

Ohne jegliche Belege sind deine Aussagen nichts als ein Luftschloss.
 
Komisch, ich zock mit meiner XTX gerade das auf Radeons eher kaputte Forza Horizons 5 mit RT Ultra in 5760x3240p + FSR Q (=UHD) durchgängig im gesetzten 60Fps-Limit mit um die 280-320W Verbrauch... :ka: (und ballere damit 16 GB VRAM zu)

Was mach ich falsch, dass diese Karte für mich nicht völlig uninteressant wird? :huh:
Du machst überhaupt nichts falsch deine Aussage ist völlig richtig.
Mein Monitor kann aber 144 Herz in 4K. Hab ein ein Sündenteurer PG32UQX.
Und nur in die Nähe von mind 120 bis 144 zu kommen .. kommt man um eine 4090 oder bald eine Titan. Bei neuen Titeln nicht vorbei.
Daher sind die AMD Karten für mich uninteressant.
Ist wie bei Autos mit viel PS.
Hat man das Geld und es tut einem nicht weh kauft man es wenn nicht dann lässt man es.
Unötig aber es macht mich glücklich ?
 
Nein, ganz bestimmt nicht. FSR neigt nach wie vor selbst unter Qualität zu höherer Flimmerneigung, erst in The Witcher 3 kurz angemacht und danach wieder abgeschaltet. Bei Balanced oder Performance ist DLSS immer schwächer.

Hier nicht, da nicht, in Forspoken auch nicht, hier auch nicht, Hogwarts auch nicht, Witcher auch nicht.
In den ganzen kürzlichen Tests von Computerbase habe ich nicht ein Beispiel gefunden wo FSR 2 ein besseres Ergebnis oder ein gleichwertiges attestiert wurde.

19 aktuelle Spiele unterstützen DLSS 3.0. Das sind schon einige.
Du liest andere Test wie ich

Zeig mir doch mal ein CB Abschnitt vonnktuellen Spiel wo Fsr 2.0 schlechter abschneidet?
 
Wenn AMD sich jetzt ein wenig mühe gibt bzw. sich nicht ganz dämlich anstellt, kann diese "Markentreue" auch ganz schnell zu Gunsten von AMD kippen.

Tja, da unterschätzt du die Sache etwas. Selbst beim P4 ist der Marktanteil auf lediglich 28% gestiegen, dann ging es bergab und beim P4 hat Intel 5 Jahre lang die schlechtere CPUs geliefert. Eine solche Markentreue zu überwinden dauert sehr, sehr lange. das wird ein Ultramarathon, rechne mal mit 10+ Jahren.

Du bist NVs (PR Abteilung) ihr Lieblingskunde !

Es ist doch schon eine allgemeine Erkenntnis, da bei Nvidia hängen bleiben wird, dass die RTX 4080 nicht zu teuer, sondern die RTX 4090 zu billig war.

Nachdem meine 3090 zum wiederholten male (3x) in Diablo 3 gestorben ist, bin ich ein gebrandmarktes Kind.

Du sollst das Spiel zocken und nicht die Graka :ugly:

Hmm komisch, meine 4080 zaubert mir seit ein paar Tagen ein sehr fettes Grinsen aufs Gesicht. Allerdings stehe ich auf Raytracing wo AMD halt eine Generation zurückhängt.

Einfach mal die speicherfressendsten Titel zu Gemüte führen, dann sieht das Gesicht wieder normal aus.

Die schnellste Karte war schon immer die teuerste und somit nur für Randgruppen. Zähle ich also nicht als Argument.

Nein, es gab mehrere Beispiele, bei denen AMD/ATi die schneller Karte hatte und billiger war.

4. Treiber, schwachsinn

Das ist tatsächlich ein Punkt, bei dem er recht hat. Insgesamt gibt es mehr Fehler, die Leistung, am Tag 1, ist öfters schlechter und AMD stellt die Treiberunterstützung schneller ein, als Nvidia (5 Jahre gegen 7 Jahre, als untere Grenze. Außerdem verhindert AMD, dass man die neuen Treiber hacken und nutzen kann.

Allerdings ist es heute nicht mehr sonderlich schlimm (wenn man mit der kürzeren Treiberunterstützung leben kann).

Es gab anfangs massig RTX 3080er für 700-800€, für den Preis habe ich meine auch bekommen. Später nicht mehr, nichtsdestotrotz war die UVP auch später noch bei unter 800€..

Nein, die Karten sind, im freien Markt, bei etwa 1000€ gestartet und dann langsam auf 850€ gesunken. Dann kam der Miningboom.

Wo hast du denn bitte den Unfug her? Das stimmt absolut nicht, sorry.

Die kauputten Karten in der Diablo 4 Beta.

Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.

Ja, das bessere P/L Verhältnis und die Leute kommen sofort wieder zurück, wenn das nichtmehr stimmt. Ein Nachteil, wenn die Verkäufe auf gut informierte Käufer gestützt sind.
 
Zurück