Special Die besten Gaming-Grafikkarten für 2024 - Teil 1: High-End für 4K/Ultra HD

Ich bereue auch nur, dass ich doch nicht direkt auf 4090 gegangen bin, wird aber mit 5000er korrigiert. Hässlich finde ich die Zotac dennoch :ugly:
Das kann ich nachvollziehen. In Spielen, die man erheblich modden kann, sind die 16 GiB VRAM dann doch hart an der Grenze oder bereits zu schwach. In Spielen wie Cyberpunk 2077 würde ich durchaus auch mehr FPS nehmen. :ugly:

Ich find' die Zotac AMP Karte, seitdem ich die bei JayzTwoCents gesehen habe, der die als "Spaceship" betitelt hat, optisch sehr ansprechend, aber Geschmäcker sind halt verschieden. :ugly:
Richtig, ich fande EVGA Karten z.B. optisch nie wirklich ansprechend ;)
Die FTW3 fand' ich tatsächlich sehr hübsch. Andererseits find' ich die Kingpin-Karten als deren absolute Speerspitze wirklich hässlich. :ugly:
 
Lovelace ist aber auch eine furchtbare gute Generation bei NV. Ich bin ja AMD Fan, aber ich muss zugeben, dass die PNY 4070ti einfach funktioniert. Unhörbar, effizient und Treiber Updates kann man alle 3 Monate mal machen.
 
Da die GPU-Preise nur den steilen Weg nach oben kennen, bin ich darüber nicht sonderlich traurig. Ich habe kein Interesse daran, dass meine 1.000,00 EUR aufwärts GPU nach ein, zwei Jahren schon obsolet wird wie das mitunter zu damaligen Zeiten der Fall war. Zudem werden Entwickler so beim Programmieren faul, weil sie Probleme mit purer Rohleistung erschlagen können. Hier gebe ich @PCGH_Raff völlig Recht, dass Entwickler durch längerlebige Hardware gezwungen werden, ihre Algorithmen pp. zu optimieren.
Da sage ich ja auch absolut nichts dagegen, nur wenn dir jemand erzählt RT ist der heiße SchXXX und schon demnächst geht ohne nichts mehr, dann ist das genau aus diesem Grund einfach Käse. ;)
 
Da sage ich ja auch absolut nichts dagegen, nur wenn dir jemand erzählt RT ist der heiße SchXXX und schon demnächst geht ohne nichts mehr, dann ist das genau aus diesem Grund einfach Käse. ;)
RT wird dem Hype momentan auch noch nicht ganz gerecht. Durch die hohen Leistungseinbußen noch weniger.

In meinen letzten Spielen die das drin hatten (Hogwarts Legacy und Jedi Survivor) wirkte es nett bis deplatziert, aber auf keinen Fall (spiel-)weltbewegend und nichts was ich vermisst habe nachdem es wieder aus war.

Mag sein, dass 1-2 showcase Spiele wie CP2077 da mehr bieten, aber Stand jetzt ist es für mich eher ein teures Gimmick.

Erst wenn es spielmechanisch Einfluss hat (Rätsel über Reflexionen, etc.) oder Spiele ohne RT wie Gulasch aussehen, geb ich die FPS dafür her.
 
Sieh's mal so: Die schwache RT-Leistung der Konsolen ist ein Anreiz für Entwickler, noch effizientere Algorithmen zu bauen und Daten noch cleverer zu recyceln.
Sorry Raff, aber das stimmt doch nicht wirklich? RT wird über DXR umgesetzt und funktioniert immer nach dem gleichen Prinzip.
Optimiert wird hier seitens Nvidia, AMD und MS und nicht bei den Studios, welche nur die bereitgestellten APIs nutzen.
Oder sehe ich das falsch?
 
Sehe ich genauso! Die 7900XT gehört in die Liste wie die 3090ti
Der Preisbereich zwischen 500 und 1.000 Euro ist nächste Woche dran. :daumen:

Sorry Raff, aber das stimmt doch nicht wirklich? RT wird über DXR umgesetzt und funktioniert immer nach dem gleichen Prinzip.
Optimiert wird hier seitens Nvidia, AMD und MS und nicht bei den Studios, welche nur die bereitgestellten APIs nutzen.
Oder sehe ich das falsch?
Die APIs - also DirectX Raytracing und Vulkan Raytracing - nehmen entgegen, was der Entwickler auf dem Bildschirm haben möchte. Durch die milde Abstrahierung geht zwar gegenüber den Konsolen etwas Effizienz flöten, dennoch zählt, was deren Code kann. :-) Es wäre ja furchtbar, wenn das nicht so wäre.

MfG
Raff
 
Warum? Ich bin Konsument und kaufe nicht nach Mitleid, sondern nach meinen Ansprüchen bzw. das, meiner Meinung nach, beste Produkt.
Ich auch. Daher habe ich aktuell eine Nvidia Grafikkarte. Wenn du den Satz komplett gelesen UND verstanden hättest, hättest du gesehen, dass ich von Gleichstand schrieb. Und wenn ich wahlweise eine GPU von einem 80% Martkanteil Unternehmen oder von einem 20% Marktanteil kaufen kann - und sie beide eben technisch und preislich identisch sind, dann wäre es gelinde gesagt dumm, vom 80% Hersteller zu kaufen. Aus Konsumentensicht.
 
Die APIs - also DirectX Raytracing und Vulkan Raytracing - nehmen entgegen, was der Entwickler auf dem Bildschirm haben möchte. Durch die milde Abstrahierung geht zwar gegenüber den Konsolen etwas Effizienz flöten, dennoch zählt, was deren Code kann. :-) Es wäre ja furchtbar, wenn das nicht so wäre.
Ich dachte bei RT wäre das durch die Hardwareebene (BVH und co.) fest vorgegeben oder stark eingegrenzt. Jedenfalls bei Nvidia.
 
Lovelace ist aber auch eine furchtbare gute Generation bei NV. Ich bin ja AMD Fan, aber ich muss zugeben, dass die PNY 4070ti einfach funktioniert. Unhörbar, effizient und Treiber Updates kann man alle 3 Monate mal machen.
Niemand würde sagen die Karten sind gut, wenn sie es nicht wären. :ka: Nvidia hat seltenst schlechte Genersationen bei ihnen krankt es am Preis was aber als Marktführer meistens überall zutrifft auf jedes Produkt und zu wenig Vram aber sonst findet man kaum schwächen.
und sie beide eben technisch und preislich identisch sind
Wann hattest du dann eine AMD Karte anno 2010? :-D
 
Wann hattest du dann eine AMD Karte anno 2010? :-D
Meine letzte AMD Karte war die Sapphire Nitro+ 5700XT. Die war der 2070 ebenbürtig, kostete aber nur so viel wie eine 2060 Super - und war für WQHD mehr als ausreichend. Da war RT auch noch irrelevant, also ist das gar nicht erst in die Überlegung mit eingeflossen. Als das wichtiger wurde, habe ich mir auch direkt die 3080ti geholt. Und nun eben die 4080.
 
Das ist mimimi auf sehr hohem Niveau. Ja, es ist nicht optimal, aber AMD arbeitet aktiv daran es zu verbessern und die meiste Zeit idlen die Karten auch nicht.
 
An einem 4k TV Gerät mit 120 Hz leider schon. Auf was anderes habe ich nicht probiert da ich ausschließlich den Tv zum Zocken benutze. Also für mich schon.

Wenn ich eine Gpu kaufe, will ich kein Überraschungsei. Sowas kann ich Intel noch verzeihen, weil sie noch relativ neu sind mit Big Boy Gpus. Aber AMD macht das schon lange und trotzdem haben die immer wieder solche Kinderkrankheiten. Das kann man bringen, wenn man deutlich billiger ist nicht aber bei 50€ unterschied wie es bei der 7800XT zur 4070 der Fall war bei mir.
Das ist mimimi auf sehr hohem Niveau. Ja, es ist nicht optimal, aber AMD arbeitet aktiv daran es zu verbessern und die meiste Zeit idlen die Karten auch nicht.
Das hat nichts mit mimimi zu tun. aber auch gar nicht. Das hat zu funktionieren und wie gesagt das ist nur ein Punkt. Driver Timeouts, Blackscreens kann es auch immer noch geben Überraschungsei halt. Das alles habe ich bei Nv nicht oder hatte ich Glück wer weiß.

Wie gesagt die Liste ist relativ lang, wenn man Nvidia als vergleich, hinzuzieht aber wen soll ich sonst hinzuziehen wir haben nur die 2.(3)

2 Anbieter einer hat mehr Probleme wie der andere dann kaufe ich denn der mir weniger Kopfschmerzen bereitet.

Ich habe wahrlich jeder AMD Generation 1 Chance gegeben und jedes Mal hatte ich Probleme die sofort verpufft sind als ich eine Nvidia Karte eingebaut habe. Kein Bock mehr auf Troubleshooting statt zocken zu können das ist mir den geringen Aufpreis wert ich würde sogar mehr zahlen, weil mir wert ist das ich nun mal problemlos zocken kann. Von RT und Upscaling noch gar nicht angefangen aber das sind ja andere baustellen.
 
Zuletzt bearbeitet:
An einem 4k TV Gerät mit 120 Hz leider schon. Auf was anderes habe ich nicht probiert da ich ausschließlich den Tv zum Zocken benutze. Also für mich schon.
Du spielst mit ner 4060ti auf nem 4K 120Hz Monitor? Interessant. Was spielt man da so? Pacman?
Driver Timeouts, Blackscreens kann es auch immer noch geben Überraschungsei halt
Bei Nvidia auch. Ich hatte davon in den letzten 2 Jahren ebenfalls genug. Sowas passiert halt.
Ich habe wahrlich jeder AMD Generation 1 Chance gegeben und jedes Mal hatte ich Probleme die sofort verpufft sind als ich eine Nvidia Karte eingebaut habe.
Ich glaube dir das schlichtweg nicht. :)
 
Das hat nichts mit mimimi zu tun. aber auch gar nicht. Das hat zu funktionieren und wie gesagt das ist nur ein Punkt. Driver Timeouts, Blackscreens kann es auch immer noch geben Überraschungsei halt. Das alles habe ich bei Nv nicht oder hatte ich Glück wer weiß.
Blackscreens und Drivertimeouts gibt es auch bei Nvidia, allerdings stimme ich dir zu, dass die Treiber bei NV grundsätzlich stabiler sind. Meine 2080 TI lief erst nach einem halben Jahr ordentlich und stabil. Ich hatte monatelang mit Crashes, Timeouts und Rucklern zu kämpfen. Die 3090 und 4090 laufen ohne Probleme absolut geschmeidig.

Und doch, hat es. Ich kann niemanden ernst nehmen, der sich eine Karte für 600€+ holt und sich über die 90W im idle beschwert. Die 90 W sind ein Fliegenschiss auf der Stromrechnung und ganz davon ab arbeitet man mit so einem System. Die meiste Zeit idlet es also nicht.
 
Dann nimmst mich halt nicht ernst ist mir doch wurscht. Aha und das trifft auch beim browsen zu oder youtube noch was wo die Karte deutlich mehr nuckeln als bei Nvidia. Bei jeder leichten tätigkeit wo die gpu praktisch nichts tut.

Weil es dir egal ist heißt das nicht das es anderen egal ist. Man könnte meinen mich rede mit einem Schüler.:klatsch:
 
Zurück