News Neue Grafikkarten-Umfrage: Gibt es Überraschungen bei Intel, AMD oder Nvidia?

Neben der GRE gibts jetzt auch ganz Unten ein interessantes Testobjekt in China:

(Sowas als 149€ entry wäre net verkehrt@PCiE 4.0 für FHD@high, muss ja net immer Ultra sein.)
 
Was ein Quatsch ?
AMDs Karten sind auch nicht viel preiswerter und bieten insgesamt sogar weniger. Oh halt es gibt gar keine aktuelle Mittelklasse. Dann den alten Kaffee kaufen ?.
Verstehe nicht, was ist der Nachteil der 6000er gegenüber der 7000er?
AV1, super Anschlüsse die nicht limitieren und etwas weniger Stromverbrauch, aber nur etwas.

Dafür einen rechten Batzen mehr bezahlen. Ausserdem gab es Schwierigkeiten mit dem Idle Stromverbrauch und VR Performance. Nicht so schlimm, aber sicher auch nicht besser.

Die 7000er ist ein wichtiger Schritt für die Chiplet-Vertigung, aber als Produkt empfinde ich es als einen zu kleinen Fortschritt.
Das Netzteil hätte ich auch und vor allem mit NVidia aufrüsten müssen. Und in absehbarer Zukunft werde ich auch meine 9Jahre alte CPU austauschen müssen. Was genau ist da verschwendet bei diesem ATX3.0 Netzteil, das auch mein Fiepen eliminiert hat? Ein toller Kauf!

Warum vergleichst du die 6000er mit der 4000er?
Die 4070ti kostet fast das doppelte wie deine 6800 mit AMD anständigem ControlCenter.

Schliesse nicht von dir auf andere. Ich bin noch sehr zufrieden. Die XT steht noch einiges über der 6800. Beide halte ich für gute Käufe, wenn nicht während der Pandemie gekauft.
Jetzt ist meine 40Fr. billiger hätte ich gerne auch mitgenommen, habe diese aber auch schon ein halbes Jahr. So war das mal früher und so ist es richtig. Preise müssen Fallen und altes neuem Platz machen.
 
Zuletzt bearbeitet:
Es kommt alles auf die Plattform an. Ich bin Linuxnutzer. Da ist die RX 7900 XTX teilweise fast gleichauf mit der RTX 4090.
Quelle: https://www.phoronix.com/review/nvidia-rtx4080-rtx4090-linux/8

Außerdem kommt für mich als Linuxnutzer sowieso nur AMD oder Intel in Frage (solange sie nicht komplett versagen), weil ich mich nicht mit irgendeinem proprietären Treiber herumärgere. Ich will die Karte einfach nur einstecken und fertig.
 
Soviele 4090? Glaube viele verwechseln hät ich gerne mit hab ich gerade..^^
Ist nicht sooo schwierig. Wenn man arbeiten geht und im Monat angenommene 50€ weglegt, dann ist nach 2 Jahren eine RTX4080 drin.

Zudem, wer nicht raucht/kifft/übermäßig säuft und es auch sonst nicht mit dem ausgeben des hartverdienten Talers übertreibt, kann sich dann auch ne RTX4090 leisten...

Man sieht, es ist machbar ohne das man woanders großartig sparen muss. Und JAAA, man kann auch mal 1-2 Gen's aussitzen. Noch mehr Zeit zum ansparen;)

Gruß
 
Im Moment reicht mir meine 6600xt noch. Denke 2 Jahre wird sie noch machen, bevor ich aufrüste
Soo alt ist die ja auch noch nicht.
Ich rüstete bisher alle 5 Jahre auf...aber mittlerweile habe ich andere Anforderungen.
Ich möchte aktuell in 4k 90-120hz alles flüssig spielen können. Auch mit RT oder Pathtracing.
Solange das Spiel jetzt nicht ganz kaputt ist wie Jedi Survivor, geht das aktuell sogar, wenn auch mit Hilfe von DLSSQ und FG, was ich aber auch nur dann einschalte, wenn ich keine Artefakte sehe.
Bei Remnant2 z.b. sehe ich keine und habe 90-100FPS im Spiel. In CP2077 mit Pathtracing auch.
Bei Jedi Survivor macht die CPU Probleme. :D

Sollte aber eine 5090 kommen für 1500€ die bei 250-300W mind 60% schneller ist, würde ich da zuschlagen. Wobei ich dann immer noch mit rund 1000€ für meine gebrauchte 4090 rechne (eher mehr, so wie die Preise für ne 4090FE auf Ebay ausehen). Ich würde also 500€ draufschlagen.

Bei der CPU z.b. sehe ich mit meinem 5800X3D noch keinen Upgradebedarf, weil ich meist noch im GPU-Limit bin.
Zudem, wer nicht raucht/kifft/übermäßig säuft und es auch sonst nicht mit dem ausgeben des hartverdienten Talers übertreibt, kann sich dann auch ne RTX4090 leisten...
Ich zum Beispiel. Ich verdiene nicht viel, gebe aber sonst auch nur wenig aus...bis auf mein Hobby den PC...aber auch hier mache ich nichts unnötiges. Eine 4090 war nötig... :D

P.S.
Bei mir hatte der Miningboom geholfen. Ich hatte 2020 noch eine 1080Ti und hatte noch vor dem Boom auf eine 3080FE gewechselt. Damals noch mit 1440p Monitor. Als dann die Gebrauchtpreise stiegen, habe ich mit dem Verkauferlös der 3080FE mir eine 3090FE kaufen können, die ich für UVP mit nem NBB Drop ergattert hatte.
Mit der 3090 war nun 4k greifbar und mit 4k dann auch mein Wunschmonitor, ein OLED... Also kam ein 4k OLED auf den Tisch.
Und dann kam die 4090... 80% schneller...super effizient (zieht mit UV aktuell 200-300W, also 50-150W weniger als ne 3090)... und meine 3090FE konnte ich immerhin noch für 900€ verkaufen...das steckte ich dann in die 4090. Auch weil die 3090 die 120hz vom OLED nicht ganz ausreizen konnte. :D
Auch die 4090 kommt manchmal an die Grenze...und deshalb äugle ich mit der 5090.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Solange das Spiel jetzt nicht ganz kaputt ist wie Jedi Survivor, geht das aktuell sogar, wenn auch mit Hilfe von DLSSQ und FG, was ich aber auch nur dann einschalte, wenn ich keine Artefakte sehe.
Bei Remnant2 z.b. sehe ich keine und habe 90-100FPS im Spiel. In CP2077 mit Pathtracing auch.
Bei Jedi Survivor macht die CPU Probleme. :D
Was ist den bei Jedi kaputt ? Braucht halt einfach eine Starke CPU, aber sonst ?

Remants2 würde ich Persönlich FG ausschalten, der Input lag stört (Persönlich Meinung ) mich sehr.
Zudem scheint es da gerade bei der Nebel Welt (da wo man :-$) sogar zu FPS Verlust zu kommen.
Laut Gamestar und laut dem was ich mit meinem 7800x3d und 4090 Testen konnte.
 
Ist nicht sooo schwierig. Wenn man arbeiten geht und im Monat angenommene 50€ weglegt, dann ist nach 2 Jahren eine RTX4080 drin.

Zudem, wer nicht raucht/kifft/übermäßig säuft und es auch sonst nicht mit dem ausgeben des hartverdienten Talers übertreibt, kann sich dann auch ne RTX4090 leisten...

Man sieht, es ist machbar ohne das man woanders großartig sparen muss. Und JAAA, man kann auch mal 1-2 Gen's aussitzen. Noch mehr Zeit zum ansparen;)

Gruß
Zumal viele nicht bei Null anfangen ;)
Beispiel:

Kaufst du heute eine 4080 und in zwei Jahren wieder eine 5080, wobei du deine 4080 dann verkaufst brauchst du keine 50 €.

Annahme:
4080 1200€ in 2023 und eine 5080 in 2025 dann 1500€. In 2025 bekommt man für die 4080 normal noch mindestens 60% vom Kaufpreis, runden wir ab, wären das 700€.

Zu Zahlen in 2025 sind dann 1500€ minus 700€, also effektiv "nur" 800€.

800€ auf 24 Monate sind nur 33 € für die GPU pro Monat ;)
Was ist den bei Jedi kaputt ? Braucht halt einfach eine Starke CPU, aber sonst ?

Remants2 würde ich Persönlich FG ausschalten, der Input lag stört (Persönlich Meinung ) mich sehr.
Zudem scheint es da gerade bei der Nebel Welt (da wo man :-$) sogar zu FPS Verlust zu kommen.
Laut Gamestar und laut dem was ich mit meinem 7800x3d und 4090 Testen konnte.
Spiele die in 2023 nicht wirklich nennenswerte Vorteile aus mehr als 8 Threads ziehen, kann man fast schon als kaputt bezeichnen. ;) Aber nur böse Zungen würden das machen.
 
Spiele die in 2023 nicht wirklich nennenswerte Vorteile aus mehr als 8 Threads ziehen, kann man fast schon als kaputt bezeichnen. ;) Aber nur böse Zungen würden das machen.
Echt, habe da nie darauf geachtet. (meinst du btw wirklich threads also 4 kerne + SMT) oder 8 kerne ?

Das wäre natürlich durchaus etwas schade. Besonders wenn das Spiel CPu power braucht. Ich meine bei Spielen die so oder auf allen laufen ist es nicht wichtig ob die nun 1 oder 6 Kerne nutzen. Aber bei Games die Starke CPUs brauchen sollte man erwarten das diese dann auch Effizient genutzt werden.
 
Zumal viele nicht bei Null anfangen ;)
Beispiel:
Klaro. Ich meinte ja auch nur, daß selbst eine Highend-GPU (oder andere unnötige Spielereien:D) machbar sind ohne gleich den Kit aus dem Fenster fressen zu müssen...

Mit dem Verkauf der ollen Pixel-Schubse hab ich mir eh seit 2005 die neue querfinanziert. Manche nennen dies auch schönrechnen. Aber, türlich isses besser, wenn du statt (angenommenen) 800 Talern nur 500 ducken musst.

Gruß
 
Echt, habe da nie darauf geachtet. (meinst du btw wirklich threads also 4 kerne + SMT) oder 8 kerne ?

Das wäre natürlich durchaus etwas schade. Besonders wenn das Spiel CPu power braucht. Ich meine bei Spielen die so oder auf allen laufen ist es nicht wichtig ob die nun 1 oder 6 Kerne nutzen. Aber bei Games die Starke CPUs brauchen sollte man erwarten das diese dann auch Effizient genutzt werden.
Naja, erstens meine ich das gelesen zu haben, aber frag mich gerade nicht danach wo. Vielleicht bei DSO

Aber auch hier im PCGH Bench sieht man das ein Zen 3 6 Kerner nur 19% vor dem Zen 2 Vierkerner ist und ein Zen 3 8 Kerner nur 5% vor dem 6 Kerner. Alles ungetweakt.

Wenn man also den Unterschied von Zen 2 zu 3 raus nimmt, skaliert das Spiel sogar von 4 auf 6 Kerne nicht gut.

Der Unterschied vom 13400f zum 13900k ist auch der Unterschied beim Speichertakt und dem Kerntakt und mehr nicht.

Das dann als CPU Fresser zu bezeichnen wäre für mich falsch.
Klaro. Ich meinte ja auch nur, daß selbst eine Highend-GPU (oder andere unnötige Spielereien:D) machbar sind ohne gleich den Kit aus dem Fenster fressen zu müssen...

Mit dem Verkauf der ollen Pixel-Schubse hab ich mir eh seit 2005 die neue querfinanziert. Manche nennen dies auch schönrechnen. Aber, türlich isses besser, wenn du statt (angenommenen) 800 Talern nur 500 ducken musst.

Gruß
Wieso schön rechnen, der Wert ist ja real.

Ich habe das auch immer so gemacht und kam nur seit 2016 ins stocken (Leben und co halt ;) ).

Jetzt fang ich wieder an und da bin ich erstmal bei 4070ti (schon gemacht) und kurzfristig auch R5 7600x, oder 12400F/13400F/12600kf, mit schnellem DDR5 Ram.

Das reicht zum einstieg, bis nächstes Jahr allemal ...
 
Was ist den bei Jedi kaputt ? Braucht halt einfach eine Starke CPU, aber sonst ?

Remants2 würde ich Persönlich FG ausschalten, der Input lag stört (Persönlich Meinung ) mich sehr.
Zudem scheint es da gerade bei der Nebel Welt (da wo man :-$) sogar zu FPS Verlust zu kommen.
Laut Gamestar und laut dem was ich mit meinem 7800x3d und 4090 Testen konnte.
Also ich habe es am Release gezockt, da hatte ich mit dem 5800X3D und einer 4090 in der ersten Welt unter 30FPS im Schiff des Senators und auch davor unter 40FPS. Nach Couruscant war es zwischen 50-70FPS mit immer wieder leichten Rucklern. Aber weder CPU noch GPU waren voll ausgelastet. Laut Tests hat das Spiel die CPU nie richtig genutzt und von daher gab es Ruckler.
Zudem gab es mit Raytracing auf Jedha immer Spielcrashes, ohne RT crashte es aber nicht. Das ist heute aber behoben.
Durchgespielt habe ich das Spiel trotzdem, bin halt Hardcore, wenn mir ein Spiel gefällt.

Hast du den Inputlag mit FG getestet? Oder hast du dir einfach Tests angesehen die sagten, FG habe mehr Inputlag und dir dadurch eine Meinung gebildet? Das würde ich wirklich gerne wissen. Einige Leute scheinen empfindlich in der hinsicht zu sein.
Ich merke keinen wirklichen Unterschied zwischen Maus Inputlag und Controller Inputlag, obwohl der Controller mehr haben soll.Bei FG ist es genauso, da merke ich den Inputlag nicht.
Was ich merke ist, das manchmal das Bild unruhig wird, wenn sich die FPS stark ändert, z.b. wenn man z.b. ein Manü oder eine Karte aufmacht oder auf den zweiten Monitor wechselt. Dann braucht FG manchmal mehrere Sekunden, bis es sich wieder beruhigt. Das merke ich sehr stark in Diablo 4, so stark sogar, das ich FG bei Diablo 4 nicht anmachen würde.
Bei Remnant2 gibt es aber in der Hinsicht 0 Probleme. Kein gefühltes mehr an Inputlag, kein Ruckeln, nichts.
Bei 40k Darktide hatte ich auch keine Probleme mit FG, wohl aber mit DLSS2 an einigen Stellen.
So sehe ich also mit FG die selben Probleme wie mit DLSS und FSR:
Die Qualität der Implementierung dieser Techniken sind von Spiel zu Spiel stark unterschiedlich.


P.S.
Vielleicht liegt die Tatsache, das ich keinen extra Inputlag merke, auch an meinem OLED? :D
EIn OLED ist halt mehrere Millisekunden schneller als TN oder IPS. Das könnte die Wahrnehmung ändern.

Klar gibt es 360hz Monitore die sind auch sehr schnell, aber krieg erstmal 360FPS in Remnant2 hin...

@RX480
Ja man sieht Leute kaufen die günstigen AMD Karte, weil sie das beste Preis/Leistungsverhältnis haben.
Zudem liegen die Karten unter 700-800€ (wie auch die 4070), was schon immer eine Grenze für viele Leute war. Meine 1080Ti hat damals auch soviel gekostet. Bei dem meisten ist hier sogar 400€ die Grenze.
Dennoch werden die schnellsten Karten auch nicht wenig gekauft...

P.S. Auch noch wichtig zu erwähnen ist RT. Während es schon mehr RT gibt, ist es noch immer nicht weit verbreitet und für die meisten "Normalos" uninteressant. Für MICH ist es aber nicht mehr wegzudenken. Speziell aber RTGO und RT-Schatten...bei Spiegelungen wären mir SSR immer noch recht, da achtet man beim Spielen nicht so drauf.

@derneuemann @facehugger
Das habe ich dann so 2020 gemacht, als der Miningboom kam und werde es so auch bei der RTX5000 so machen.
Alte verkaufen und neue mit dieser "Anzahlung" kaufen.
So kam ich mit 0€ von einer 1080Ti auf eine 3090, dank dem Boom und FEs zu UVP über NBB.
Die 900€ von der 3090 hat dan die 4090 querfinanziert, ansonsten wäre mir eine 4090 auch zu teuer gewesen.

Man sollte sich aber im klaren sein, das der Wert einer GPU im schlimmsten Fall um 50% in 2-3 Jahren fallen kann, wenn man die teurste kauft. Die 3090 war beim Release der 4090 nur noch 700-900€ "Wert".
Die 4090 hat aber genug Abstand diesmal, das der Wert nicht so viel fallen sollte. Die 4090 wird sicherlich nicht viel langsamer als eine 5080 sein. Die 3090 ist aber teils langsamer wie eine 4070Ti...

Lustigerweise wird die 4090 Founders aktuell wie als "Sammlerstück" über Ebay mit Preisen über 2000€ gehandelt. Und sie wird für den Preis gekauft, weil Nvidia nicht viele liefert. :D

Bei CPUs fällt es eigentlich nicht so schnell, aber CPUs upgradet man aber nicht jede Gen, bei mir sind es mind 5 Jahre. Vor dem 5800X3D hatte ich einen 7700k, für den ich zusammen mit dem Board auch noch fast 300€ 2021 bekommen hatte. Der Neupreis war so bei ca 500€ für beides.

Was eher schlecht ist, ist der starke Preisverfall von RAM und SSDs für den Wiederverkauf, wenn man vor ein paar Jahren diese gekauft hatte.
Ich hatte vor 7 Jahren oder so mal eine 512GB NVME gekauft...für 300€...heute gibt es eine ähnliche für 30€. :wall:
Aber hey laut Smart wird die noch mind 93 weitere Jahre laufen...wird sicherlich ein cooles Erbstück für die Kinder udn Kindeskinder...
 
Zuletzt bearbeitet:
Also, ich habe das getestet und ich merke ihn durchaus, Gerade in Boss kämpfen. Der zeitpunkt wenn ich auf etwas Optisches Regiere verändert sich mit Fg nach vorne. Ich muss also früher in der Animation reagieren. Ergo schließ ich daraus mehr input lag.
Auch werden Aktion gefühlt etwas später ausgeführt. (aber alles sehr minmal) Mag die Technik, finde sie nur für mich Persönlich nicht von vorteil in diesem Spiel.
In Redfall benutze ich auch FG und da alles ok.
in Cyberpunk sind die Räder der Autos mit FG (damals noch patch 1.59 meine) ziemlich hässlich deswegen auch dort aus.

Also zwecks Jedi:
habe das erst seid ca 1 monat. Und konnte keine niedrigen FPS feststellen beim Normalen Spielen.

Wenn ich es aber provoziere (RT wie immer an und alles Max wie immer)
Und dann Renne und dabei die Camara drehe sinken die low fps merklich was man auch spürt.
 
Ein wenig Geld sollte man für das Hobby alle fünf Jahre mal investieren, oder nicht? :-)
Im nächsten Jahr wird erst einmal Geld in die Switch 2 investiert, nachdem die Switch (1) ganze sieben Jahre gehalten haben wird. :ugly: Spaß beiseite: Software sells Hardware. Bei der derzeitigen Entwicklungsdauer von Spielen und der vermehrt durchaus minderwertigen Qualität von Triple-A-Erzeugnissen fällt's mir schwer, meine Hardware zu genießen - die wird bei dem, was ich derzeit spiele, einfach nicht ausgenutzt. Meine 4080 ist also eigentlich völliger Overkill.
Klar, nur ist der sinnvolle Upgradepfad für die 1060 in Form der 4060 und ihrer Konkurrenzprodukte ja gerade erst angekommen.
Der sinnvolle Upgradepfad ist hierbei aber die "richtige" 4060, nämlich die 4070, da die "derzeitige" 4060 nur eine 4050 ist. Gerade auf alten Plattformen, die nur PCIe 3.0 können, ist die "derzeitige" 4060 relativ überflüssig. :ugly:
 
Im nächsten Jahr wird erst einmal Geld in die Switch 2 investiert, nachdem die Switch (1) ganze sieben Jahre gehalten haben wird. :ugly: Spaß beiseite: Software sells Hardware. Bei der derzeitigen Entwicklungsdauer von Spielen und der vermehrt durchaus minderwertigen Qualität von Triple-A-Erzeugnissen fällt's mir schwer, meine Hardware zu genießen - die wird bei dem, was ich derzeit spiele, einfach nicht ausgenutzt. Meine 4080 ist also eigentlich völliger Overkill.

Der sinnvolle Upgradepfad ist hierbei aber die "richtige" 4060, nämlich die 4070, da die "derzeitige" 4060 nur eine 4050 ist. Gerade auf alten Plattformen, die nur PCIe 3.0 können, ist die "derzeitige" 4060 relativ überflüssig. :ugly:
Stimme zu,
Wenn es denn unbedingt NVidia sein muss, weil du nichts anderes kennst.
Die RTX4070 ist noch die interessanteste vom Preis/Leistung her und wäre dann auch mein Kauf.

Stell dich darauf ein, dass man die Regler wegen Speicherkapazität und Anbindung desse schon heute runterstellen muss.

Deine 4080 finde ich zwar auch die rundum ausgewogenste Karte, aber der Preis ist der Killer!
Geile Karte + scheiss Preis = sch..lechtes Angebot. Schade
 
Zuletzt bearbeitet:
Der sinnvolle Upgradepfad ist hierbei aber die "richtige" 4060, nämlich die 4070, da die "derzeitige" 4060 nur eine 4050 ist. Gerade auf alten Plattformen, die nur PCIe 3.0 können, ist die "derzeitige" 4060 relativ überflüssig. :ugly:
Wenn das Thema Speicher da nicht wäre, würde ich da klar widersprechen. Die 4060 ist doppelt so schnell und da die 1060 auch Speichertechnisch auf der Kippe stand, könnten 8GB Speicher reichen. Ein "rundes" Upgrade ist das aber zugegebenerweise nicht, sofern man von der 6-GB-Variante kommt. Eventuell ist die 4060Ti 16GB da die klarere Wahl. Um das Interface würde ich mir keine Gedanken machen, solange der Speicher reicht, sollte das kein Problem sein. Die Preise sind halt momentan nach Release immer ziemlich hoch, aber ich denke, dass die sich mit der Zeit entschärfen werden. Die 4070 ist halt noch mal deutlich teurer. Ansonsten sind auch die 6700XT oder die kommende 7700(XT) nicht uninteressant.
 
Wenn das Thema Speicher da nicht wäre, würde ich da klar widersprechen. Die 4060 ist doppelt so schnell und da die 1060 auch Speichertechnisch auf der Kippe stand, könnten 8GB Speicher reichen. Ein "rundes" Upgrade ist das aber zugegebenerweise nicht, sofern man von der 6-GB-Variante kommt. Eventuell ist die 4060Ti 16GB da die klarere Wahl. Um das Interface würde ich mir keine Gedanken machen, solange der Speicher reicht, sollte das kein Problem sein. Die Preise sind halt momentan nach Release immer ziemlich hoch, aber ich denke, dass die sich mit der Zeit entschärfen werden. Die 4070 ist halt noch mal deutlich teurer. Ansonsten sind auch die 6700XT oder die kommende 7700(XT) nicht uninteressant.
Leider MUSS es NVidia sein.
So habe ich es heraus gelesen. Darum habe ich auch nichts anderes angepriesen.
 
Was ein Quatsch ?
AMDs Karten sind auch nicht viel preiswerter und bieten insgesamt sogar weniger. Oh halt es gibt gar keine aktuelle Mittelklasse. Dann den alten Kaffee kaufen ?.
Du sprichst von AMD.
Nur bei NVidia ist die Vorgängergeneration gleich Alteisen. Schnell die Neue kaufen !!

AMD optimiert hier weiter und schreibt nicht gleich ab. Mein Beileid.
Was für einen übschüssigen Gehirnsaft manche hier wieder von sich geben ist ein Hammer.

Man bekommt einfach außer mit einer 4090 keinen Alleskönner.

Darunter kann Nvidia RT einfach besser und ob jemand das wichtig ist, entscheidet jeder Käufer selbst, egal was wer auch immer darüber denkt.

Dafür hat AMD mehr Speicher.

Bei kommenden Spielen wird die Frage sein, wie viele Strahlen, oder wie viel Speicher.

Ich habe mich vorerst, aus liebe zu meinem Netzteil für eine 4070ti entschieden und weil einfach nur in 1440p und RT im Fokus stehen.

Deswegen bin ich nicht beschränkt, verblödet oder ein Fanboy. Habe mich auch nicht verarschen lassen.

Habe einfach nach meinen Kriterien gewählt.

Wenn AMD besseren VR Support leisten würde und der Verbrauch pro Leistung besser wäre auch im idle, dann wäre ich sicher mit einer 7900XTX gefahren.
Die RDNA3 war für mich ein Prototyp, ein Chiplet-Test-run.
Würde und habe ich auch nicht gekauft.

RTX40X0 pros sind Strom und RT wer beim Crowdfunding mitmachen will.

Aber Ihr wisst ja wie es geht. Abwechselnd gute Gen, schlechte Gen. Nichts Neues und gilt für alle GPU Käufer.
 
Zuletzt bearbeitet:
Du sprichst von AMD.
Nur bei NVidia ist die Vorgängergeneration gleich Alteisen. Schnell die Neue kaufen !!

AMD optimiert hier weiter und schreibt nicht gleich ab. Mein Beileid.

Die RDNA3 war für mich ein Prototyp, ein Chiplet-Test-run.
Würde und habe ich auch nicht gekauft.

RTX40X0 pros sind Strom und RT wer beim Crowdfunding mitmachen will.

Aber Ihr wisst ja wie es geht. Abwechselnd gute Gen, schlechte Gen. Nichts Neues und gilt für alle GPU Käufer.
Also ich hatte vorher die GTX1080. Wo siehst du da das ich gleich immer die neuste Gen kaufe? Wenn für dich die AMD Karten die besseren sind, dann soll es so sein. Für meine Ansprüche leider nicht (mehr).
 
Zurück