News Radeon gegen Geforce: Alles super? Jetzt mitmachen bei GPU- und VRAM-Umfragen

Nach einer tollen 6900xt habe ich mir eine 4090 gegönnt. Mein Sohn nutzt nun die gute 6900xt mit Igors Lab MPT getunt, natürlich xD.
Mit 16,33 % führt die 4090 einsam. Entweder sind eure Leser*innen alle steinreich, oder kaum jemand antwortet ehrlich. Repräsentativ ist die Umfrage damit aber nicht.
Hat nichts mit steinreich zu tun. Sparen, wie jeder andere auch. Manche verballern ihr Geld in Kippen und Alkohol, ich eben für mein Hobby.
 
Die Menschen hier im Forum geben für ihr hobby einfach gern Geld aus. Ist halt ne Enthusiasten Bubble.
Richtig, man soll nicht immer von sich selbst auf andere schließen.
Ich gebe für meine Hobbys mehrere 100 Euro jeden Monat aus, ich habe zwar nur eine 3090 die ist damals genauso teuer gewesen wie die heutige 4090 und dafür schäme mich nicht, jeder soll sich kaufen was er will und sich leisten kann oder was für seine Zwecke sinn macht.

Das hier immer wieder über Nvidia über die Preise gemeckert wird ist nur lächerlich, ja die sind teuer das sind die von AMD auch, nur mit dem Unterschied das AMD kein Gegenstück zur 90 Serie/ Titan hat und denn wird rumgemeckert von Personen die es sich nicht leisten wollen oder können und andere Menschen beschimpft die sich sowas kaufen

Ich werde mir eine 5090 Kaufen oder 5080 auch wenn die 2000 Euro kostet weil ich die für 3D Anwendungen brauche und die mir einfach mal Lebenszeit ersparen im gegen ganz zu AMD denn es einfach mal in Anwendungen an Rechenleistung mehr als nur fehlt.
 
Naja, 355W der RX 7900XTX gegen die 320W der RTX 4080 sind jetzt nicht so viel. Am Anfang hatten sie noch einen höheren Verbrauch im Leerlauf, aber das wurde per Treiber behoben.

Die Zeit, in der die Karten "nur Probleme" bereiteten ist seit 15 Jahren vorbei.

Wobei auch Nvidia so seine Probleme hatte. Die GTX 980Ti hat mit 4K oder 120Hz Monitoren im Leerlauf perverse 120W gezogen.
Wo hast u das her meine 4070 TI kann auch 285 Watt aber die liegen fast nie an meistens sind es 225-250 Watt wie auch in der PCGH stand AVERAGE.

Mit Undervolting bin ich dann halt bei 150-200 Watt je nach Spiel und büße nichts ein.

Während die AMD Karten anscheinend durchgehend Powerlimitiert sind das heißt das die 355 Watt immer anliegen out of the box.

Nvidia ist da am Lichtjahre voraus. Videos kucken brauchen die AMDs schon 60 Watt. 60 Watt braucht meine Karte um in 4k 120 fps zu produzieren in alten spielen. Kuck doch in der PCGH Fenster Bewegung oder kleineste Maus Bewegungen lassen den verbrauch der Radeons explodieren.

Nicht zeitgemäß und zu sagen das die 320 vs 355 nicht viel sind ist auch schwach wenn die 4080 kaum mehr als 280-290 Watt braucht in den meisten fällen und mit Undervolting bei 250 Watt locker out of the box Performance bietet. Versteh dein Argument also gar nicht.

Du bist doch hier mit den Daten von dieser Seite und massiv an Daten von Usern. Ich finde nicht 1 Grund warum man heute keine Nvidia kaufen sollte, kannst mir aber gerne sagen was für eine Amd spricht. Denn weder Upscaling, Framegen,Raytracing,Effizienz, Treiber auch wahrscheinlich. Also was spricht dafür? In einem objektiven Umfeld nichts, die Konsumenten sehen das wohl genauso was man an der Kaufkraft sieht.





Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wo hast u das her meine 4070 TI kann auch 285 Watt aber die liegen fast nie an meistens sind es 225-250 Watt wie auch in der PCGH stand AVERAGE.

Hängt auch immer von der Last und den Taktraten des Herstellers ab. Die Nvidiakarten gehen auch schonmal an ihre Grenzen.

Mit Undervolting bin ich dann halt bei 150-200 Watt je nach Spiel und büße nichts ein.

Es zählt, was aus der Schachtel kommt. Meist sind es AMDler, denen man sowas sagen muß und ja, man kann das auch mit AMD Karten machen.

Nvidia ist da am Lichtjahre voraus. Videos kucken brauchen die AMDs schon 60 Watt. 60 Watt braucht meine Karte um in 4k 120 fps zu produzieren in alten spielen.

Das haben sie doch gepatcht.

Nicht zeitgemäß und zu sagen das die 320 vs 355 nicht viel sind ist auch schwach wenn die 4080 kaum mehr als 280-290 Watt braucht in den meisten fällen und mit Undervolting bei 250 Watt locker out of the box Performance bietet. Versteh dein Argument also gar nicht.

355W zu 320W ist ein Mehrverbrauch von 11%. Es ist nicht nichts, aber kein Weltuntergang. Bei den 300W einer R9 390X zu den 180W einer GTX 980 oder auch 330W der Fury X zu den 250W der GTX 980Ti war das noch etwas anderes.

Ich finde nicht 1 Grund warum man heute keine Nvidia kaufen sollte, kannst mir aber gerne sagen was für eine Amd spricht.

Für die RX 7900XTX gegen die RTX 4080 Super sprechen:
1: 50% mehr VRAM
2: ein um 150€ geringerer Preis
3: DP 2.1

Jetzt hast du gleich drei Gründe.
 
Es zählt, was aus der Schachtel kommt.......
......und Games dürfen nur max gezockt werden:daumen:. Werden ja auch so getestet. Mit der Einstellung wäre PC Gaming schon lange ausgestorben.
Ich wüsste jetzt keinen Grund warum ich da jetzt 440W durchblasen sollte. Mit der RTX 4070TI und halbe Bildschrim Refrehrate (165Hz/82FPS) sind zwar die FPS nicht ganz so hoch, aber dafür absolut gleichmäßig und ~320W weniger schlagen auch noch zu Buche.


RTX 4070Ti super

Du kannst auch gerne mal auf das + drücken um zu sehen ob gegenüber der AMD Karte Details fehlen
 
......und Games dürfen nur max gezockt werden:daumen:. Werden ja auch so getestet. Mit der Einstellung wäre PC Gaming schon lange ausgestorben.

Wenn man die Dinger vergleichen soll, dann zählt, was aus der Schachtel kommt. Zum einen, weil nur eine kleine Minderheit OC und UV betreibt und zum anderen, weil die Ergebnisse stark von Exemplar zu Exemplar schwanken. Ob Daves 24W 7800X3D so auch mit einem anderem Exemplar möglich wäre? Ungewisse. Was fest steht ist, dass der 14900T immer mit 35W läuft.

Deshalb ist nur so ein Vergleich sinnvoll, es sei denn, man testet jeweils 10+ Exemplare, dann hat man da wirklich ein Eindruck.

Du kannst auch gerne mal auf das + drücken um zu sehen ob gegenüber der AMD Karte Details fehlen

Besonders unten sieht man es krass:
aus dem Schwarzen wird ein Weißer, der eine Typ wird plötzlich eher nordisch, aus der Schwarzen im Hintergrund wird eine Weiße, aus der Frau ein Mann, dann wird wieder aus dem Schwarzen ein Weißer und zu guter letzt wird der nordische Typ weniger nordisch.

Wer den Unterschied nicht sieht, der hat echt Tomaten auf den Augen oder sollte sich einen Blindenhund anschaffen.
 
Zuletzt bearbeitet:
Naja, 355W der RX 7900XTX gegen die 320W der RTX 4080 sind jetzt nicht so viel. Am Anfang hatten sie noch einen höheren Verbrauch im Leerlauf, aber das wurde per Treiber behoben.
AMD ist in der Hinsicht aber immer noch hinten dran.
Zum 3D Verbrauch: WIe zuletzt Raffs vergleich der 4090 mit der 7900XTX zeigt, verbraucht die 4090 im Schnitt nur knapp 10W mehr als die 7900XTX ist ihr aber in der Leistung 1-2 Generationen voraus. Ada ist unter Teillast bzw. nicht absoluter Vollast einfach ungeschlagen effizient. Von daher ist der einfache Vergleich der TBP irreführend.

Während die AMD Karten anscheinend durchgehend Powerlimitiert sind das heißt das die 355 Watt immer anliegen out of the box.
Ja, bei den aktuellen ist das so. Bei der letzten Genration hatte AMD einen Fertigungsvorteil, während Nvidia zusätzlich auch noch mit Fertigungsproblemen gekämpft hat. Aktuelle ist es quasi anders herum.
 
Besonders unten sieht man es krass:
aus dem Schwarzen wird ein Weißer, der eine Typ wird plötzlich eher nordisch, aus der Schwarzen im Hintergrund wird eine Weiße, aus der Frau ein Mann, dann wird wieder aus dem Schwarzen ein Weißer und zu guter letzt wird der nordische Typ weniger nordisch.
Bei 5 mal laden hast Du 5 mal verschiedene Leute ist halt bei dem Game nun mal so
Wer den Unterschied nicht sieht, der hat echt Tomaten auf den Augen oder sollte sich einen Blindenhund anschaffen.
Bevor Du weiterhin solch einen Blödsinn verzapfst, solltest Du mal das Game spielen damit Du weißt von was Du redest.

Neuer Patch...neuer Treiber....DLSS/FG ausgetauscht. Die Karte zieht jetzt ein wenig mehr, dafür sind die FPS gestiegen.
Das HUD ist jetzt endlich am Rand.
HFW.jpg

orginal
https://i.ibb.co/vjrvmch/Horizon-Forbidden-West-5160x2160.jpg
 
AMD ist in der Hinsicht aber immer noch hinten dran.
Zum 3D Verbrauch: WIe zuletzt Raffs vergleich der 4090 mit der 7900XTX zeigt, verbraucht die 4090 im Schnitt nur knapp 10W mehr als die 7900XTX ist ihr aber in der Leistung 1-2 Generationen voraus. Ada ist unter Teillast bzw. nicht absoluter Vollast einfach ungeschlagen effizient.
Was halt lustig ist wenn man bedenkt, das Ampere damals gerade unter Teillast gesoffen hat wie ein loch.
Gut aber verglichen mit Ampere war gefühlt Hawaii auch effizient ;)
Bei 5 mal laden hast Du 5 mal verschiedene Leute ist halt bei dem Game nun mal so

Bevor Du weiterhin solch einen Blödsinn verzapfst, solltest Du mal das Game spielen damit Du weißt von was Du redest.

Neuer Patch...neuer Treiber....DLSS/FG ausgetauscht. Die Karte zieht jetzt ein wenig mehr, dafür sind die FPS gestiegen.
Das HUD ist jetzt endlich am Rand.
Anhang anzeigen 1457238

orginal
https://i.ibb.co/vjrvmch/Horizon-Forbidden-West-5160x2160.jpg
Dir ist bewusst das, das es mit Absicht so Übertrieben geantwortet wurde oder?

Es kam das Argument das nichts für eine Radeon spricht.
Darauf kam die Antwort doch 3 Punkte:
Preis
VRAM
DP 2.1

Darauf jetzt mit einem Spiel zu kommen und zu sagen schau mal ihr , da bringt dir dein Vrams nichts ist halt genau so als würde ich sagen z.b 150€ weniger Kaufpreis bringt dir nichts , weil ich habe ja 10000k auf dem Konto.
 
ich lass das mal da:

Aber du solang ja nur die teuersten Modelle ineffizient sind ist es ja nicht so schlimm. ;)
BTW: betraf das Teillast Problem auch die kleineren Karten, da viel es nur weniger auf weil deutlich weniger häufig Teillast anlag.
Als ehmaliger 3090 besitzer kann ich sagen, das die Karte eigentlich immer am rande des Powerlimits lief.
Ampere hat sobald last auf der Karte lag (gerade in UHD) gesoffen.
ADA ist teils deutlich genügsamer,
 
Wenn Du die kleineren Karte gelassen hast haben die auch zuviel gesoffen. Nur die konnte man ganz locker einbremsen ohne Performance zu verlieren.
 
Erst ab dem GA 103er (RTX 3070Ti - RTX 3070). Die RTX 3070 GA 104 und abwärts konnte man sehr wohl performant mit sehr wenig Watt betreiben.

Und das weißt Du woher?
Und woher weißt du das es nicht so ist ?
Beantworten kann das nur der OT.
Aber aus dem wie es geschrieben ist und was er zuvor geschrieben hat, habe ich das abgeleitet.
Wenn du das anders sieht schön.
Ändert nichts daran das, auf eine Karte hat mehr VRAM, (das ist also ein Plus punkt für karte x )
Zu antworten, das in Szenario y keinen unterschied macht , sinnlos ist.
Ist nen bisschien als würde ich sagen Nvidia hat als Pluspunkt mehr RTX leistung,
und jemand zeigt dann darunter ein Bild von einem Spiel das kein RTX nutzt, und sagt und sieht du da einen Unterschied ?
Wenn Du die kleineren Karte gelassen hast haben die auch zuviel gesoffen. Nur die konnte man ganz locker einbremsen ohne Performance zu verlieren.
Ja Super , das kann ich auch mit den jetzigen AMD karten machen, und das teils ohne großen verlust an der leistung.
Stock zählt.

Klar meine 4090 kann ich mit uv teils die effizients locker um 10-20% steigern.
Aber das hängt erstens davon ab, wie gut mein Chip ist , welches Szenario ich habe und ob ich sowas machen will bzw. kann.
Deswegen gilt für mich immer Stock vs Stock. Alles andere ist nice to know.
Auch ein 14900k kann Effizienter sein, dafür muss man nur bissle takt weg nehmen etwas uv und das Powerlimit einbremsen, hat das aber noch irgendwas mit dem Produkt zu tuen wie es die meisten leute betreiben ? Nein.

Auch AMDs können im idle Sparsam sein, bissle SOC runter paar Optionen im bios geändert und fertig.
Hat aber wieder nichts mit dem zu tuen wie wohl die meisten leute ihren Ryzen nutzen, nämlich ab ins board und fertig, die schlauen machen sogar EXPO/XMP an.
 
Zuletzt bearbeitet:
AMD ist in der Hinsicht aber immer noch hinten dran.
Zum 3D Verbrauch: WIe zuletzt Raffs vergleich der 4090 mit der 7900XTX zeigt, verbraucht die 4090 im Schnitt nur knapp 10W mehr als die 7900XTX ist ihr aber in der Leistung 1-2 Generationen voraus. Ada ist unter Teillast bzw. nicht absoluter Vollast einfach ungeschlagen effizient. Von daher ist der einfache Vergleich der TBP irreführend.
Danke, das scheint der Herr nicht verstanden zu haben. Ich habe mir ja auch etliche Tests, Videos durchgelesen. Nvidia ist einfach viel besser, keine Ahnung wie man zu einem anderen Schluss kommen kann. Daher wurde es die 4070 TI um 649€ und die Leistung ist brachial vor allem mit Dlss.

Horizon Forbidden West 4k Ausgansbasis, DLSS Balanced.

Average um die 100 fps über stunden hinweg. Das bei 135-155 Watt Gpu TBP. Zeig mir das mit irgendeiner AMD Karte. :ka: Der Ganze Pc braucht keine 300 Watt. Eher 250, plus 25 Verlust am Netzteil.
Hängt auch immer von der Last und den Taktraten des Herstellers ab. Die Nvidiakarten gehen auch schonmal an ihre Grenzen
Ja in 2 meiner Spiele liegt sie out of the box bei 270 Watt rum. Aber eher selten. Mit meiner Einstellung sind es halt 150-200 Watt bei selbiger Leistung.
Es zählt, was aus der Schachtel kommt. Meist sind es AMDler, denen man sowas sagen muß und ja, man kann das auch mit AMD Karten machen.
Ich habe gesucht, zeig es mir bitte wo du nur annähernd an meine wert mit der 4070 TI kommst. Zeig es mir bitte? Dann wärst du der erste.

Das haben sie doch gepatcht.
Nein haben sie nicht. Das weißt du nach 5 Sekunden Googeln. Bei Nvidia hat das immer funktioniert soweit ich das sehen konnte keine Probleme auch zu release nicht.

Für die RX 7900XTX gegen die RTX 4080 Super sprechen:
1: 50% mehr VRAM
2: ein um 150€ geringerer Preis
3: DP 2.1

Jetzt hast du gleich drei Gründe.
Wegen 150€ soll ich auf all das verzichten und besseren Spielesupport noch gar nicht erwähnt.Tut mir leid ich sehe es nicht. Die Kosten hast du doch nach 3 Jahren drin wenn du die 4080 Undervoltest.

Was ist mit dp 2.1?

Nenn mir 1 gescheiten Grund.
Wenn man die Dinger vergleichen soll, dann zählt, was aus der Schachtel kommt
Ja passt auch da liegt die 4070 ti von 200-275 Watt alles dabei die AMD Karte wird ihr Limit immer ausreizen. Kann dich gar nicht ernst nehmen, solange hier angemeldet und nicht einmal das weißt du ich habe mir dieses wissen in den letzten 2 Wochen angeeignet. Da zum glück undervolting eigentlich extrem einfach ist. Sonst kennt sich wahrscheinlich der durchschnittliche 15 Jährige besser am Pc aus als ich.
Wer den Unterschied nicht sieht, der hat echt Tomaten auf den Augen oder sollte sich einen Blindenhund anschaffen.
Persönlich werden weil keine Argumente mehr damit hat sich die Diskussion auch erledigt.
 
Zuletzt bearbeitet von einem Moderator:
Warum sollte man sich eine Radeon in den Pc stecken. Nur Probleme, hört man überall das seit 20 Jahren.
Vor 20 Jahren waren die Treiber auch nicht so gut, wie die der Konkurrenz. Heute nehmen sich alle drei Hersteller nichts (selbst Intel hegt und pflegt ordentlich).

Ich bin seit 30 Jahren PC-Gamer und hatte NIE größere Probleme, egal ob ATi, AMD, Nvidia ....

Problem sitzt fast immer eher vor dem Rechner!
 
Zurück