Geforce RTX 3090 Ti im Test: Ampere will es mit 450 Watt und 2.249 Euro UVP noch einmal wissen

@deady1000
Die StrixxTi vom o.g. Luxxer macht aber mit ihren 516W nen ordentlichen Eindruck, da musste mit Deiner 3090FE erstmal rankommen. (x)
(immer die Posts von Leuten, die selber gar nix zeigen, ... das finde ich etwas voreilig dahingesagt)

(x) und wie ist die Haltbarkeit und Temp bei ner 3090FE@air wenn man den Vram so OCen würde?
 

Anhänge

  • 3090Ti@2280MHz.JPG
    3090Ti@2280MHz.JPG
    115,5 KB · Aufrufe: 35
Zuletzt bearbeitet:
Der Thread erinnert mal wieder an eine Selbsthilfegruppe. Obwohl anhand der Meinungen hier sich keiner so wirklich für die 3090 Ti zu interessieren scheint, wird sich fleißig ausgekotzt was für eine schlechte Karte das doch ist.
Hey, die 6900XT LC war noch eine sehr gute Karte.
Bei den Prozessoren wird auch für die letzten 1 bis 2% zum 16 statt 8 Kerner gegriffen, da sind Grafikkarten, die 5 bis 10% mehr leisten, natürlich völlig irrational.:-P

Hier bei PCGH ist man einfach richtig woke.
unerfahrene Anwender fragen eben genau "uns" die wir uns damit auskennen was sinnvoll ist und was nicht.
Mehr Leistung ist immer sinnvoll - auch wenn diese nicht linear mit der Leistungsaufnahme steigt und mehr Kühlung und monetäres Investment bedarf. Umsonst würden nicht so viele User ihre Hardware übertakten.
Nun gibt es eben die schnellste Karte der Welt die noch mal 5 bis 10% mehr kann.

Ein Produkt mit solchen Eckdaten wie die 90Ti sprengt einfach auch mittlerweile jede sinnige Grenze.
Fun Fact: Früher waren Grafikkarten noch um einiges lauter und auch der Strombedarf war bei SLI oder CF Systemen wesentlich höher.

Zum Benchen mal was aus der Möhre zu quetschen ist eine Sache, 3h neben einem 900Watt Heizstrahler im Sommer zu sitzen eine ganze Andere.
Das Gesamtsystem wird im Spieleszenario nicht deutlich über 550 Watt kommen.

...entwickelt sich eine solche Karte auch tatsächlich zu einem Belastungsfaktor für die monatlichen Unterhaltskosten.
Nein, bei Weitem nicht, wenn man sich die Karte selbst leisten kann.
Kosten pro Jahr sind im Vergleich zu seiner 300 Watt Karte bei 1h/Tag etwa 15 Euro höher.
Wie soll das ein Belastungsfaktor für die monatlichen Unterhaltskosten sein?:lol:
Was einige hier wieder schreiben, ist wirklich belustigend, mann mus nur woke genug sein?:hail:
 
Zuletzt bearbeitet:
Jaein, anders sinnlos ja. Die TI bietet schnelleren und kühleren Speicher, eine höhere TDP, höheren Takt und den Vollausbau (mehr Shader etc.).
Die 6950XT bietet wohl nur minimal schnelleren Speicher. Den XT XH Chip mit dem gleichen Takt und der gleichen TDP gibt es aktuell schon.
Bringt was, wenn ich eine 3090 mit mod bios, oder Powerlimit mod daneben stelle, ist der Unterschied mit der Lupe zu suchen.

Für den Käufer sollte am Ende immer zählen was bei raus kommt. Der Weg dahin ist interessant, aber entscheident ist das Ergebnis.
 
Warum hat die 3090ti eigentlich "nur" 24 GB?
Der diskutierte Leistungsunterschied zur 3090 ist ja per se kaum ein Kaufargument.
Bisschen mehr GB wäre es evtl. schon gewesen...
 
Hey, die 6900XT LC war noch eine sehr gute Karte.
Bei den Prozessoren wird auch für die letzten 1 bis 2% zum 16 statt 8 Kerner gegriffen, da sind Grafikkarten, die 5 bis 10% mehr leisten, natürlich völlig irrational.:-P
Hier wie da, sinnvoll für einstellige Prozentbereiche ist beides nicht. Das nochnicht einmal bei geringen höherem Verbrauch.


Hier bei PCGH ist man einfach richtig woke.
Gut das zu wissen ;)


Mehr Leistung ist immer sinnvoll - auch wenn diese nicht linear mit der Leistungsaufnahme steigt und mehr Kühlung und monetäres Investment bedarf. Umsonst würden nicht so viele User ihre Hardware übertakten.
Nun gibt es eben die schnellste Karte der Welt die noch mal 5 bis 10% mehr kann.
Kann man drüber streiten, bei 5-7% für 100W+ (+30% Energieverbrauch)

Fun Fact: Früher waren Grafikkarten noch um einiges lauter und auch der Strombedarf war bei SLI oder CF Systemen wesentlich höher.
Wesentlich höher als 470W, weil ja nach deiner Logik man die 3090TI ja auch wieder auf max zieht.
Dazu kommen noch CPU und der restliche Kleinkram. Also rund 600-620W an 12V was aus der Dose etwa 640-700W sind je nach Netzteil.

Das Gesamtsystem wird im Spieleszenario nicht deutlich über 550 Watt kommen.

An 12V, oder aus der Dose.
Nein, bei Weitem nicht, wenn man sich die Karte selbst leisten kann.
Kosten pro Jahr sind im Vergleich zu seiner 300 Watt Karte bei 1h/Tag etwa 15 Euro höher.
Wie soll das ein Belastungsfaktor für die monatlichen Unterhaltskosten sein?:lol:
Was einige hier wieder schreiben, ist wirklich belustigend, mann mus nur woke genug sein?:hail:

Ja, über Strom reden bei einer 2000+€ ist schon interessant. Selbst wenn jemand meint er zockt 10h am Tag, dürfte das ja wohl kein Hindernis sein.

Aber der Verbrauch dürfte jemanden für das gebotene dennoch zu hoch sein.
Warum hat die 3090ti eigentlich "nur" 24 GB?
Der diskutierte Leistungsunterschied zur 3090 ist ja per se kaum ein Kaufargument.
Bisschen mehr GB wäre es evtl. schon gewesen...
Wobei die Speichermenge mit 24Gb nie begrenzt. (Aktuell)
 
Wobei die Speichermenge mit 24Gb nie begrenzt. (Aktuell)
Beim Daddeln mag das evtl. sein.
Ich beobachte aber aktuell z. b. bei FarCry6 mit HD Texture Pack, dass meine 16 GB der 6900xt fast volllaufen...^^
Denke, wenn Speicher da ist, nutzt ein System den Speicher auch, wenn man die Regler in eine bestimmte Richtung schiebt.

Aus meinem Planungsumfeld 3D Cad weiss ich, dass bei Projekten auch mal eine RTX 8000 mit 48 GB volllaufen kann...
 
Beim Daddeln mag das evtl. sein.
Ich beobachte aber aktuell z. b. bei FarCry6 mit HD Texture Pack, dass meine 16 GB der 6900xt fast volllaufen...^^
Das kann ich anhand meiner jüngsten Extremtests bestätigen bzw. quantifizieren.

5K mit HD-Texturen: Kein Problem mit 16 Radeon-GiByte. :daumen:
5K mit HD-Texturen und Raytracing: 16 Radeon-GiByte laufen über. :wow:
5K mit HD-Texturen und Raytracing: RTX 3090 Ti im Spaziergang-Modus, wird langsam warm. :cool:
6K mit HD-Texturen und Raytracing: RTX 3090 Ti meldet ~22 GiByte bei Spielstart und gammelt mit 2 GHz im 30-Fps-Milieu herum. :ugly:

MfG
Raff
 
Wie das wohl erst wird wenn die Spiele erscheinen die von der Realität kaum zu unterscheiden sind, gab erst kürzlich wieder eine Demo oder so etwas, wie viel Vram wir in Zukunft wohl benötigen, wann die Ziet gekommen ist wenn man über 24GB lachen wird weil lächerlich wenig sein werden, hmm.

Hab heute was zum lachen gesehen als ich nachsehen wollte wie weit die Preise generell nach unten gehen, ein Bot hat auf Ebay eine verdächtig günstige 3090Ti gekauft, eine Karte mit Lisa Su Lizenz, muahahaha, dass das noch legal ist wusste ich nicht, aber witzig das dies noch immer funktioniert, ich dachte die Scalper sind schlauer geworden, gier frisst scheinbar auch bei denen das Hirn ;-)
 
@deady1000
Die StrixxTi vom o.g. Luxxer macht aber mit ihren 516W nen ordentlichen Eindruck, da musste mit Deiner 3090FE erstmal rankommen. (x)
(immer die Posts von Leuten, die selber gar nix zeigen, ... das finde ich etwas voreilig dahingesagt)

(x) und wie ist die Haltbarkeit und Temp bei ner 3090FE@air wenn man den Vram so OCen würde?
1) Ich habe null Interesse meine Karte auf Standardspannung oder gar Übertaktet zu betreiben. Habe nur striktes UV drin und fahre sehr gut damit. Daher mir ehrlich gesagt kackegal was Leute mit 516W im Timespy erreichen. Es juckt mich nicht. Völlig geisteskranker Verbrauch in meinen Augen. Die RTX3090 ist selbst untervoltet auf WQHD so schnell, dass Schwanzvergleiche völlig sinnlos sind, weil im Regelfall entweder die Monitorrefreshrate erreicht wird oder der Rest des Systems drosselt.

2) Interessiert mich auch nicht, da ich den EKWB Full Cover Block mit aktiver Hybrid Backplate nutze und der VRAM unter Volllast seltenst über 60°C geht. Habe noch nie die 80°C gesehen mit dem Ding. Und der ist auf besagte 21Gbps gestellt. Klar, wer die RTX3090FE mit dem Originalkühler betreibt, der wird auch mal 100°C und mehr sehen. Aber mir persönlich ist die Meldung vom großen Massensterben entgangen. Übrigens haben viele Leute die Wärmeleitpads bei der FE getauscht und dramatische Temperaturverbesserungen erlebt. Das sollte man dann ggf vor dem VRAM-OC machen.
 
Keine Frage, das Du für Dich persönlich ne gute Lösung gefunden hast.(x)
aber
Du hausierst in einigen Threads mit der Message, das man die 3090FE out of the box massiv beim Vram OCen sollte.
Wie soll das 24/7 in nem normal belüfteten Case funzen. Vram>100°C
also
Als außenstehender Beobachter finde ich die techn. Fortschritte bei der Ti sehr interessant und auch die 200€
mehr wert ggü. ner dicken Custom-nonTi. (deutlich bessere Spannungsregelung und Vramtemps)
... man kann 24/7 viel besser mit der Ti hantieren und braucht keine Angst haben, das das NT net reicht für Spikes

(x) ne 3090 für WQHD ist ja ganz schön Overkill.
Lastet die Gute dann die Shader auch vernünftig aus?
(dachte bisher immer, das RDNA2 für highFps-Gaming idealer wäre)
 

Anhänge

  • TI vs XTXH@wqhd.JPG
    TI vs XTXH@wqhd.JPG
    113,3 KB · Aufrufe: 28
Zuletzt bearbeitet:
@deady1000
Die StrixxTi vom o.g. Luxxer macht aber mit ihren 516W nen ordentlichen Eindruck, da musste mit Deiner 3090FE erstmal rankommen. (x)
(immer die Posts von Leuten, die selber gar nix zeigen, ... das finde ich etwas voreilig dahingesagt)

(x) und wie ist die Haltbarkeit und Temp bei ner 3090FE@air wenn man den Vram so OCen würde?
Also ich denke da wird ein Chiller benutzt bei den niedrigen Temperaturen. Da würde meine 3090 sehr nahe herankommen bei gleicher Kühlung. Die GPUs für die 3090ti werden ja gebinnt. Sind nur die Top GPUs und da kann man auch einiges erwarten. Ich denke aber bei gleicher Kühlung wird der Unterschied sehr gering sein. Ich kann auch +1300MHz auf den Speicher geben aber das macht kaum Punkte oder FPS.
 
NeNe,
ist original die StrixxTi@normalerWLP mit Ihrer 240er-AiO, evtl. am Fenster

Wieviel W+V würdest Du denn für den Takt brauchen?
(man darf net vergessen, die Ti muss sicher ein paar W mehr für den Vram und die mehr Shader aufbringen, ...
und ja ist ein GoldenSample , ... die anderen im Luxx kommen da net ganz ran)
 

Anhänge

  • 3090Ti-Strixx@516W_2280MHz.JPG
    3090Ti-Strixx@516W_2280MHz.JPG
    47,3 KB · Aufrufe: 14
Zuletzt bearbeitet:
NeNe,
ist original die StrixxTi@normalerWLP mit Ihrer 240er-AiO, evtl. am Fenster

Wieviel W+V würdest Du denn für den Takt brauchen?
(man darf net vergessen, die Ti muss sicher ein paar W mehr für den Vram und die mehr Shader aufbringen, ...
und ja ist ein GoldenSample , ... die anderen im Luxx kommen da net ganz ran)
Minimum 17 und Max 43°C sprechen nicht für AIO. Schon gar nicht bei 517W.
 
bei -3°C Außentemp.?

manche Luxxer gehen zum Benchen mit dem PC sogar ganz raus auf den Balkon
 
Die 3090TI ist doch technisch schon veraltet und wird in 5 Monaten dann von den RTX 4000 abgelöst ?

Ihr könnt froh sein wenn sie 4080 Leistung erreicht,aber wahrscheinlich nicht
 
Man will mir was von Vergleichbarkeit durch Simulation einer Founders Edition erzählen, was ja nett ist, aber fängt dann mit RT Benchmarks von RTX+TAA ohne DLSS und RX+FSR (!!) an, und das alles ohne 3080 Ti und 6900 XT, aber mit einer (als einzig) wassergekühlten 6900 XT LC?.
Leut, bitte, das hat doch nichts mehr mit Vergleichbarkeit zu tun... Was ist das für ein furchtbares AMD gelutsche.
Macht doch einfach einen zweiten RT bench run mit FSR/DLSS on, dann hast deine wanna-be 60 FPS bei AMD, halt im realen Vergleich zu Nvidias Upscaler, und die Rohleistung im separaten Bench.
Und bitte alle gemäss "Founders Edition" luftgekühlt testen... Was soll das mit der XT LC, dann könnte man auch zusätzlich die beste wassergekühlte RTX mittesten, um zu zeigen "was mit Ampere maximal möglich ist" und mit der 6900 XT non-LC vergleichen.
Sätze wie "Die wassergekühlte (_) schiebt sich (_) ohne Mühe an der (luftgekühlten) (_) vorbei" kann man sich dann sparen ;).
btw, 6900 XT LCs sind seit langem problemlos erwerbbar:
https://geizhals.de/?cmp=2542097&cmp=2447666&active=1

btw2 - wieso wird die 3080 10GB statt 12 GB getestet?

Mich hätte schon interessier, wie der Ampere Vollausbau bei Minecraft-/Quake II RTX bei max Chunks performed hätte :D schade
 
Zuletzt bearbeitet:
Zurück