Nvidias Geforce RTX 3090 Ti ... - Das sagen die PCGH-Redakteure dazu

Kann man sich die Karte leisten?
Möchte man sich die Karte leisten?
Hab ich nen wirklichen Mehrwert?
Gegen die 3090TI hilft nur dem inneren Drang zu widerstehen, unbedingt und jederzeit die schnellste Grafikkarte der Welt besitzen zu wollen.

Außer man schwimmt in soviel Geld, dass man sich zB ganz Schottland oder was anderes kaufen könnte, dann ist das natürlich sowas von total egal.

Ich bin mit der 3090 so zufrieden, ich würde sie niemals weggeben und stattdessen eine 3090TI haben wollen. Selbst der zu erwartende Leistungszuwachs von Lovelace überzeugt mich derzeit nicht in 6 bis 7 Monaten auf ein "neues Pferd" zu setzen. (Die 3090TI ist ein Reizthema zumindest kann ich wie bei leckeren Süßwaren nicht damit aufhören mir Was-Wäre-Wenn-Szenarien auszumalen; zum Glück kostet das ja kaum was nur die Stromkosten bei Idle-Betrieb.)
 
Klar ,die eigene heizung im Rechner ,da hilft auch keine Loop mehr ! Naja halt mich in zukunft fern von NV ,die nächste gen brauch da schon 600 watt .Ich denke das geht in die absolut falsche richtung nicht auf den verbrauch hinzuarbeiten sondern kack egal ob es nun 1000 watt sind ! In der nächsten gen von NV die ja schon ansteht werden es sicher min. 650 watt bei NV mit ihren speerspitzen .Ne darauf verzichte ich gern und warte auf amd ,die denken wenigstens noch an WATT !
 
Speerspitzen ???
Durch die neue Spannungsregelung net mehr so gravierend. (x)
Im Luxx kommt ein User@450W sogar mit 700W Seasonic gut klar.
Nach m.E. hat man damit nen wesentlichen Kritikpunkt der alten nonTi bereinigt.
Gesamtkosten sollten immer Graka+NT sein.

(x) die SuprimX mit 480W geht net über 600W@20ms (gepuffert@Kondensatoren vom NT= HoldUpTime)
 

Anhänge

  • 3090Ti@450W_700WNT.JPG
    3090Ti@450W_700WNT.JPG
    77,1 KB · Aufrufe: 18
  • 3090Ti-Spikes.jpg
    3090Ti-Spikes.jpg
    178,4 KB · Aufrufe: 14
Zuletzt bearbeitet:
Die Karte ist doch totaler Schwachsinn, nicht nur wegen dem fast schon dreist anmutenden Preis, sondern Leistung mit der Brechstange. Da kommen 9900k Vibes auf. Früher wurden Karten darauf optimiert, mehr Leistung für den (gleichen) Stromverbrauch zu haben. Mit den letzten Generationen sieht man, dass hier eine 180° Wendung gemacht wird. Überhöhter Stromverbrauch und kaum bis wenig Mehrleistung - im Vergleich innerhalb einer Generation, vergleicht man mit anderen Generationen wird das Bild imho noch schlimmer. Natürlich Mehrleistung, aber zu enormen Kosten vom Stromverbrauch. Dazu der Aufpreis von der 3090 zur TI ist fast schon asozial (bewusst überspitzt ausgedrückt), sieht man sich die Benchmarks an, ist die TI nur unwesentlich schneller. Dann den Aufpreis?? :stupid:

Möchte mich an der Stelle bei allen hier im Forum herzlichst bedanken, die bereit sind, solche massiv künstlich überteuerten Preise zu bezahlen und dadurch auch die Preise der "kleineren" Karten angezogen werden. Wahrscheinlich sind wir in 2-3 Generationen weiter (inkl. Lovelace) dann bei 600-800€ für Einsteigerkarten und das nicht nur wegen Scalpern/Minern. Gründe finden sich schließlich immer um die eigenen Ausgaben rechtfertigen zu können.

Sollte der letzte Absatz jemanden dazu triggern, etwas schreiben zu wollen im Sinne von "ich kanns mir leisten" Geschwurbel. Spar's dir, so ein Geschwafel interessiert mich nicht.
 
Du bist wahrscheinlich im falschen Thread, ... Nachfolger Deiner 1070 sollte evtl. sowas wie die 3070 sein, oder?
Die 3070 ist vom Portfolio her die effizienteste Ampere und bringt auch deutlich mehr als die 1070.
Und die 1070 war beim Launch auch net gerade ein Schnapper. (Customs>500€)
Inclusive 5 Jahre Inflation 500 x 1,05 x 1,05 x 1,05 x 1,05 x 1,05 = XXX
(siehe Anhang ... Test in CP2077)

btw.
Obenrum gelten halt andere Gesichtspunkte als Untenrum.
Ne gute 3090Custom@3x8pin gibts derzeit auch bloß net für lau.
Da ist sogar die Ti zum UVP net soweit weg. (und man braucht kein größeres NT)
 

Anhänge

  • 1070vs2070vs3070.JPG
    1070vs2070vs3070.JPG
    41,6 KB · Aufrufe: 17
Zuletzt bearbeitet:
(...)
Die 3070 ist vom Portfolio her die effizienteste Ampere und bringt auch deutlich mehr als die 1070.
Und die 1070 war beim Launch auch net gerade ein Schnapper. (Customs>500€)
(...)
Also von allem Andern abgesehen:
-für 500€ würde die 3070 zurzeit als extrem preiswert durchgehen
- der Launch Preis, dein Ernst? Die 3070 ist im Vergleich dazu schon ein "bisschen" draussen
 
Lern erstmal rechnen, incl. Inflation sind die 500 dann >>600.
Dein Gehalt sollte ja auch in der Zwischenzeit gestiegen sein, ... gehst ja auch net zum Chef und sagst, ich möchte das alte Gehalt von 2016.
 
Ich haderte bis heute. Aber seit den UV-Tests der Founders Edition (aus dem regulären Handel) werde ich das Modell wohl übernehmen. Es scheint so, dass die Karte 2 GHz mit 925 Millivolt packt! :devil: Ziemlich perverser Abstand zu den Salvage-GPUs. Allerdings zieht das Ding selbst mit dieser Spannung in den richtigen 4K-/5K-Stresstests noch über 400 Watt (u. a. Cyberpunk 2077, Mexodus EE oder Kena). Wenn das jetzt über Stunden läuft, kann ich nicht widerstehen.

MfG
Raff
 
Jo,
Nach m.E. regelt die neue Stromversorgung "feiner" und der Treiber(Kurve) kann viel dynamischer die Volt/Mhz variieren.
Man hat jetzt net mehr den "verschlimmbesserten" Treiber(kurve) vom instabilen Amperelaunch notwendig.
(das sind mindestens 1-2 Taktsteps a 15MHz für lau)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hier variiert die Spannung zw. 1050 und 1025mV bei gleichem Takt unter Teilllast/Boost.(x)
... immerhin 4x 6,25mV, Hut ab!

(x) Teilllast tritt ja schon auf, wenn eine Komponente der Architektur voll läuft und der Rest noch Reserve hat

Bei der neuen Ti FE hat man sicherlich zusätzlich kein Vram-Thotteln mehr, ... wg. besserer niedriger Temp.
Das sind alles Dinge die sich 24/7 bei längerem Gaming in nem geschlossenen Case bezahlt machen.
Und man kommt mit nem kleineren NT besser aus, weils keinen Klack@Spikes gibt.
(das sind schon gute Vorzeichen in Richtung 40xx, ... mit ähnlichem PCB und ein paar Spawas mehr)
 

Anhänge

  • 3090Ti@450W_700WNT.JPG
    3090Ti@450W_700WNT.JPG
    77,1 KB · Aufrufe: 6
Zuletzt bearbeitet:
Es scheint so, dass die Karte 2 GHz mit 925 Millivolt packt! :devil: Ziemlich perverser Abstand zu den Salvage-GPUs.
Hättest du mit deiner alten 3090 auch haben können, 2,01 GHz sind bei 0,925 Volt kein Problem. Aber nicht bei CP 2077, da reichen selbst 400 Watt Powerlimit nicht aus, das Spiel ist einfach zu pervers.
 
Da soll noch mal jemand sagen, dass die Presse Golden Samples bekommt. Nope - die finden sich allesamt auf den Gründer-Editionen. :D

MfG
Raff
 
Derzeit 999€ für ein gutes XFX-Custom-Modell ist net allzu teuer.

Das ist sicherlich eine subjektive Frage. Ich persönlich empfinde 1.000 Euro für eine Karte, die gerade einmal 20 Prozent schneller als eine 3,5 Jahre alte 2080 Ti ist, gar nur 10-15 Prozent wenn man den Verbrauch einander anpasst, als Frechheit. Das gilt insbesondere, wenn das antike Vergleichsobjekt ebenfalls ab 1.000 Euro zu haben war und damit seinerseits schon als überteuert galt.

Wenn sich keine besonders günstige Gelegenheit ergibt (zugegeben: In der Hinsicht bin ich privilegiert) rüste ich normalerweise frühestens bei +50 Prozent Leistung auf. Das wäre ungefähr der Abstand der von einer RTX 2080 zu einer RX 6800 XT, nur dass damit auch ein 30 prozentiger Preisanstieg binnen drei Jahren einhergeht. Ich weiß nicht, wie das bei dir ist, aber mein Gehalt ist heute nicht 30 Prozent höher als vor drei Jahren. Im Gegenteil, der nach Abzug laufender Kosten für Kinderkram wie "Lebenserhaltung" übrig bleibende Betrag für Entertainment sinkt sogar deutlich stärker, als einem lieb sein kann. Und damit bin ich vermutlich nicht allein, sodass auch die meisten RTX-2080-Käufer wenig Lust haben werden, die Preisklasse für ein lohnendes Leistungsplus zu wechseln.
 
Zuletzt bearbeitet:
Bei mir ist der Plan, parallel zu den Konsolen die größeren Sprünge bei den Grakas zu machen.
Im Idealfall halt mal ne Gen auslassen.(x)

btw.
Das jetzt die Preise höher sind als beim Launch ist ne zusätzliche Komplikation.
Deswegen sind die 999€ auch nur ein Hinweis auf ein Tagesangebot gewesen.
(die selbe Graka gabs beim Start auch für 8xx€)

Wer net groß OCen will hatte mit der 6800XT-ref eigentlich schon ne ausreichende Kombi beim Kühler
und für OCer als Unterbau für h2o. (da war natürlich ein mühseliges Anstellen beim Drop sinnvoller)


(x) sieht ja ganz so aus, als ob ich Weihnachten 2026 schon auf 2nm gehen könnte
3nm ist wieder on track
 
Zuletzt bearbeitet:
Zurück