Geforce RTX 3090 Ti: Verkaufsverpackung eines Asus-Modells abgelichtet

Wenn die 4000er Reihe die Performance verdoppelt, aber "nur" ~22% mehr verbraucht, ist die Effizienz massiv gestiegen, allerdings kann man dann schlecht ranten.

Es wäre auch mal schön, wenn die Leistungsaufnahme bei fast gleicher Leistung mal wieder halb so hoch wäre. Eine GPU in der Leistungsklasse mit ~200W Leistungsaufnahme und dafür absolut kühl und flüsterleise wäre doch auch was Feines.
 
Es gibt halt etliche Leute, die bereit sind für ein Monatsgehalt so ne Karte zu kaufen.
Solang es kein Jahresgehalt wird, wirds auch so weiter gehen.
Auch dann wirds so weiter gehen oder denkst Du etwa, dass die Auskleidung des Selbstbewusstseins im Kapitalismus mit Hilfe materieller Prestigeobjekte mit dem Jahresgehalt eines Durchschnitts-Deutschen endet?
 
Es wäre auch mal schön, wenn die Leistungsaufnahme bei fast gleicher Leistung mal wieder halb so hoch wäre. Eine GPU in der Leistungsklasse mit ~200W Leistungsaufnahme und dafür absolut kühl und flüsterleise wäre doch auch was Feines.
Die wäre aber nicht schneller als die aktuellen Karten und somit würde sie kaum jemand kaufen.
Der Markt schreit nach mehr Performance und das geht aktuell leider nur mit mehr Verbrauch einher oder glaubst du, dass Nvidia und AMD den Verbrauch erhöhen um dich zu ärgern?

Kauf dir ne 6800/6900XT oder ne 3080/90 und undervolte/drossel sie, dann hast du das gewünschte Ergebnis.
 
Hab ja eine 3080, aber auf 240Watt gedrosselt erreicht sie trotz hochtakten des VRAMs nicht die gleiche Leistung. Ich bin mir sicher, dass die Karten nach wie vor massig Abnehmer hätten, 99 % aller Spieler da draußen haben vermutlich langsamere Karten im Einsatz. Zeitgleich könnten die GPUs günstiger werden. Aber die Hersteller versuchen ja auch gegen die Miner anzustinken und das erreicht man aktuell nur mit Hashrate-Bremsen und hohem Stromverbrauch. Doch mit steigenden Werten bei den Kryptos ist das eher der falsche Ansatz und die sollten eher schauen, dass man sich z.B. verifizieren muss um die Hardware zu kaufen. Ein Verkauf über externe Händler wäre zwar nicht mehr drin, aber für die Kunden wäre das besser.
 
Hab ja eine 3080, aber auf 240Watt gedrosselt erreicht sie trotz hochtakten des VRAMs nicht die gleiche Leistung.
Und damit wäre sie nicht viel schneller als eine 2080 TI. Weshalb sollte ich als 2080 TI Besitzer mir also eine neue Karte kaufen? Dann geht das Geheule in den Foren wieder los, dass der Performancesprung zu niedrig/nicht vorhanden ist.

Ich bin mir sicher, dass die Karten nach wie vor massig Abnehmer hätten, 99 % aller Spieler da draußen haben vermutlich langsamere Karten im Einsatz. Zeitgleich könnten die GPUs günstiger werden.
Wesentlich weniger als jetzt, weil der Abstand zwischen der vorherigen Gen. verschwindend gering ist.
Wieso soll ich mir also ne neue Karte zulegen?

Zeitgleich könnten die GPUs günstiger werden.
Das ist ein Trugschluss. Der Verbrauch bestimmt nicht den Preis. Okay, es wären vielleicht weniger VRMs nötig, aber das würde den Preis vermutlich nur minimal drücken. Die Komplexität des Chips bleibt identisch und somit auch die Herstellungskosten.
 
Zuletzt bearbeitet:
Sind wir beim Ausreden-Roulette diese Woche also wieder bei Produktionsengpässen gelandet? Nachdem die Ever Given letzte Woche dann doch kein zweites Mal im Suez Kanal festgesteckt ist, niemand mehr was vom Mining hören will und kaum ein PC Dealer jetzt den Weihnachtsabsatz von Gaming PCs besonders lobt, ist wohl nichts anderes übrig geblieben.
 
Weis auch nicht was ich von den 450 Watt halten soll...
Auf jeden Fall mal nicht so viel.

Habe mir die 3080 ti Strix OC gegönnt.... die "kann" auch bis 450 Watt aufdrehen.
Undervolting habe ich mal auf 0,993/1.000 V gemacht mit ner OC Kurve.

Ich zocke oft Abends und bin froh wenn mir die GPU keine Todes-turbine macht und ich s Headset noch weiter aufdrehen muss.

Keine Ahnung die 3xxx Kühler sind massiv besser geworden wie die Vorgänger, aber bei 300-350 Watt ist einfach mal Schluss finde ich. Drüber muss man schon nach AIO Karten schauen oder nach andren Späßen.

Bis 300-350 Watt können die dicken Custom Kühler ihre Stärken (Lautstärke + Temps) zeigen...
 
Zuletzt bearbeitet:
Alles richtig gemacht Nvidia
Holt euch die Kohle von den ganzen Möchtegerns, damit die Signaturen wieder aufgehübscht werden können ;)

Braucht kein Mensch die Karte... ist nur da, um noch den letzten Rest rauszuquetschen und den Gewinn weiter zu maximieren
 
Man kann die Effizienz nicht nur anhand des Verbrauchs erkennen, aber das vergessen hier scheinbar viele gerne, während sie mit Schaum vorm Mund in die Tastatur hauen.

Wenn die 4000er Reihe die Performance verdoppelt, aber "nur" ~22% mehr verbraucht, ist die Effizienz massiv gestiegen, allerdings kann man dann schlecht ranten.

Es sagt auch niemand, dass sich jeder hier ein 450W Monster kaufen muss. Wenn du die Leistung benötigst, wird sie dir geboten. Wenn nicht, nimm halt was kleineres oder regst du dich auch darüber auf, dass es den Bugatti Chiron gibt?

Das Problem ist aber, dass genau das nicht der Fall ist und der massiv gestiegene Verbrauch z.B. der RTX 3090 eben nicht durch Mehrleistung wettgemacht wird. Du kannst gerne entsprechende Testergebnisse aus diversen Quellen wie Tom's Hardware etc. anschauen, die belegen, dass die RTX 3090 eine der ineffizientesten Karten der letzten Jahre ist. Und bei einer RTX 3090 Ti wird das Ganze halt auf die Spitze getrieben. Ein geringer Leistungsanstieg bei enorm erhöhter TDP.

Die 4000er Reihe von NVIDIA muss gegen RDNA3 von AMD antreten, wo AMD jetzt schon bei der Effizienz teils deutlich vorne liegt. Dazu wird man sicher mit aller Macht die Performance-Krone behalten wollen. Gerne lasse ich mich natürlich positiv von NVIDIA überraschen, nur vorstellen kann ich mir nicht, dass es effizienter wird.

Wenn ausschließlich das jeweilige Topmodell bei der TDP durch die Decke geht, dann soll es meinetwegen so sein. Solange es für alle anderen weiterhin effiziente Karten im Angebot gibt.

Der Kreis der möglichen Käufer eines Bugatti Chiron dürfte bei dem ca. 1.500-fachen Preis einer RTX 3090 dann doch noch ein wenig kleiner sein.
 
Alles richtig gemacht Nvidia
Holt euch die Kohle von den ganzen Möchtegerns, damit die Signaturen wieder aufgehübscht werden können ;)

Braucht kein Mensch die Karte... ist nur da, um noch den letzten Rest rauszuquetschen und den Gewinn weiter zu maximieren
Ja, hast du das Prinzip des möglichst schnellen Wachstums/Umsatzsteigerung auch verstanden. Da ist nichts verwerfliches dran. Das ist das Ziel eines jeden Unternehmens das auf Wachstum aus ist. Es wird niemand gezwungen die Teile zu kaufen. Und natürlich brauchen es einige. Warum auch nicht. Man sollte nicht von sich auf andere schließen. Das ist sehr engstirnig gedacht. Dann gäbe es vermutlich für dich nur 1 Modell von Karte auf dem Markt. Reicht dir ja. Du bist mir schon so ein Möchtegern.
 
Anhand der Verpackung beschwöre ich mal ein preis jenseits der 3200€ und weil ein Ti dran hängt!

Effizienzfragen wir Reden vom oberen Ende, dies Frage stellt sich da garnicht. Da muss komm was das Material hergibt und das Netzteil ausgibt!
Wozu wurde sie sonst gebaut.
 
Das Problem ist aber, dass genau das nicht der Fall ist und der massiv gestiegene Verbrauch z.B. der RTX 3090 eben nicht durch Mehrleistung wettgemacht wird. Du kannst gerne entsprechende Testergebnisse aus diversen Quellen wie Tom's Hardware etc. anschauen, die belegen, dass die RTX 3090 eine der ineffizientesten Karten der letzten Jahre ist. Und bei einer RTX 3090 Ti wird das Ganze halt auf die Spitze getrieben. Ein geringer Leistungsanstieg bei enorm erhöhter TDP.

Die 4000er Reihe von NVIDIA muss gegen RDNA3 von AMD antreten, wo AMD jetzt schon bei der Effizienz teils deutlich vorne liegt. Dazu wird man sicher mit aller Macht die Performance-Krone behalten wollen. Gerne lasse ich mich natürlich positiv von NVIDIA überraschen, nur vorstellen kann ich mir nicht, dass es effizienter wird.
AMD ist bei der Effizienz vorne durch einen deutlich besseren Herstellungs-Prozess (TSMC 7nm vs Samsung 8nm) und den älteren GDDR6 RAM der langsamer taktet als GDDR6X und somit weniger Strom verbraucht.

RDNA3 und Lovelace werden anscheinend beide im TSMC 6nm Prozess hergestellt, außerdem gibt es Gerüchte dass NVidia etwas ähnliches wie den Infinity Cache einbauen wird. Sooo sicher wie Du wäre ich mir nicht wer am Ende die Effizienzkrone auf hat.

Und letzten Endes ist das auch ziemlich egal, wenn man mal ehrlich ist dann ist z.B. eine 3080 mit 320 W TDP nicht unfassbar weit weg von einer 6800 XT mit 300 W TDP.

Eins muss man Nvidia bei Ampere auf jeden Fall lassen, sie haben mit einem schlechteren Prozess ziemlich ordentliche Karten im Vergleich geliefert. Sowohl was Performance als auch tatsächliche Liefermengen angeht.


Wenn ausschließlich das jeweilige Topmodell bei der TDP durch die Decke geht, dann soll es meinetwegen so sein. Solange es für alle anderen weiterhin effiziente Karten im Angebot gibt.
Gibt es doch? Und selbst die High End Karten lassen sich easy mit undervolting betreiben, meine 3080 hat bis auf ein paar Stabilitäts-Benchmark-Runs nie mehr als 280 W gezogen.


Der Kreis der möglichen Käufer eines Bugatti Chiron dürfte bei dem ca. 1.500-fachen Preis einer RTX 3090 dann doch noch ein wenig kleiner sein.
Dass es da ums Prinzip geht sollte klar sein. Fragen wir mal anders: regst Du Dich über Kühlschränke auf die das zigfache an Strom ziehen? :schief:
 
und was soll dabei Raus kommen?

1. 450Watt oder 500 oder 380 ist scheißegal . Ein Gute Kühlung bringt mehr oder UV & OC
2. Gibt es dem welche zu kaufen ?
3. Wann ja wieviel K€ muss man den anlegen

Somit ..Egal ob es Nachfolger gibt wenn es keine zu kaufen gibt
 
Und letzten Endes ist das auch ziemlich egal, wenn man mal ehrlich ist dann ist z.B. eine 3080 mit 320 W TDP nicht unfassbar weit weg von einer 6800 XT mit 300 W TDP.
Warum nur ist man sich bei Dir so sicher, dass Deine Meinung anders aussehen würde, wenn die Ausgangslage exakt andersherum wäre? ^^


Zudem führst Du GDDR6X gegen GDDR6 ernsthaft bei der Effizienzfrage an? Dir ist schon bewusst, dass die Effizienz aus Leistung UND Leistungsaufnahme gemessen wird? Dem könnte man dann den derzeitigen Infinity-Cache von AMD gegenüber stellen, der auch betrieben werden möchte und den Nvidia Stand jetzt nicht verbaut hat und dementsprechend auch nicht mit Strom versorgen muss. ;)
 
Eins muss man Nvidia bei Ampere auf jeden Fall lassen, sie haben mit einem schlechteren Prozess ziemlich ordentliche Karten im Vergleich geliefert. Sowohl was Performance als auch tatsächliche Liefermengen angeht.
Dem stimme ich voll und ganz zu.
Ich kann nur jedem raten sich mit neuen Nvidia Grafikkarten einzudecken. Ruhig auch mehr ausgeben und öfter neue kaufen.

Ich selbst habe mir auch erst gestern Nvidia Aktien nachgekauft. Nicht, dass ich das erwähnen müsste, aber die sind halt top :D
 
Warum nur ist man sich bei Dir so sicher, dass Deine Meinung anders aussehen würde, wenn die Ausgangslage exakt andersherum wäre? ^^
Wahrscheinlich weil Du mich so sehen willst.

Zudem führst Du GDDR6X gegen GDDR6 ernsthaft bei der Effizienzfrage an? Dir ist schon bewusst, dass die Effizienz aus Leistung UND Leistungsaufnahme gemessen wird? Dem könnte man dann den derzeitigen Infinity-Cache von AMD gegenüber stellen, der auch betrieben werden möchte und den Nvidia Stand jetzt nicht verbaut hat und dementsprechend auch nicht mit Strom versorgen muss. ;)
Natürlich. Der Stromverbrauch des VRAMs bei einer 3090 mit 24 GB GDDR6X vs einer 6900XT mit 16 GB GDDR6 ist höher. Bei den anderen Karten sprechen wir von 16 Gbps effective (GDDR6) vs 19 Gbps effective (GDDR6X). Ich meine da hat Igor auch Messungen zu gemacht. Und der Infinity Cache zieht weniger Strom da es mehr oder weniger ein direkt angebundener Cache ist, der dazu noch deutlich kleiner ausfällt (128mb).

Edit: Und wenn Du schon so ankommst, dann könnte man auch die Tensor + RT Kerne mit in die Effizienzrechnung aufnehmen. Die wollen auch versorgt werden, und die hat AMD gar nicht (Tensor) oder nicht dediziert (Rayaccelerators) verbaut.
 
Zuletzt bearbeitet von einem Moderator:
Zurück