Nvidia Ada Lovelace: Maximale Powerlimits der GPUs geleakt

Es ging um den prozentualen Zuwachs.

1080ti 250W zu 4090 (450W) -> + 80% Leistungsaufnahme
1060 120W zu 4060 (230W) -> + 90% Leistungsaufnahme

-> auch bei den kleinen Karten hat sich der Verbrauch massivst erhöht.

Wenn man nur den Verbrauch betrachtet dann hast Du natürlich Recht. Aber FPS/Watt ist eine deutlich sinnvollere Metrik, denn Effizienz ist doch das worum es geht...

Setzt man als Beispiel eine 30 FPS Begrenzung, dann verbraucht eine 4060 garantiert weniger Watt als eine 1060 bei gleichen Einstellungen.
 
Sorry, aber 24GB VRam ist für normale Spiele, selbst High End Enthusiasten ziemlich überflüssig.
Ich meinte seine Aussage das eine 3090 eine Titan sein soll und keine Gamerkarte.

Reiner Marketinggeblubber um eine glorreiche 3080 mit 24 GB ne 9 anzuhängen und 1500€ aufrufen zu können. Nicht mehr ist das. Selbiges bei Amd 6900XT unnötig wie ein Kropf. 6800XT 5% langsamer. Toll. Aber hauptsache auch eine 1000€ Schrottkarte im Angebot.
 
Leistungssprünge von 30-50% reichen pro Generation aus, da braucht es keine doppelte Performance mit doppelten Verbrauch. Lieber die Leistung moderat steigern und den Verbrauch senken oder gleich behalten. Das ist echter Fortschritt.

Ich mache den Irrsinn nicht mit. Ampere war schon nahe am Würgereiz. Bei Lovelace bin ich raus.
 
Wenn man nur den Verbrauch betrachtet dann hast Du natürlich Recht. Aber FPS/Watt ist eine deutlich sinnvollere Metrik, denn Effizienz ist doch das worum es geht...
Ja und nein. Weil die reine Wattzahl eben auch direkten Einfluss auf das Produkt hat. Die Karten werden größer und/oder lauter. Ich bin mir sogar sicher, dass die FPS/W noch deutlich besser wären, wenn man die Watt weniger stark erhöhen würde.
 
Ja und nein. Weil die reine Wattzahl eben auch direkten Einfluss auf das Produkt hat. Die Karten werden größer und/oder lauter. Ich bin mir sogar sicher, dass die FPS/W noch deutlich besser wären, wenn man die Watt weniger stark erhöhen würde.

Da bin ich dabei, der Sweetspot liegt bei allen Karten (egal ob NV oder AMD) meist bei etwas niedrigeren TDPs. Da kann aber jeder User selbst ein Stündchen investieren und seine Karte einstellen, ist ja kein Thema heutzutage.

Ich selbst betreibe meine 3080 undervoltet, den Takt habe ich auf 1785 Mhz maximalen Boost gesetzt. Mehr als 270W zieht meine Karte nie, was sind gut 50W weniger als mit Stock Settings und ich verliere gerade mal ~5 FPS.

Dann noch ein FPS Limit bei 120 gesetzt, je nach Game (aktuell V Rising als Beispiel) zieht die Karte damit nur 190W. CP2077 mit DLSS Quality läuft mit vollen Details, WQHD, bei 270W.
 
Und das ist was mich stört. Würde man die Karte so eingestellt an den Markt bringen, dann wäre noch relevant OC möglich und sie wäre ein viel runderes Gesamtprodukt.

Kann man sich als Hersteller aber nicht leisten, weil "Balkenlänge über alles" gilt.

In den Medien müsste das Thema Effizienz viel stärker in die Bewertung des Produkts einfließen. Eine Karte, die 10% schneller ist aber 30% mehr verbraucht, müsste einen Test verlieren.
 
Leistungssprünge von 30-50% reichen pro Generation aus, da braucht es keine doppelte Performance mit doppelten Verbrauch. Lieber die Leistung moderat steigern und den Verbrauch senken oder gleich behalten. Das ist echter Fortschritt.

Ich mache den Irrsinn nicht mit. Ampere war schon nahe am Würgereiz. Bei Lovelace bin ich raus.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Achte auf den verbrauch. Ampere ist müll. Zeigt sich auch gut bei der 3060. 3070 geht gerade so.
 
Dann noch ein FPS Limit bei 120 gesetzt, je nach Game (aktuell V Rising als Beispiel) zieht die Karte damit nur 190W. CP2077 mit DLSS Quality läuft mit vollen Details, WQHD, bei 270W.
Das ist ja der Punkt.. Du kannst eine 3090 leistungsmäßig ziemlich regulieren.

Alle hacken auf NVIDIA rum, aber Fakt ist, das DLSS vielen alten Karten ein neues Leben eingehaucht hat. Und wenn du nicht den letzten Frame aus der Karten quetschen must, kann es ein zusätzlich Mittel sein um Strom zu sparen. Gibt dazu einen guten Artikel auf Igorslab.

Klar wird das kühlen immer schwieriger. Bei den CPU`S haben wir doch mittlerweile ein ähnliches Problem. Aber was erwartet man . 500 Frames in 8K bei 25 Grad GPU Temperatur?

Das wird leider immer teurer und die Gesamtinstallation immer aufwendiger. Das liegt in der Natur der Dinge. Meine Kumpels heulen mir auch die Ohren voll, weil Ihre Luftgekühlten 3080ti/ 3090 bei den Temperaturen aus den Throtteln nicht mehr raus kommen.

Wer am Grandprix teilnehmen will, braucht nicht mit einer Ente ankommen. Und wer auf High-End Niveau zocken will, braucht das entsprechende Equipment.

Aber hast du den Kram einmal, hält der ja auch Jahrelang. Mein Aquaduct läuft seit 2016 und hat ein SLI 1080GTX setup, danach eine 2080 Super gekühlt. Aktuell kühlt sie die 3090. Das wird sie später im Zweitrechner immer noch machen.

Anstatt sich einen Top Luftkühler alle paar Jahre zu holen, ist jetzt halt eine gute interne Wakü fällig.

Ansonsten halt 3060ti kaufen und in FULL HD gamen. Geht doch auch.
 
Spiele in WQHD und sinnlos aufgeblähte Karten für Raytracing Spielereien spare ich mir lieber.

Denke mal eine AMD CPU statt meinem 5820K und eine Graka mit 350 Watt reichen aus.

600-650 Watt Netzteil sollte immernoch mein Limit bleiben, nimmt ja langsam perverse Bereiche an...

Kann ich so definitiv nicht unterstützen da auch die kommenden Spiele gameplaytechnisch wenig Potential nutzen

Bin auf die nächsten Pro Konsolen gespannt.
 
also wer eine 3080 oder 3090 hat brauch sich keine 4080 oder 4090 kaufen weil die karten schon absolut top sind und der mehr wert in spielen nicht nennenswert mehr ist ( spürbar), das einige wo das sinn macht ist bei 3d rendern von Bildern oder filmen das ist das einige Szenario
Bitte Nicht vergessen das sind alles nur Gerüchte , bis war es immer so das nur die hafte von dem Stimmt was vorher von irgendwelchen Handeln veröffentlicht wurde was nicht von offensichtlicher Seite der Hersteller kommt, aber Tross dem es wäre mal besser das ALLE Elektronik Hersteller auch AMD und Intel mal dran arbeiten sollte mehr Leistung bei gleichen Stromverbrauch der vorherringen Generation, das wäre wirklich mal eine gute Leistung und nicht immer mehr Stromverbrauch

weil die Titan 3090( TI), 4090(TI) nicht zum spielen gedacht ist was Nvida auch selbst schreibst , die deswegen soviel Shader und Grafikspeicher weil sie für 3D Anwendungen zum Rendern gedacht ist und da macht das wirklich sinn, natürlich kann man auch mit spielen und nicht vergessen das die Titan oder 90 Reihe nicht für Normale KD gedacht ist die ist für HED Kunden genauso wie die A Reihe
Die 3090Ti bzw 4090Ti ist aber keine rein Professionelle Workstation Karte wie die Quadro und auch sehr wohl zum Spielen geeignet!Man bedient eben zwei Zielgruppen damit.
 
Ok man muss ja nicht kaufen ,was ich auch nicht mache !
Doch wenn ich noch lese für 300 euro nehm ich ne 6700 oder ect dann lang ich m ir schon an den Kopf ,da kannste beruhigt sterben denn denn Preiß kriegst du nicht !
 
Denen, die es nicht zu passablen Preisen möglich war, eine 3000er NV oder 6000er AMD Karte zu bekommen, wünsche ich jetzt die Chance, ne neue Karte zu bekommen. Die Preise sinken ja derzeit ordentlich. Bekommt man bei den neuen NV Karten gleich ein noch ein Netzteil dazu?
 
Ich frage mich, wieso es in Zeiten, in dene Klimaschutz immer wichtiger ist und man daher auf Reduzierung von Energiekosten achten sollte, den Leuten der Verbrauch aus dem Gesichtspunkt egal ist. Kritik sind nur die Kosten oder Wärmeentwicklung.
P.s. ich sehe einen Kommentar antwortwn mit "dann wäre konsequent, gar nicht mehr zu zocken".....
 
Zurück