Geforce RTX 4000: Render-Bilder vom Triple-Slot-Kühler [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: Render-Bilder vom Triple-Slot-Kühler [Gerücht]

Vor rund vier Wochen machten Leaks zum Kühler der großen Geforce RTX 4000 die Runde. Der Youtube-Kanal Moore's Law is Dead hat das Thema nun noch einmal aufgegriffen und liefert Renderbilder der Triple-Slot-Kühler.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000: Render-Bilder vom Triple-Slot-Kühler [Gerücht]
 
Karte vertikal und die Sache ist ok, solange man keine Schleuderfahrt macht. Evtl gibt es ja noch eine GPU- Stütze mit zur Karte mit LED Bling Bling ;)
 
sieht nach Fake aus... einfach den Kühler von einer 3090 FE langgezogen fertig...

geht auch bei BMWs :D
1656084544410.png
 
Wurde doch schon lange geleaked.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mfg Ratha
 
Also ich bin mit Sicherheit alles andere als ein Umwelt-Pabst. Aber Nachhaltigkeit, insbesondere Stromersparnisse, sind Themen die bei Nvidia und AMD offensichtlich noch nicht wirklich angekommen oder in Vergessenheit geraten sind. Es gab mal eine Zeit, wo beide auf gutem Weg waren, und Stromverbrauch trotz steigender Leistung gesunken ist. Jetzt wird man den Anschein nicht los, dass Mehrleistung nur noch durch massiven Stromverbrauch erkauft wird. 400 Watt für eine Grafikkarte, dass muss man sich auf der Zunge zergehen lassen und zudem gefühlt eine Größe wie ein eigenes PC Gehäuse, ist Wahnsinn. Natürlich sprechen wir hier von der Speerspitze, aber selbst die 300 Watt für "kleinere" Modelle sind irre. Man erinnere sich an Fermi, alias Thermi, und jetzt das? Sorry, für mich ist das alles kein großer Wurf mehr, Leistung hin oder her.
 
Viel Spaß mit der Heizung. Die Klimaanlage nicht vergessen einzuschalten, sonst wirds gut warm :)
Immerhin ganz nett für den Winter, die Regierung empfiehlt den Gasnutzern ja sowieso eine Elektroheizung zu kaufen :D
 
Nach den aktuellen Kosten für Gas und Öl, ist solche eine Grafikkarte endgültig aus der Zeit gefallen. Sorry, dass passt ganz und gar nicht mehr.
Liegt im Auge des Betrachters, evlt. zielt diese Karte auf den indischen und chinesischen Consumer :ugly:.

Das ist ein Renderbild des vermeintlichen Top-End Monsters(AD102), aus ökoligischer und wirtschaftlicher Sicht tragen solche Produkte keine Last,
der tatsächlichen Stromverbrauch im Verhältnis zur 3000er Generation wird wahrscheinlich deutlich besser ausfallen wenn man sich an Hopper orientiert.

Es wird allerdings gemunkelt das per se der N5 und N5P seitens TSMC punktuell ziemliche Hotspots entwickeln kann jedoch auch dramatische Leistungssteigerungen zulässt.

Nur weil evlt. eine neue Titan im Anmarsch ist bedeutet das keine Effizienz Apokalypse im GPU Bereich, die TDP Angaben gelten immernoch in etwa "TDPs werden mit 450 Watt für die RTX 4090, 420 Watt für die RTX 4080 und 300 Watt für die RTX 4070 benannt. Das liegt in etwa da, was die ganze Zeit die Runde machte."
Ich denke auch die Radeons werden dort nicht drüber hinausgehen, und sich wahrscheinlich an der maximalen Last des neuen PCIe Steckplatzes orientieren.
 
Zuletzt bearbeitet:
Nach den aktuellen Kosten für Gas und Öl, ist solche eine Grafikkarte endgültig aus der Zeit gefallen. Sorry, dass passt ganz und gar nicht mehr.
doch bitte nicht schon wieder diese umweltkeule.....
das is echt mittlerweile so langweilig.....

1. hast du niemand was vorzuschreiben
2. hast du nichts zu entscheiden was nötig ist und was nicht
3. sind hier enthusiasten die zielgruppe und diese sachen waren schon immer nicht für den mainstream oder hat hier nachdem sinn gefragt....

ist das gleiche als würde man sagen luxusartikel passen nicht mehr in die zeit und müssen weg....
4. keiner wird gezwungen diese karte zu kaufen.
5. jede kann selbst entscheiden ob er diese karte für nötig empfindet
6. es wird immer so getan als ob es nur diese karte dann gibt
für leute denen der verbrauch wichtig ist gibt es die 70er/60er und 50er karten
Also lasst doch endlich diese bevormundungsversuche und last jeden selbst entscheiden was er für richtig hält....
ich freue mich auf die 4090 so kann man dann in 4k in high fps zocken oder dann schön in 4k rt genießen...
 
Sieht fast aus wie mein Mini-Backofen!
Ich beziehe Ökostrom und behaupte darüber hinaus hier mal ganz dreist, daß das Pc-Spielen lachhaft wenig Energie, im vergleich zum Personen und Güterverkehr oder dem beheizen von Häusern, verbraucht.
 
Zuletzt bearbeitet:
Also ich bin mit Sicherheit alles andere als ein Umwelt-Pabst. Aber Nachhaltigkeit, insbesondere Stromersparnisse, sind Themen die bei Nvidia und AMD offensichtlich noch nicht wirklich angekommen oder in Vergessenheit geraten sind. Es gab mal eine Zeit, wo beide auf gutem Weg waren, und Stromverbrauch trotz steigender Leistung gesunken ist. Jetzt wird man den Anschein nicht los, dass Mehrleistung nur noch durch massiven Stromverbrauch erkauft wird. 400 Watt für eine Grafikkarte, dass muss man sich auf der Zunge zergehen lassen und zudem gefühlt eine Größe wie ein eigenes PC Gehäuse, ist Wahnsinn. Natürlich sprechen wir hier von der Speerspitze, aber selbst die 300 Watt für "kleinere" Modelle sind irre. Man erinnere sich an Fermi, alias Thermi, und jetzt das? Sorry, für mich ist das alles kein großer Wurf mehr, Leistung hin oder her.
man ist halt an physikalischen gesetze gebunden
tsmc hat ja schon lange bekannt gegeben was man vom 5nm prozess erwarten kann
hohe leistungsteigerung und geringerer verbrauch das geht nun mal nicht entweder geringer verbrauch bei fast gleicher leistung oder hohe leistungssteigerungen

die damalige zeit mit jetzt zu vergleichen passt da auch nicht so ganz denn da war amd noch kein wirklicher konkurrent bzw war nvidia amd weit vorraus und konnten sich dann halt eben auch mal nur kleinere steigerungen leisten etc
aber jetzt sind beide auf augenhöhe und wenn einer der beiden den verbrauch eben nicht erhöht wird von dem anderen lager eben überrollt was auf wirtschaftlicher sicht eben ein totalschaden wäre

viele machen den fehler und schauen nur auf den verbrauch aber der sagt erstmal gar nix aus auf die perfomance pro watt kommt es eben an
da wird die effizent gemessen
und wenn eine 3070 auf die 3090(ti) niveau kommt mit 300watt dann ist das schon mal eine gute effizienz steigerung

wass man auch nicht vergessen darf diese tdp liegt ja nicht die ganze zeit an sondern nur in den vollast szenen und das dann auch nur kurz
 
Ich hab mir jetzt extra ein Balkonkraftwerk gekauft, darf also nur bei Sonnenschein ☀️ spielen damit ich nicht verarme ?

Oder ich schreibe eine Software die genau das was das Kraftwerk an Energie generiert im Treiber als Powertarket dynamisch zusätzlich anpasst ? 350Watt Basis + Kraftwerk
 
Zuletzt bearbeitet:
Wieso werden die Karten bei "besserer" Fertigung nicht effizienter? Stattdessen werden steigt der TDP proportional an.
Sogar die Mittelklasse 4070 wird genausoviel verbrauchen wie damals eine 1080ti
 
ja wenn den grünen moralapostel nichts mehr einfallen kommt sowas....
sehr schwach und peinlich
totaler kindergarten von dir
mit kritik musst du wohl noch lernen umzugehen.....
Wie einfallsreich…Für so viel Geld kann man schon ein anderes Design erwarten…
naja die meisten enthuasten werden dann einfach ein wakü block drauf machen....
desegen ist zb für mich das design völlig egal
Wieso werden die Karten bei "besserer" Fertigung nicht effizienter? Stattdessen werden steigt der TDP proportional an.
Sogar die Mittelklasse 4070 wird genausoviel verbrauchen wie damals eine 1080ti
der verbrauch sagt erstmal gar nichts über die effizienz aus
die effizienz wird in perfomance pro watt gemesen

schau dir mal die tests an zu ampere die sind auch effizenter als turing
mag sein das der verbrauch dann so hoch ist wie die 1080tii ist aber dafür hat die deutlich mehr leistung und bei gleicher perfomance zur 1080ti verbraucht die dann deutlich weniger um auf die gleiche leistung wie die 1080ti zu kommenn
 
Zuletzt bearbeitet:
Zurück