Zotac Geforce RTX 3090 Ti PGF OC: 4 Slots gegen 500 Watt

Und noch immer eine kleine 2-Slot Blende die nicht das Gewicht der Karte halten kann.
Und wieso sehen die Zotac Karten auf Bildern immer nach Plastikbomber aus?
weil es günstig ist, um "design"formen zu erzeugen. was aus metall würde dafür sorgen das der peg slot rausbricht :ugly: ne im ernst, meine vega 64 hat schon im handbuch vermerkt den pc nicht mit eingebauter grafikkarte zu transportieren. ne sinnlose halterung gabs auch dazu. ob zotac nen gpu halter mitverkauft? https://www.caseking.de/the-cre8or-sage-sag-eliminator-grafikkarten-halter-schwarz-fsaa-001.html (hab ich letztes jahr im september bestellt und kam ende januar, greift zu bevor es wieder unbekannt ist)
 
Na wenn das mit der Dicke so weiter geht, dann kann man ja bald wieder Blower-Designs draus machen. Nur das man dann nicht so einen flachen lauten Lüfter nimmt, sonder nen 140er und der pustet easy durch nen 30cm langen Kühlkörper und schiebt die Luft direkt aus dem Gehäuse :daumen:
 
Na wenn das mit der Dicke so weiter geht, dann kann man ja bald wieder Blower-Designs draus machen. Nur das man dann nicht so einen flachen lauten Lüfter nimmt, sonder nen 140er und der pustet easy durch nen 30cm langen Kühlkörper und schiebt die Luft direkt aus dem Gehäuse :daumen:
So doof finde ich die Idee nichtmals.. 8x8x35cm Kühlrinnenblock auf die Karte.. am Ende n potenten Lüfter der die Luft durch den Lamellenkanal rausschiebt..

Mein okay.. kostet dich halt 5-6 Slots aber die Warme Luft ist direkt hinten raus..
 
Bin gespannt, wann der 1. Mainboardhersteller merkt, dass nur noch ein einziger PCIe x16 Slot verbaut werden muss ... der Rest ist ja eh verdeckt und daher nicht mehr nutzbar.
Da können dann auf der einen Seite Material und Herstellungskosten gespart werden, auf der anderen Seite kann man das Mainboard als Superduper Gameredition teurer anbieten.

Diese Entwicklung gefällt mir nicht.
Hoffe, dass mit kommenden Mutichip-Generationen auch wieder an die Energieeffiziens gedacht wird. Bei mir zumindest ist mit den 350W der 3090 das Ende der Fahnenstange erreicht.
 
Man darf auch nicht vergessen, dass der Chipsatz vom Mobo sehr verdeckt wird und wenn da noch ein Lüfter dran ist, bringt das fast gar nix und der Chipsatz, auch wenn er hohe Temps abhaben kann, wird einfach zu heiß.
dann sind noch die MVE2 vielleicht verbaut und auch die sind verdeckt.
 
Wie wohl eine RTX4090Ti aussehen wird, womöglich wird es bald anders herum gemacht, eine Grafikkarte wird nicht mehr IN einen PC gesteckt, sondern ein PC in eine Grafikkarte verbaut :schief:
Da die Fertigungen nicht mehr lange mithalten können, wird es Zeit auf mehrerer Kerne zu setzen die jeweils auf dem optimalen Wert laufen, dazu noch noch auf mehr Cache setzen.


Dann bist du hier bei PC GAMES Hardware ja richtig gut aufgehoben ;-)
Was ist dein nächstes Level, nur noch ab und zu ins Smartphone schauen und mit 70+ Leuten über die gute alte Zeit quasseln :D

bin nur hier bei PC GAMES Hardware um die ab und zu tollen und bezahlten Autowerbeartikel zu lesen.
 
Man darf auch nicht vergessen, dass der Chipsatz vom Mobo sehr verdeckt wird und wenn da noch ein Lüfter dran ist, bringt das fast gar nix und der Chipsatz, auch wenn er hohe Temps abhaben kann, wird einfach zu heiß.
dann sind noch die MVE2 vielleicht verbaut und auch die sind verdeckt.
Ach Chipsatz...die GPU bringt doch aktive Kühlung mit...
 
Bin gespannt, wann der 1. Mainboardhersteller merkt, dass nur noch ein einziger PCIe x16 Slot verbaut werden muss ... der Rest ist ja eh verdeckt und daher nicht mehr nutzbar.
Da können dann auf der einen Seite Material und Herstellungskosten gespart werden, auf der anderen Seite kann man das Mainboard als Superduper Gameredition teurer anbieten.

Bald.

Diese Entwicklung gefällt mir nicht.
Hoffe, dass mit kommenden Mutichip-Generationen auch wieder an die Energieeffiziens gedacht wird. Bei mir zumindest ist mit den 350W der 3090 das Ende der Fahnenstange erreicht.

Multi-Chip wird den Energieverbrauch vermutlich noch weiter steigern. Einerseits ist die Entzerrung von Hotspots einer der Gründe, warum man verteilen möchte. Andererseits verbrauchen zusätzliche Interfaces für die Verbindung auch zusätzlich Strom. Eine Effizienzsteigerung durch MCM ist nur zu erwarten, wenn man die Gelegenheit nutzt um viel größere, niedriger taktende Chips zu bauen – aber Waferfläche bei TSMC kostet Geld und wenn es eins gibt, woran AMD und insbesondere Nvidia in den letzten Jahren null Interesse gezeigt haben, dann "Taktsenkungen zur Effizienzsteigerung".
 
So habe ich auch vor dem Release der Series X gedacht und wechsel im Herbst wieder zum PC. Einfach keine Lust mehr mich ständig zwischen 1080p-1400p mit 60 oder 4k mit 30 FPS entscheiden zu müssen, obwohl die Konsolen noch gar nicht so alt sind. Wie sieht das dann erst in den nächten 2 Jahren aus, wenn die Entwickler meinen den Spielern RT ohne die Wahl zu haben aufzwingen wollen? Abwärtskompatibilität schön und gut, 720p-1080p mit 30 FPS oder weniger macht auch nicht wirklich Sinn. Was da mit FPS Boost und doppelter Auflösung läuft kann ich an einer Hand abzählen.

Ich zocke zwar nicht mehr so viel wie früher, wenn aber, dann will ich kompromisslos Qualität und hohe FPS. Dying Light 2 musste ich z.B in 1080p zocken und das nachdem ich so lange drauf gewartet habe. Sowas will ich nie wieder erleben. Eine 4090 muss es dabei gar nicht mal sein um die Settings der Konsolen bei weitem zu übertreffen.
Geht mir ganz genauso. Ich spiele auch nicht mehr so viel wie früher. Aber wenn dann will ich die bestmögliche Grafik und das mit annähernd 60 fps.

Meine PS 5 ist nur für die Exclusivspiele da (aktuell nur GT7 und Horizon 2).
 
Wird seine Kunden finden nur sehe ich es schon seit der ersten Titan nicht mehr ein zig tausend euro in den pc zu investieren, günstig tut es für mich genauso.


Auch wenn manche Mitmenschen das Bedüfnis haben einem zu erklären man braucht xyz an Hardware, so kann ich doch selbst am besten entscheiden was ich für mein Anwendungsprofil benötige.;)

(Ich kann mir einen Xeon/Epic/Threadripper oder um es hier auf den Punkt zu bringen eine 3090TI/6800 in den HTPC stecken juckt mich aber nicht)
 
Zurück