Schade. Aber du hattest ja viele Probleme mit deiner CPU usw.Wenn ArrowLake nicht unerwartet hart reinschei*t will ich von AMD weg.
Kann ich verstehen bei den Problemen die du hast und hattest.Wenn ArrowLake nicht unerwartet hart reinschei*t will ich von AMD weg.
Ich bin AM4 nutzer (Asus X470 Prime) und hatte noch nie Probleme.Kann ich verstehen bei den Problemen die du hast und hattest.
Ich würde aber eher von Gigabyte weggehen als von AMD
Verdienst du damit geld? 50h entspricht in etwa 8 Stunden pro Tag, die Zeit muss man erstmal herbekommen neben, Schlafen, Arbeiten, Körpferpflege, Einkaufen, Aufräumen usw.550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
50€ für 200 Stunden Entertainment sehe ich als günstig an. Darüber hinaus dürften dauerhaft 50 Std./Woche nicht im Ansatz repräsentativ sein.550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
Ach komm. Really ?Nvidia kann halt nix.
Weil er nach eigener Erfahrung ein Problem damit hat und sich nichts davon kaufen kann, dass andere kein Problem damit haben. Logische Schlussfolgerung.Verstehe nicht warum er AM4 Generell verteufelt wenn nur er scheinbar ein seltenes Problem hat.
Ich geh da ja jeweils von Vollast aus ... und da GB202 wesentlich schneller sein sollte, wird der neue Speicher sicherlich auch ausgelastet.Bedenke bei der Rechnung bitte, dass sie nur dann gilt wenn auch wirklich die volle Bandbreite aktiv genutzt wird, also auch tatsächlich beispielsweise 32 GBit/s übertragen werden. Das kommt in der Praxis so gut wie nie vor.
Und wenn du im Spiel tatsächliche 10 GBit/s im Mittel übertragen musst macht GDDR7 das mit deutlich weniger Energie als GDDR6. Nur dann, wenn die vorhandene Bandbreite komplett abgerufen wird würde GDDR7 mehr verbrauchen (aber auch viel schneller sein).
Insgesamt geht die "Spreizung" wie bei allen moderneren Komponenten dadurch nach oben. Früher verbrauchte eine GPU beispielhafte 30W beim nichtstun und 50W unter Last, heute sinds 5W unten und 450W oben. Beim Speicher ists sehr ähnlich: Kleinere und mittlere Lasten werden immer sparsamer, Vollast immer stromfressender - zumindest in absoluten Zahlen, relativ zur Performance steigt die Effizienz.
Bei vRAM würde ich aber im Mittel davon ausgehen, dss mindestens mittelfristig der verbrauch durch GDDR7 sinkt einfach weil der Betriebpunkt wo er am Limit arbeiten muss so schnell nicht erreicht werden wird, speziellen Workload mal ausgenommen.
Beides. Aber Gigabyte mit 100%tiger Sicherheit, bei AMD schaun mer mal was Arrowlake kann.Ich würde aber eher von Gigabyte weggehen als von AMD
Weder verteufele ich es generell noch hatte ich nur ein seltenes Problem. Es waren eine zweistellige Anzahl teilweise Bluescreenerzeugender Bugs und himmelschreiender Workarounds - und keines davon war "selten", bei jedem Problem fand man hunderte Treffer auf Google und reddit von anderen die dasselbe hatten. Etwa zwei Drittel der Bugs gehen auf die Kappe von Gigabyte, manche waren aber ein AM4-weites problem bei allen Boards was AMD erst nach Monaten per BIOS-Update fixen konnte.Verstehe nicht warum er AM4 Generell verteufelt wenn nur er scheinbar ein seltenes Problem hat.
Das Ding ist halt dass die Grenzen des UVs sich mit nach oben schieben. Eine 4090er kannste auf 300W betreiben mit UV. Wenn eine 5090er angenommen 600W hätte ginge das nicht mehr bzw. dann biste auch mit UV bei 400.Mir egal was die im Maximum schlucken sollen.
Undervolten und fertig.
Relativ gesehen (Performance pro Watt) garantiert, absolut gesehen (Zahl auf dem Stromzähler)... wird man abwarten müssenAber im Teillastbetrieb wird die 5090 sicherlich wesentlich effizienter arbeiten als die 4090.
Also braucht man mehr Energie, denn eines haben wir doch in den letzten Jahren gesehen, Hardware wird grds. außerhalb des SweetSpots eingesetzt.GDDR7 braucht WENIGER Energie als GDDR6X, es sei denn man quält ihn mit Gewalt ans Limit.
Die 5090 wird schon mangels Alternative für 3000 EUR übern Tisch gehen, es sei denn man generiert nahezu keine Mehrleistung im Rastern.Vermute die 5090 wird nicht mal das Flaggschiff, denke die wird bei 1600-2000€ landen und es wird für 2,5-3k noch sowas wie eine Titan AI mit dem Vollausbau noch kommen.
Ich nenne das selektive Wahrnehmung!und die Intel Kisten (bisher!) alle fire&forget waren beeinflusst das die eigenen Entscheidung fürs nächste System einfach.
Auch hier nochmal der nette Hinweis, behaupten alleine reicht nicht. Du findest hier mehr Probleme bei Intel als bei Ryzen, dabei ist der Anteil Ryzen hier im Forum wahrscheinlich überproportional hoch. Belege deine Probleme, die deines Arbeitgebers doch einfach mal!Sogar mein Arbeitgeber hat alle (Hunderte!) laptops der Firma von Ryzen auf Intel umgerüstet weil die so viele Probleme machten bzw Workarounds brauchten.
Die Wahrnehmung bei mir istEs sind bei Intel ja nicht hunderte, sondern abertausende News auf Reddit und Co. über defekte Kisten vorhanden!
Eine RTX 4090 ist rund 6500 mal so schnell wie ein 8800GTX, die Leistungsaufnahme hat sich, zum Glück, aber bei weitem nicht so stark entwickelt.Eine Geforce 8 8800GTX (Top Modell von 2006) brauchte damals keine 150W.
Eine GTX 1080 brauchte 180W.
Also eine RTX 5090 mit Spekulierten 550W wäre das 4 Fache einer 8800GTX und mehr als 3 Fache einer GTX 1080.
Bleib mir weg mit deinem Nvidia hate, und deinen Starcitzen focus.550W-600W wäre beides viel zu Brutal.
Das wären 50€ Strom allein für die GPU Pro Monat bei meinen Gaming Sessions von 50h pro Woche.
Da bleib ich lieber bei meiner Aktuellen RX6800 von 2020 die dank underclocking nur 1/4 davon schluckt und in Star Citizen dank Frame Gen dennoch 400% schneller läuft als jede RTX 4090. Nvidia kann halt nix.
Aber was hat es mit deiner Gigabyte Kritik auf sich ?
Ich wollte evtl mal von Asus weg und hin zu Asrock bei AM6.
Aber von Gigabyte hab ich bisher auch nichts schlechtes gehört.
Wenn das Wetter weiter durchdreht haben wir (wie auch in zig anderen Ländern) bald eh überall eine Klimaanlage…ist gar nicht mal als Scherz zu verstehen.aber ich hab einfach keine Lust im Sommer bei 40°C in der Wohnung zu sitzen weil meine Grafikkarte ein teurerer Heizstrahler ist. Und dafür dann nochmal das gleiche Geld für ne extra Klimaanlage hinlegen
So lange du keine Physikalische Grenze erreichst (und da sind wir noch lange nicht) funktioniert das genau so.Es kann doch nicht immer mehr und mehr Power bei uns ankommen und dafür immer weniger Strom verbraucht werden, so funktioniert Physik nun mal nicht.
Darüber kannste dir in 20-30 Jahren mal Gedanken machen, vorher sind wir da nicht am Limit.Irgendwann ist man bei den kleinsten Größen in der Fertigung angekommen und dann geht halt nicht mehr…. Und was dann?
Ja, werden sie - im Profibereich machen Chips das heute schon - 800W-TDP-Chips sind da nichts ungewöhnliches, hängen alle am großen Wasserkühler. Die reaktion darauf ist, das Wasser praktisch direkt durch die Chips leiten zu wollen irgendwann. Solche Modelle kommen aber eher nicht für den Otto zu Hause.^^In 10-15 Jahren werden die Teile halt 1.000W und noch mehr verbrauchen und nicht plötzlich 100W
Da ist n Denkfehler drin, Kühlschrank auf, Radiator rein, Kühlschrank zu.Und dafür dann nochmal das gleiche Geld für ne extra Klimaanlage hinlegen (die bei mir baulich ein Alptraum wäre) und ggf. nochmal für ne Custom-Wakü um solche Leistungsaufnahmen auch leise zu kühlen? Nur fürs zocken? Ja ne, lass mal.