Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.
Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.
Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.
Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.
Gratulation, wieder der einzige, der hier Durchblick hat.
Vorher schrieb noch einer von "bummeligen" 30% Mehrleistung zu Vega 64. Was soll dieses Geschwätz. 30% sind eine ordentliche Hausnummer, wenn es denn so viel wird, ohne dass die TDP nochmal extrem in die Höhe getrieben wird, und ich weiß auch gar nicht, warum man von AMD immer noch mehr erwartet. Das geht schon wieder in die 30% = Sidegrade-Richtung. Was für ein Quatsch.
Woher kommen wir denn? Wieviel Mehrleistung gab es denn von er 290 zur 390 zur 480 zur 580? Waren das in 4 Generationen überhaupt zusammen 30%? Bei CPUs nicht anders. Wieviel Mehrleistung gab es denn von 2600k zur 3770k zu 4790k zu 6700k? Waren das insgesamt 30% in 4 Generationen? Ich weiß nicht, wo diese Erwartungshaltung herkommt.
Die Frage ist eigentlich, ob 30% überhaupt erreicht werden, und wenn ja, wann, wie oft und wie. Und hier kommt der Strom ins Spiel. Bei der 9000er Generation von Intel wird es von den Usern hier als großes Thema aufgemacht, obwohl die Unterschiede relativ gesehen gar nicht so groß sind.
Da werden dann Rechnungen von 10-20€ mehr im Jahr eröffnet. Das geht völlig an der Realität vorbei. Die selben Nutzer, welche auf Vielkerner für Multitasking schwören, behaupten, dass sie so geile Prosumer sind, die täglich Videos schneiden und das dafür brauchen, unterstellen ein Nutzungsverhalten, welches beinhaltet, dass man jedes Programm/Spiel in jeder Minute der Nicht-Nutzung sofort schließt, berechnen dann 2 Stunden volle Leistung pro Tag und sonst nichts und kommen so irgendwie auf ihre 10-20€ mehr im Jahr.
Die Rechnung sieht in der Realität anders aus:
- Man telefoniert, während man im Menu des Spiels ist, während die GPU oft noch voll arbeitet.
- Man kocht, ...
- Man empfängt Besuch, während am PC noch was läuft.
- Man multitaskt(Wort?), macht andere Dinge, während z. B. im Hintergrund ein Spiel offen ist, in das man manchmal rein-tabbed oder auch nicht.
- Selbst unter Teillast wird eine GPU mit 300W mehr verbrauchen, als eine GPU mit 225W.
- Die richtigen Zocker werden auch selten nur 14h die Woche spielen. Das machen die Meisten doch in ca. 3 Tagen voll, nicht in 7. 25h-30h in der Woche müsste man für die hiesige Klientel wohl schon veranschlagen.
- Man vergisst den PC samt Spiel abends vor dem Schlafen auszuschalten.
- Man lässt ein Spiel wie z. B. Cities Skylines mal über Nacht laufen, um zu gucken, was nach 6-8 Stunden passiert ist.
- Es gibt auch Leute, die während der Arbeit zocken:
-- Ich sag nur Homeoffice als IT-ler im Dax als B- oder C-Mitarbeiter. Tagespensum Arbeit ist in 2-4 Stunden erledigt, weil man dennoch am Rechner erreichbar sein muss, wird nebenher gezockt. Natürlich schaltet man dann brav in jeder Minute, in der nicht gezockt wird, alles ab, ganz klar.
-- Ein Goldschmied oder Juwelier, der zu gewissen Tageszeiten wenig Kundschaft hat und dennoch für diese erreichbar sein muss, zockt womöglich nebenher am Rechner im Laden. Wenn dann ein Kunde kommt, schaltet der 100%ig erst alles ab bevor er sich dem Kunden widmet, der womöglich 5 Minuten später ohne Auftrag wieder weg ist, oder doch eine halbe Stunde den Auftrag genau bespricht.
-- etc. etc.
Das sind realistische Nutzungsszenarien, und dabei kommen dann nicht 10-20€ im Jahr heraus, eher um die 50€. Warum kauft ihr euch denn alle Vielkerner zum Multitasken von AMD, wenn ihr dann jedes Programm, welches gerade nicht 100% von euch genutzt wird, sofort abschaltet? Man hat teilweise das Gefühl, es hier mit der völligen Verblödung zu tun zu haben. Aber nein doch, wir wissen es besser. Die Leute rechnen es sich so, wie sie es gerade brauchen. Beim 9900k sind dann 20-30W ein Horrorszenario, während 75W bei der GPU zu einer vernachlässigbaren Größe werden. Zumal man halt auch beachten muss, dass AMD ja speziell auf Kosten des Verbrauches arbeitet, um in bestimmten Preissegmenten in der Leistung gleichziehen zu können. Ich will gar nicht wissen, was hier los wäre, wenn NVIDIA so arbeiten würde. Bei den 9000ern von Intel konnte man sich erste Eindrücke bereits abholen, obwohl das Produkt ohne Konkurrenz dasteht und man im konkurrenzlosen Bereich durchaus auch mal auf Kosten der Energie bauen kann, für die, die es wollen und brauchen. Das ist hier ja ganz anders. Wir haben diese Leistung bereits zu einem wesentlich geringeren Verbrauch. Es ist nicht so, dass AMD hier in Pionierarbeit in ungeahnte Leistungsklassen klettert, und man damit beim Verbrauch in der absoluten Oberklasse mal ein Auge zudrücken sollte, nein, sie könnten diese GPU ebenfalls auf rund 200W anbieten, dann wäre das allerdings wohl unter 2060 Leistung.
Ich wünsche AMD dennoch alles Gute mit der Vega XII. Insgesamt scheint es eine Nische zu füllen und eine Daseinsberechtung zu haben. Hoffentlich gibts dann bald auch noch eine Version davon mit weniger Speicher (8 oder 12) und fast gleicher Leistung.