High-End Gaming als Umweltfaktor - Youtuber prangert Stromverbrauch aktueller PC-Hardware an

Tatsächlich ist das natürlich nicht allgemeingültig. Manch einer wird am Rechner ausschließlich oder nahezu ausschließlich zocken und das Surfen, das Empfangen von Mails, die Textverarbeitung, den Videokonsum, (am weitesten weg von reinem Idle!) den Musikkonsum und die Telephonie vollständig auf ein Smartphone auslagern (als Extrembeispiel) und somit diese Anwendungen fast ohne Leistungsaufnahme bestreiten können.
Ich kenne viele, die das vielleicht nicht ganz so extrem machen wie gerade skizziert, aber dem nahekommen. Doch genauso gibt es halt auch viele, für die das (zurecht!) nicht in Frage kommt. Für die ist es enorm wichtig, dass endlich mal die Idle-Leistungsaufnahmen ordentlich sinken!
Genau darauf wollte ich hinaus. Ich denke eben auch, dass man das nicht allgemein festlegen kann.
 
Die Diskussion ist hinfällig, weil Hardware die meiste Zeit im Idle verbringt.
Ursprünglich hatte ich den Beitrag geliked, aber hinfällig ist mir zu scharf. Nimm lieber so etwas wie nicht zentral. Der Idle-Fortschritt ist weit überfällig, wenn er durch ist, ist aber auch ansonsten großer Fortschritt dringend nötig. Ganz generell sollte außerdem auf Ampere (und RDNA2, die haben aber auch jetzt einen größeren Sprung hingelegt) dringend wieder eine Generation, bei der es mal wieder einen ordentlichen Effizienzsprung gibt. 100% mehr Effizienz wäre nach der aktuellen Effizienzkrücken-Gen namens Ampere mal wieder nötig.
 
Denn man könnte (muss man nicht!) auch fragen, ob es wirklich 127% mehr Grafikleistung sein müssen oder ob es nicht auch meinetwegen 43% mehr Grafikleistung bei gleichem Verbrauch getan hätten.
Dafür gibt es doch die schwächeren Karten. Niemand zwingt einen von der 1080 auf eine 3080 aufzurüsten. Zumal beide Karten, unabhängig von der aktuellen Situation, in einer anderen Preisklasse spielen.
Ein Vergleich einer 1080 und 3080 halte ich aus dem Grund schon für schwachsinnig.
Schau dir die 3060ti an. Ähnlicher Stromverbrauch aber ca. 75% mehr Leistung als die 1080. Es sollte jedem selbst überlassen sein, welche Stromkosten man auf sich nimmt.
 
So ein Schwachsinn. Die 3080 verbraucht 84% mehr als die 1080, hat laut der Grafikkarten-Rangliste aber 127% mehr Leistung. Also ist die 3080 effizienter auf die Gaming-Leistung bezogen. Zusätzliche Feature gar nicht mit beachtet. :ugly:
Am besten wäre es für die Gaming-Effizienz, wenn wir alle trotz Grafikkarten alá Vega 56 und RTX 3070 in 1080p Auflösung mit 50 fps Limit zocken würden. :ugly::kaffee:
 
Zuletzt bearbeitet:
Oh man. Lass gut sein.
Warum? Weil ich der Meinung bin, dass man die Aussage die du zu Beginn getätigt hast so verallgemeinert nicht festlegen kann? Woher willst du wissen in welchem State sich Millionen von High-End Gaming PCs im Schnitt befinden? Der eine nutzt seinen Gaming PC zu 100% für‘s 4K AAA Gaming, ein anderer macht vielleicht zu 90% ganz andere weniger fordernde Dinge damit. Sowas lässt sich nicht verallgemeinern.
 
Warum? Weil ich der Meinung bin, dass man die Aussage die du zu Beginn getätigt hast so verallgemeinert nicht festlegen kann? Woher willst du wissen in welchem State sich Millionen von High-End Gaming PCs im Schnitt befinden? Der eine nutzt seinen Gaming PC zu 100% für‘s Gaming, ein anderer macht vielleicht zu 90% ganz andere weniger fordernde Dinge damit. Sowas lässt sich nicht verallgemeinern.
Ich sagte dir bereits, dass nicht ich diese These aufgestellt habe, sondern Intel und einige andere.
Wenn dann so jemand wie du mit "mimimi gar nicht" daher kommt, hab ich kein Bock mehr mit dir zu diskutieren. Sorry.
 
Ich sagte dir bereits, dass nicht ich diese These aufgestellt habe, sondern Intel und einige andere.
Wenn dann so jemand wie du mit "mimimi gar nicht" daher kommt, hab ich kein Bock mehr mit dir zu diskutieren. Sorry.
Hm. Ich habe ganz sachlich versucht diese Dinge mit dir zu erörtern und zu diskutieren. Von daher finde ich deine Reaktion ziemlich unverständlich. :nene:
Dann zeige doch mal wo genau Intel etwas in der Art bezüglich High-End Gaming PCs und High-End Gaming im Allgemeinen geäußert hat!?
 
Dafür gibt es doch die schwächeren Karten. Niemand zwingt einen von der 1080 auf eine 3080 aufzurüsten. Zumal beide Karten, unabhängig von der aktuellen Situation, in einer anderen Preisklasse spielen.
Ein Vergleich einer 1080 und 3080 halte ich aus dem Grund schon für schwachsinnig.
Schau dir die 3060ti an. Ähnlicher Stromverbrauch aber ca. 75% mehr Leistung als die 1080. Es sollte jedem selbst überlassen sein, welche Stromkosten man auf sich nimmt.
Wenn es nur um die Stromkosten ginge würde ich Dir zustimmen. Es hängt aber eben noch wesentlich mehr dran. Einfach mal weiter denken als über die persönliche Bedürfnisse hinaus.
 
Ich teile auf jeden Fall die Aufassung, dass Komponenten für möglichst lange Laufzeiten entwickelt/konzipiert werden sollten.. Intel hat 10 Jahre schön gezeigt wie es nicht geht.. 10 Jahre 4 Kerne 8 Threads mit geringem Leistungsplus + jedes mal n neuen Sockel mit kaum spürbaren Features.. Pervers!

Und Nvidia baut aktuell Karten mit top Leistung aber lächerlichen Speichergrössen.. Pervers ne 3080 mit 10 GB rauszuhauen! Dumm wer sowas kauft!

Wer hier mitliest weiss, dass viele auch jede Gen aufrüsten aber ihre Karten dann eben im Bekanntenkreis abgeben (da gibts immer viele die sich über 2-3 jahre alte Karten freuen) oder eben gebraucht verkaufen.. Ne 3080 mit 10 GB allerdings, die will in 3 Jahren nichtmal wer umsonst haben..
 
Dann zeige doch mal wo genau Intel etwas in der Art bezüglich High-End Gaming PCs und High-End Gaming im Allgemeinen geäußert hat!?
Hintergrund ist der, dass sich im Idle dadurch eine enorme Menge Strom sparen lässt. Ist auch logisch, dass ein PC durchschnittlich die meiste Zeit im Idle verbringt. Fast alle benutzen den PC nicht nur zum spielen, sondern auch zum Filme schauen, Musik hören, surfen, arbeiten und dabei fällt so gut wie keine Last an. Wir beide diskutieren hier gerade wie viele andere im Forum. Unsere PCs langweilen sich.
Abgesehen davon verursacht nicht jedes Spiel immer 100% Last. CS:GO ist bei mir auf 160FPS gecapped. CPU und GPU langweilen sich.
 
Dank der leistungsschwachen Konsolengeneration von 2013 ksnn msn mit einer damaligen GPU auch heute noch fast alles spielen. Ich hab hier etwa auch eine Radeon 7979/280X. Läuft fast jedes Spiel noch, bis auf Ausnahmen (CP2077). Das Ding ist 10 Jahre alt
Mir ging es um die Grafikleistung bei den Spielen. Die ist damals nicht so extrem gesprungen. Ich konnte noch mehrere Jahre später problemlos AAA-Spiele ohne irgendwelche spürbaren Einschränkungen oder mit weniger Details spielen oder so. Heute wird sofort jedes Leistungsplus voll ausgenutzt und du bist mehr oder weniger gezwungen upzugraden.
Vor 20 Jahren war das Reduzieren von Details normaler Gaming-Alltag. Das vergessen heutzugage viele User oder kennen diese Zeit nicht mehr. Grafik-Regler sind in den Einstellungen auch nur Vorschläge, da muss man nicht weinen wenn Cyperpunk mit "uber-extreme" Modifizierung in 5k mit einer RTX 3090 nicht flüssig läuft oder weil diese in einem Singleplayer-Game keine 144 fps bei Auflösung x knackt ohne Details zu reduzieren.
:hmm:
BenW meint wohl vor allem die Zeit, die Rollora dann im Verlauf auch angesprochen hast. Das liegt nicht allein an den leistungsschwachen, ursprünglichen PS4 und XBox One. Die kommenden Grafikchips waren danach enorm leistungsfähig, hätten aber auch damals schon das Laptop-nahe, mobile Power-Budget eines Konsolen-Chips bei weitem überstiegen. Beliebte Beispiele, mit denen man heute noch halbwegs zocken kann, wären die R9 290 durch ihre DX12- / Vulkan-Fähigkeiten mit async Compute, die erste Titan mit ihren 6 GB VRAM und natürlich die 980 Ti bzw. Titan Maxwell 12 GB.

Der Leistungssprung war zumindest gefühlt in kürzerer Zeit nach Release von PS4 & Co. größer oder irre ich mich da?

Man muss bedenken, dass die 980 Ti ungefähr Mitte 2015 debütierte - 5 Jahre vorher war gerade mal so Thermi äh Fermi erschienen.
Diese Neuerscheinungen waren damals einfach gesagt Overkill, die vorhandene Mehrleistung investierten viele in 1440p oder gar 4k.

Die Turing-Architektur nach Pascal brachte vor allem neue Technik (Raytracing), die aber nicht sofort greifbar war und selbst heute gibt es noch viele Leute, die wie ich Raytracing interessant finden, aber keines ihrer derzeitigen Games es unterstützt.
Die Integer-Einheiten von Turing waren ebenso praktisch, der Vorteil aber von Anwendung zu Anwendung unterschiedlich. Kurz gesagt: Von 2016 bis Ende 2020 brauchte man sich mit einer 1080 nicht zu verstecken und hatte so gut wie keine Einbußen.
Ja, die Idle-Leistungsaufnahmen stellen ein großes Problem dar. Vor allen Dingen gibt es dort sehr viel vergeudetes Potential. Da fällt mir auf, dass ich folgenden Text schon lange vorbereitet hatte:
Ich muss sagen, dass ich da eher kein Problem sehe. Klar, ein Ryzen der ersten Generation mit OC oder auch ein aktueller Ryzen mit X570 Mainboard kommen Idle insgesamt mit den restlichen Komponenten kaum unter 60 Watt (ganz grob).

Auf der anderen Seite haben viele immer noch herkömmliche 60 Watt Glühbirnen, auch weil sie vielleicht das gelblichere Licht mögen. Auf jeden Fall brennt da oftmals nicht nur eine Glühbirne. :ugly:
Wer da im Handel keine LED kaufen möchte, kann derzeit nur noch auf Halogen ausweichen, welche kaum effizienter sind als die herkömmlichen Modelle.

In diesen Zeiten läuft mein PC auch sehr lange. Das liegt auch daran, weil ich das Schauen von Videos, Surfen und Bearbeiten von Mails am Smartphone alles andere als komfortabel finde.

Ich versuche effizienter zu arbeiten und zu zocken, indem ich mich bisher gegen den Trend von mindestens 2 Monitoren stemme und lieber aus einer Vollbild-Anwendung heraus tabbe. In den meisten Fällen funktioniert das bei einem stabilen PC mit halbwegs gutem Spiel problemlos, außerdem spart ein fehlender Zweitmonitor auch Strom im Idle.
Desweiteren lasse ich in ungenutzten Räumen keine Festbeleuchtung brennen und verbaue seit Jahren nur noch LED-Glühbirnen in den herkömmlichen E14 und E27 Fassungen. Spezielle LED-Leuchten lohnen sich oftmals nicht aufgrund hoher Anschaffungskosten und exotischer Fassungen.

Es gibt wesentlich größere Energiesparpotenziale als das Thema PC, allerdings müssen es auch nicht immer 1440p / 144 Hz oder gar 4k / 100 Hz sein.

Abgesehen vom Trend hin zu hohen Auflösungen glaubt mittlerweile scheinbar mindestens jeder Zweite, dass man am PC unter 144 Hz nicht mit Zocken anfangen braucht. Dadurch gibt es für die modernen Grafikkarten auch kaum noch Verschnaufpausen, was bei 1440p 60 Hz evtl. anders wäre.
An der Bushaltestelle wird dann aber die edle Touch-Bedienung vom Handygame gefeiert. Naja, werde ich alt?
:ugly:
 
Zuletzt bearbeitet:
Naja, machen wir uns nix vor. Moderne PCs sind schon ziemlich gestiegen in ihrem Verbrauch.
Und meine 3080 schießt schon jeden Vogel ab mit bis zu 380W, default wohl gemerkt.

Den Schuh ziehe ich mir jedenfalls an, mein Hobby ist eine Stromsau.
Das Einzige was ich dagegen steuern kann ist, mich bei allem anderen besser zu verhalten. (Inkl. Mülltrennung)
Und das mache ich auch. Allerdings würde ich mich auch ohne PC, so Öko es eben geht, verhalten.

Trotzdem würde ich mir wünschen, dass mit viel mehr Druck die Wurzel des Problems angegangen wird.
Nämlich da wo unser Strom herkommt.

Naja, vielleicht sollte man auch einfach mal aufhören Time Spy zu spielen und nur noch Games mit DLSS kaufen. :daumen:
 
Ist auch logisch, dass ein PC durchschnittlich die meiste Zeit im Idle verbringt. Fast alle benutzen den PC nicht nur zum spielen, sondern
Was ist daran logisch???? Es geht hier um High-End PCs und High-End Gaming. Und dabei ist es eine ganz individuelle Sache wie viel Zeit ein PC im Idle verbringt. Bei jemandem, der seinen Gaming PC den größten Teil der Zeit mit aufwendigen AAA Games fordert, verbringt der PC ganz sicher nicht die meiste Zeit im Idle. Und dahingehend ist der von dir verlinkte Artikel auch vollkommen wertlos.
Man kann das nicht - so wie du es getan hast - verallgemeinert festlegen, weil jeder User seinen High-End Gaming-PC anders nutzt.
 
Und wie viele High End Gaming Maschinen laufen die meiste Zeit auf volle Last @Cook2211 ? Das wird ein verschwindend geringer Teil sein. Ich würde sogar so weit gehen zu behaupten, dass die ganze Office PCs im Idle zusammen mehr verblasen.
 
Dann wären da noch RDR 2, AC Valhalla, Horizon Zero Dawn. Und Du spielst mit Einschränkungen, musst die Quali runter drehen, hast kein Raytracing usw. und das alles bei gleicher Auflösung...
Die habe ich auch allesamt.
Richtig, ich kann nicht alles auf Rechtsanschlag knallen (außer Horizon das geht recht weit aufdrehen),
aber das muss ich auch nicht, denn genau dafür gibt's die Regler in den Optionen und ich kann mir alles so anpassen wie ich möchte. Vorteil PC-Spieler eben.***

Wenn ich nagelneue Features wie RT möchte (oder damals Texturefilter, AA, gefolgt von TruForm, später Physix, Gameworx und was ich alles noch vergessen habe), klar, dann muss ich aufrüsten, aber dies ist eben kein Muss,
genauso wenig wie Rechtsanschlag. Und genau sowas ging früher ebenfalls nicht, bzw. war das sogar noch schlimmer als heute, siehe Beitrag von Rolla.

Wer erwartet denn bitte mehrere Jahre lang ein AAA Spiel nach dem anderen spielen zu können, ohne die Qualitätsregler benutzen zu müssen bei identischer GPU/CPU?

***
Aber ich schrieb ja schon, so langsam wird die Geschichte knapp mit der RX ;)
 
Und wie viele High End Gaming Maschinen laufen die meiste Zeit auf volle Last @Cook2211 ?
Und wie viele verbringen die meiste Zeit im Idle? Weder das eine noch das andere lässt sich verallgemeinert fest- und belegen. Und genau darauf will ich hinaus.
Der Punkt ist: Spielt zum Beispiel jemand 80% der Zeit die er an seinem High-End Gaming PC verbringt, die neuesten AAA Games in 4K, dann läuft dieser PC 80% seiner Nutzungszeit nicht im Idle. Deswegen finde ich die Aussage von dir, dass gerade eben High-End Gaming PCs angeblich den Großteil ihrer Nutzungszeit im Idle verbringen für äußerst gewagt - und auch nicht für belegbar.
 
Zuletzt bearbeitet:
Zurück