Die Speicherproblematik der GTX 970 - Warum blieb sie so lange im Verborgenen?

meine gtx 770 mit 2 gb reichen mir noch völlig .. Wenn man eine Graka kauft dann sollten es schon 4 Gb Ram sein(gtx 970 oder r9 290x oder höher) ... ansonsten reichen mir noch die 2 Gb ...

2016 werde ich mich dank VR technik und 4 k anders umgucken müssen ...

werde mir dann evtl SLI oder Crossfire angucken mit aktueller Graka ... wenn die miniruckler nicht so wären :D ..




eins kann ich euch schonmal in der Zukunft vorraussagen : 2016 wird echt teuer für mich .... komplett neuer PC mit schnitzel und Pommfrites . ich freu mich schon .
 
Nein, trotzdem überziehen sie ihre Preise maßlos und verar***en auch noch Kunden
350 Euro für eine GTX 970 mit 3,5 GB Speicher ist übelst überteuert, aber Nvidia's Kunden ist einfach bereit so viel zu viel zu zahlen. Nvidia verarscht die eigenen Kunden nicht, sie können ja nichts dafür, wenn ihre Kundschaft über das eigene Kaufverhalten nicht wirklich nachdenkt. Auch nachdem klar wurde, dass Nvidia die GTX 970 Käufer übelst betrogen und besch****en hat, bleiben viele ihrer grünen Marke treu.

Ich glaube es ist eher so, dass manche Nvidia Kunden (natürlich nicht alle) sich einfach gern verarschen lassen. Warum das so ist, kann ich leider nicht beurteilen.
 
Ich kann dir guten Gewissens sagen, das mir nichts auffällt. (2560x1440p)
Ich weiß auch nicht, ob da nicht gar mein 6 Kerner etwas mit zu tun hat und die event. die min fps anhebt.

(Dying Light Vorteile von 6 Kerne?)

Runterspielen bzw ignorieren will ich das Thema genauso wenig.
Aber wenn man so manche Kommentare dazu ließt, geht einem die Hutschnur hoch...
Glaub ich dir schon, keine Sorge. :) Ohne die GTX970 ans VRAM-Limit von 3.5 GByte zu treiben, würde es mir auch nicht auffallen. Was je nach Spiel auch nicht zu Tage tritt, ohne dass nicht vorher ohnehin schon die GPU limitiert und die FPS tief sind. Ist stark spieleabhängig; Son of Rome z. B. hat schlichtweg keine VRAM-Probleme in der Auflösung (während die GPU deutlich zu lahm ist).

Dass die Kommentare bei solchen Themen oft ausarten (und in letzter Zeit noch mehr als sonst, zumindest gefühlt), ist leider in beide Richtungen zu beobachten.

Erzähl doch bitte keinen Blödsinn! Das wurde erst in der HD6000-Reihe bekannt, als plötzlich die Bildqualität schlechter war als bei den Vorgängern. Magazin wie PCGH und computerbase.de hatten damals extra ihre Testkurse und Konfigurationen umgestellt um es letztendlich auszugleichen.
Hatte ich wirklich nicht so in Erinnerung und habe deshalb nochmals nachgeschaut.
Die HD 5000-Serie stand stark in der Kritik wegen ihres Bandings und teilweise wegen des Flimmerns. Das Banding wurde mit der HD6000 teilweise behoben, aber in der anfänglichen Standardeinstellung im Treiber war die Flimmerneigung höher. CB schrieb im Test zu Tahiti dazu zusammenfassend:

Computerbase schrieb:
AMDs Evergreen-Generation (HD 5000) hatte in einigen Spielen mit dem Problem zu kämpfen, dass bei gewissen Texturen extreme Bugwellen, so genanntes Banding, aufgetreten sind. AMD hat mit der Radeon-HD-6000-Generation dort entgegengewirkt, konnte das Problem schlussendlich aber nur umgehen und hat es nicht wirklich behoben – die Bugwellen wurden lediglich in einen nicht sichtbaren Bereich geschoben, waren aber immer noch vorhanden. Auf der Tahiti-GPU können wir nun kein Banding mehr erkennen.

Alle bis jetzt angesprochenen Punkte haben jedoch keinen Einfluss auf das unschöne AF-Flimmern, das wir bereits weiter oben angesprochen haben. AMD hat sich diesem Problem ebenfalls angenommen und die Gewichtung der AF-Samples überarbeitet, die auf Cayman & Co. für ein starkes Flimmern gesorgt haben. In der älteren Generation handelt es sich dabei um einen Fehler in den Textureinheiten, die dieselbe Anzahl an Samples (und damit Rechenaufwand) wie die GCN-TMUs benutzen, diese aber falsch verteilen.
Quelle CB: Test: AMD Radeon HD 7970 (Seite 5) - ComputerBase

PCGH hat dem Thema auch schon zu HD5000-Zeiten einen Artikel gewidmet: Radeon HD 5000: AF-Filterschwäche bewiesen und beleuchtet

Vielleicht haben wir auch aneinander vorbeigeredet bzw. jeweils was anderes gemeint. Sorry also, falls du dich blöd angemacht gefühlt hast.

Damals wurde nicht so ein Aufstand gemacht wie jetzt mit der GTX970. Wurde in den Foren schnell herunter gespielt und die Leute haben es blitzschnell wieder vergessen. Es geht auch nicht um die Debatte, was jetzt schlimmer ist. Vielmehr will ich klar machen, dass alle großen Firmen gleichermaßen betrügen. AMD, Microsoft, Samsung, Intel und Apple hier mitunter sehr oft vertreten. Diesmal war es Nvidia!

Ich frage mich in der Diskussion immer wieder was die Leute von einer 300-350€ Karte erwarten. Ihr dreht die Karten auf bis zum Anschlag und wundert euch dann. Mit einer GTX770 oder ähnliche hättet ihr das doch auch nicht gemacht.
Och, der Aufstand war doch gross genug, zumal wie gesagt auch explizit Artikel zu dem Thema geschrieben wurden - das Nörgeln war ja auch angebracht.

Zu der Erwartung: ich erwarte nicht mehr, als dass die spezifizierten 4 GByte mit der spezifizierten Bandbreite von 224 / GByte angebunden sind. :ka:

Im Bereich von 3.5 bis 4GB ruckeln auch die Karten mit vollen 4GB. Das hat PCGH auch im Video erwähnt!
Im Direktvergleich hatte ich bisher erst Watch Dogs mit der 290 mit identischen Einstellungen gegengeprüft. Die GTX970 mikroruckelt mehr oder weniger konstant bei >3.5GByte Belegung, während die R9 290 über längere Zeit konstantere Frametimes liefert, dann aber ebenfalls intervallmässig ruckelt. Lustigerweise war die Belegung bei der Hawaii-Karte eine ganze Ecke tiefer, aber aus irgendeinem Grund fand jeweils eine Bewegung in der Auslagerungsdatei statt (zusammen mit der VRAM-Belegung), was wohl das Ruckeln verursachte. Warum das passiert, kann ich mir auch nicht so ganz erklären und ich hatte noch keine Zeit zu schauen, ob eine Änderung der Auslagerungsdateigrösse etwas ändert. Gefühlt waren beide nicht smooth. Bei Dying Light empfand ich die R9 290 flüssiger, habe da aber wirklich nur ganz kurz getestet. Insofern behalte ich mir Meinungsänderungen vor. ;)
 
Zuletzt bearbeitet:
Danke PCGH für den nachträglichen Test:daumen:. Die Print gibts erst am Wochende.

Ich bin im Moment mit meiner GTX 970 @ 1440p zufrieden, da bei mir die Lautstärke an erster Stelle steht und danach die Leistung.
Meine größte Befürchtung ist, dass Nvidia den Treiber nicht mehr optimal programmiert, sobald die nächste Generation rauskommt.
Dann wäre mir eine Trennung wie bei den älteren Generation (GTX 470-480; GTX 570-580) und nur 3,5 GB VRAM lieber.
Aber das hätte man dann sofort machen sollen!
 
Von MSI gab's ja nen extra Bios dafür. Hab's aber bisher noch nicht drauf gespielt.

Das MSI-BIOS-Update verändert die Speicherverwaltung und adressierbare Menge nicht. Es gibt kein "3,5-GiB-BIOS" - es sei denn, das ist gerade eben irgendwo gespawnt und ich hab's nicht mitbekommen. ;) Spannend, das zu testen, wär's allemal.

MfG,
Raff
 
Das MSI-BIOS-Update verändert die Speicherverwaltung und adressierbare Menge nicht. Es gibt kein "3,5-GiB-BIOS" - es sei denn, das ist gerade eben irgendwo gespawnt und ich hab's nicht mitbekommen. ;) Spannend, das zu testen, wär's allemal.

MfG,
Raff

Achso? Dachte es würde den langsameren 500 mb Block deaktivieren.
Dann hab ich mich wohl geirrt. Aber wozu wurde es dann released? :)
 
Der BGH hat mal entschieden, das z.b. bei Wohnungen erst ab 10% Diskrepanz zwischen tatsächlicher und im Mietvertrag angegebener Quadratmeterzahl, eine mietmindernde Täuschung vorliegt.

Der Verbrauchswert der bei Autos angegeben wird, ist eine rechnerisches Mittel, das im wahren Leben so gut wie nie erreicht wird. Kann ich aber nichts gegen machen, die Methode ist legal.

Bei Verpackten Sachen kann die angegebenen Menge und der tatsächliche Inhalt auch schwanken.

10% Unterschied bei der m² Anzahl kommt daher das hier oft unterschiedlich gemessen wird und die Methoden oft fehlerhaft sind. Daher hat der BGH irgendwann mal festgelegt das Abweichungen bis zu 10% rechtens ist. Von Betrug sind wir hier weit weg. Das aber die 10% von Vermietern gerne auf den Mietpreis ausgereizt werden ist die andere Seite.

Der Verbrauchswert beim Auto ist ein errechneter Wert beim kombiniertem Verbrauch. Die Grundlage dafür sind Werte die genormt gemessen werden. Das hier die Norm nicht dem Alltag entspricht ist die Regel, wie mit fast jeder Norm. Betrug Fehlanzeige. Man muss einfach mal festlegen woran man sich richtet.

Verpackungen und Füllinhalt sind auch genormt und es gibt strenge Vorschriften. Einfach mal informieren bitte.
Das die Hersteller versuchen im Rahmen der Rechtsstaatlichkeit diese zu biegen ist ja logisch. Betrug findet man hier selten, eher bewusste Täuschungen die rechtens sind. Aber der mündige Käufer weiß ja so was :schief:

Es sind nicht immer die Hersteller die so böse sind, es sind oft die Rahmenbedingungen der Gesetze.
Hand aufs Herz: Wer würde nicht eine Lücke im Steuergesetz nutzen um ein paar mehr € am Ende des Jahres zurück zu bekommen???

btt:
Guter Artikel :daumen:

Nvidia hat bewusst Informationen nicht weiter gegeben. Ob das rechtens ist, also Betrug, das müssen die Gerichte entscheiden. Ich denke nicht dass es trivial ist, der Paragraphendschungel ist für uns Laien mehr als ein schwarzes Loch. Und was man alles in Internet zu finden glaubt ist alles andere als immer richtig. Es gibt ganze Bücher und Veröffentlichungen wie Paragraphen interpretiert werden könnten und selbst diese stehen offen zur Diskussion.
Täuschung, ja! Betrug, vielleicht...

Muss jeder für sich wissen was er damit anfängt.
 
Ich bin extremst enttäuscht von Nvidia, wollte endlich mal wieder eine gute Mid-Range Graka haben. Da passte es gut das die GTX 970 gerade aufn Markt kam. Hab sogar noch wegen der anfänglichen Lieferschwierigkeiten ne Zeit lang ohne Graka auskommen müssen. Nun zwei Bedingungen sollte die neue Karte erfüllen, sie sollte Aktuell sein und mindestens 4 GB RAM haben da die Karte nicht gleich nächstes oder übernächstes Jahr ausgetauscht werden sollte.
Kurz um, da Nvidia eigentlich noch immer keine zufriedenstellende Antwort gab, schlägt nun für den gleichen Preis eine echte 8 GB 290X in meinem Rechner.
Wie hat PCGH in der Februar-Ausgabe geschrieben, weniger als 4GB sind nicht mehr Zeitgemäß, na die Aussage kann ich jetzt bestätigen.
Achso, alle GTX 970 haben deshalb nur 3,5 GB schnellen Speicher, weil die TITAN X 12 GB braucht. Und wir wissen ja Speicher ist extremst Teuer bei Nvidia, irgendwo muss es ja herkommen....

Und PCGH sieht selbst, die GTX970 vor der R9 290X mit 8GB im Vergleichtest!

Och, der Aufstand war doch gross genug, zumal wie gesagt auch explizit Artikel zu dem Thema geschrieben wurden - das Nörgeln war ja auch angebracht.

Zu der Erwartung: ich erwarte nicht mehr, als dass die spezifizierten 4 GByte mit der spezifizierten Bandbreite von 224 / GByte angebunden sind. :ka:

Zu der Erwartung! Genau das ist das Problem :) (nicht böse gemeint!, ist auch nicht auf dich bezogen)
Man hätte erwartet das die 4GB im vollen Umfang mit voller Performance nutzen kann!
 
Zuletzt bearbeitet:
Das frage ich mich auch. Haben die letzen 512 MiB irgendeinen Sinn?
Beim Zugriff darauf wird doch der ganze Speicher verlangsamt :huh:

Ich versuche mal, meine Erfahrung mit SoM genauer darzulegen. Ich spiele es, wie erwähnt, @1620p, was für eine 970, alleine was die Rohleistung angeht, natürlich schon grenzwertig ist (meine FTW boostet aber auch sehr hoch).

Einmal davon abgesehen, dass das Spiel mit Ultratexturen auch auf einer 980 ruckeln soll, bilde ich mir ein, beim Übergang 3.5 - 3.6 GB speziell diese Ruckler, um die es bei der ganzen Sache geht, zu haben. Es ist nicht so, dass es meinen Spielfluss so beeinflusst, dass ich nicht mehr spielen könnte (ich bin auch nicht so empfindlich), aber man merkt schon was.

Nun aber zum Kern deiner Frage: Gehe ich zur Festung bei den Urukhöhlen, kann der Treiber die Karte überhaupt nicht mehr unter 3.5 halten. Das schafft er bei diesem Spiel in dieser Auflösung ohnehin kaum, aber in dieser Festung lässt das Spiel es so richtig krachen. Wenn ich dann voll in den letzten 0.5 GB bin (3.8-4GB Belegung) läuft das Spiel flüssig. Flüssiger als ständig in der 3.5GB-Grenze zu pendeln. Das habe ich gestern bemerkt.

Bei SoM wäre es nach meiner Meinung sogar besser, der Treiber würde sofort die 3.5GB Grenze freigeben. Dying Light, WatchDogs, AC:U, bei all diesen Spielen funktioniert es scheinbar mit der Begrenzung, SoM bildet für mich eine Ausnahme.

Fantasiemodus: Zum nächsten Treiber wünsche ich mir, dass der Nutzer per Klick entscheiden kann, wie die 3.5GB-Grenze einsetzt. Soll der Treiber drunter halten oder freigeben. So könnte ich für Mordor ein extra Profil anlegen. :D
 
Und PCGH sieht selbst, die GTX970 vor der R9 290X mit 8GB im Vergleichtest!

Du übersiehst da etwas: In Tests "echter" Grafikkarten, d.h. Herstellerdesigns, bewerten wir nicht nur die Spieleleistung, sondern Gesamtpakete. Leistung, Verbrauch, Lautheit. Die beiden letztgenannten Punkte sind bei den schnellen 290X-Designs, egal ob mit 4 oder satten 8 GiB, konsequent schlechter als bei hochgezüchteten GTX-970-Karten, die im Hier und Jetzt ungefähr genauso schnell rechnen.

MfG,
Raff
 
mir persönlich ist es egal, ich kauf auch nächstes mal wenn ich ugrade wieder die dickste graka die ich bekommen kann .... hab ich seit der r850 xt pe gemacht und bis zur titan ist es dabei geblieben, wenn ein neues update ansteht hat entweder amd die bessere karte oder nvidia, der rest ist mir egal :ugly:
wenn ich wegen solchem marketing shitstorm nvidia abstrafen müsste, müsste ich natürlich auch konsequenter sein, z.b. bei meiner politischen stimmabgabe .... mal schauen, welche partei für die ich in den letzten jahren gestimmt habe, hat mich nicht verarscht und keine lügen aufgetischt ?!? keine ....
welche partei für die ich in den letzten jahren nicht gestimmt habe, konnte mich dementsprechend nicht veraschen und müsste jetzt plötzlich für die nächsten jahre meine wahl werden ? ...... ich glaub ich lass mich lieber weiter verarschen und lebe mit dem geringeren übel .... :ugly:

Sehe ich auch genauso - Geschäftspraktiken hin oder her, das Ergebnis am Bildschirm zählt. Deshalb wird es auch nach der Radeon 295X2 eine fiji-/bermudabasierte Karte und damit wieder AMD für die mit Abstand dickste aktuelle GraKa werden. Mit NVidias Titan wischt man damit doch schlicht nur noch den Boden auf.

Ich sehe, wir verstehen uns unter Gamern. :-)
 
Du übersiehst da etwas: In Tests "echter" Grafikkarten, d.h. Herstellerdesigns, bewerten wir nicht nur die Spieleleistung, sondern Gesamtpakete. Leistung, Verbrauch, Lautheit. Die beiden letztgenannten Punkte sind bei den schnellen 290X-Designs, egal ob mit 4 oder satten 8 GiB, konsequent schlechter als bei hochgezüchteten GTX-970-Karten, die im Hier und Jetzt ungefähr genauso schnell rechnen.

MfG,
Raff

Ob sich 970er bei Verbrauch und Lautheit (oder besser Lautstärke) in leistungsorientierten Herstellerdesigns oft weit jenseits des Effizienz-Sweetspots der 970er tasächlich in überhaupt erwähnenswerter Weise von 290Xern absetzen können, sehen führende Hardwarerevier zwar anders, aber sei es drum. Unter Marketinggesichtspunkten liegt Ihr sicher jedenfalls richtig gut im Mainstream und Eure Leser verstehen sicher, dass Ihr auch irgendwie Eure Brötchen bezahlen können wollt. :-)

Der Frage ist letzlich schlicht, wen und warum 0,01 kW mehr oder weniger plötzlich interessieren sollen. Außer natürlich eine um Argumente verlegenen Marketingabteilung.

Überlegt vielleicht doch schon mal besser, ob Ihr ab dem Fiji-Launch nicht auch die subjektive Gefälligkeit der PCB-Farbgebung als maßgebliches Bewertungskriterium für GraKas ansetzen könnt. Ist für den einen oder anderen Casemodder sicherlich auch ein gaaaanz wichtiger Aspekt und ansonsten könnte es echt langsam sehr schwierig werden. ;-)
 
Zuletzt bearbeitet:
Ob sich 970er bei Verbrauch und Lautheit (oder besser Lautstärke) in leistungsorientierten Herstellerdesigns oft weit jenseits des Effizienz-Sweetspots der 970er tasächlich in überhaupt erwähnenswerter Weise von 290Xern absetzen können, sehen führende Hardwarerevier zwar anders, aber sei es drum.
Darum messen wir die Leistungsaufnahme der Grafikkarte ja auch jeweils einzeln, also via PCI-E-Extender und Amperemeter. Das trägt dann zur individuellen Notenfindung bei. Ich dachte eigentlich, das wäre bekannt und bräuchte nicht jedesmal explizit erwähnt werden.

Ebenso messen wir die Lautheit (nicht Lautstärke, das wäre der Schalldruck in dB, wir messen in der nahe linearen Sone-Skala, die die Lautheit unter psychoakustischen Gesichtspunkten abbildet) in einem schallarmen Raum mit ~0,1 Sone Grundrauschen.

Schade, dass du uns durch deine Formulierung von „führenden Hardwarereviewern“ (welche wären das deiner Meinung nach?) so explizit differenzierst.

Nachtrag: Liegt es vielleicht daran, dass du, wie dein Profilkästchen sagt, PCGH.de liest, nicht aber die Printausgabe? (Nicht nur) Dort weisen wir eigentlich regelmäßig auf diese Details hin.
 
Ich dachte, wer in der Lage ist die Redaktion zu kritisieren, wäre in der Lage bei einem Test mehr als die Endnote zu betrachten. Dann würde man sehen, dass die Leistung bei der 290X besser bewertet wurde, die Eigenschaften aber schlechter. Wenn man rund 300W + 3,5Sone gegen 175W + 0,7Sone stellt, dann ist das im Ergebnis auch okay.
 
Darum messen wir die Leistungsaufnahme der Grafikkarte ja auch jeweils einzeln, also via PCI-E-Extender und Amperemeter. Das trägt dann zur individuellen Notenfindung bei. Ich dachte eigentlich, das wäre bekannt und bräuchte nicht jedesmal explizit erwähnt werden.

Ebenso messen wir die Lautheit (nicht Lautstärke, das wäre der Schalldruck in dB, wir messen in der nahe linearen Sone-Skala, die die Lautheit unter psychoakustischen Gesichtspunkten abbildet) in einem schallarmen Raum mit ~0,1 Sone Grundrauschen.

Schade, dass du uns durch deine Formulierung von „führenden Hardwarereviewern“ (welche wären das deiner Meinung nach?) so explizit differenzierst.

Nachtrag: Liegt es vielleicht daran, dass du, wie dein Profilkästchen sagt, PCGH.de liest, nicht aber die Printausgabe? (Nicht nur) Dort weisen wir eigentlich regelmäßig auf diese Details hin.

Zum Thema 970er haben imho anandtech und tomshardware die mit spürbaren Abstand fundiertesten Beiträge geliefert, wenn ich nicht allzu viel verpasst habe. Nicht zuletzt auch Ihr habt da ja reichlich zitiert. Ohne jemanden zu nahe treten zu wollen, würde ich die Qualitätseinschätzung dieser Sites durchaus verallgemeinern wollen.

Der Punkt ist auch nicht, ob das Grundrauschen im Testlabor 0,1 Sone oder 0,119 Sone beträgt, sondern ob und in welchem Ausmaß marginale elektrische Leistungsmehrmengen von Hochleistungs-GraKas, die unter eng begrenzten Anwendungsfällen auftreten, neuerdings ein Bewertungsmaßstab sind, der auch noch Leistungsfähigkeitsaspekte komplett kippen kann. Nach dieser Logik wäre jede Mobile-GraKa der absolut PCGH-GraKa-König. Kann man natürlich machen - ernst nehmen muss es aber natürlich auch niemand, wie hier im Forum imho wieder ganz zu Recht bemerkt wurde.

Zum Printmag kann ich tatsächlich wenig sagen. Eure Aussagen trefft Ihr aber auch hier - der Disclaimer vom Printmag kann da wohl kaum entlasten.
 
Ich dachte, wer in der Lage ist die Redaktion zu kritisieren, wäre in der Lage bei einem Test mehr als die Endnote zu betrachten. Dann würde man sehen, dass die Leistung bei der 290X besser bewertet wurde, die Eigenschaften aber schlechter. Wenn man rund 300W + 3,5Sone gegen 175W + 0,7Sone stellt, dann ist das im Ergebnis auch okay.

Ja sowas! Die Redaktion zu kritisieren! Ich gehe davon aus, dass PCGHler als gestandene Hardwarereviewer eine Sachdiskussion aushalten und mir der Scheiterhaufen deswegen gerade nochmal erspart bleiben wird.

Dass PCGH Leistungsbenches hinbekommt ist natürlich nicht schlecht, aber jetzt wohl auch nicht so aufregend für ein HardwareMag und von mir auch nicht in Frage gestellt worden. Der Punkt ist, dass man mit dieser Gesamtbewertungs-"Logik" jedem x-beliebigen Smartphone-SoC Bestendnoten zuschreiben kann - ist ja flüsterleise und - natürlich- energieeffizient. "Tegra II schlägt Hawaii!" Wie gesagt, kann man machen und sich als Anwender sogar daran orientieren oder sich bestätigt fühlen. Man kann es aber auch für ... nun, sagen wir mal zurückhaltend: irreführend halten.

Btw.: Ohne den Artikel (aus dem PrintMag?) zu kennen: 970er haben im Regelfall gerade keine 175W und dürften um die 250 bis 300W ziehen, Kühlung und Lautstärke analog. Übrigens nachvollziehbar und ausführlich getestet und dazu noch gut erläutert auf Tomshardware.de. ;-)
 
Ein Mehrverbrauch von 40% ist nicht marginal, Mehrverbräuche von 300% und mehr in Bluray und 2-MonitorBetrieb noch weniger. Das mag für einen persönlich egal sein, dann kann man aber - falls man das Heft kauft - auch einfach nur die Leistungsnote betrachten und sich seine Karte aussuchen. Wer das Heft nicht kauft, kann das halt nicht. Es dürfte nicht so schwer sein zu verstehen dass bei der PCGH das Heft der Hauptfokus ist und die Website diesen nur bereichert und ergänzt.
 
Ich finde, Illithide vertritt eine valide Meinung - man kann durchaus der Meinung sein, Verbrauch und Lautheit sollten keine Kriterien sein, die den Gegenwert der absoluten Leistung eines Produkts in der Endnote dergestalt beeinflussen, dass besagtes Produkt hinter die gleichschnelle oder langsamere Konkurrenz zurückfällt.

Allerdings muss ich auch sagen, dass ich diese Meinung nicht teile: Gerade der deutsche Markt ist international dafür bekannt, relativ empfindlich auf laute Lüfter zu reagieren, manche luftgekühlte Eigendesigns der R9 295X2 sind hierzulande beispielsweise gar nicht erst erschienen, exakt aus diesem Grund. Ich persönlich würde auch auf einige Prozente Mehrleistung verzichten, solange mir dafür ein Rechner mit dem Betriebsgeräusch eines Rasenmähers erspart bleibt (überspitzt formuliert natürlich - wobei die Hawaii-Referenzdesigns es ja tatsächlich in diese Regionen schaffen können, aber das ist eher uninteressant). Gleichzeitig ist mir auch die Leistungsaufnahme meines PCs nicht egal, denn obwohl der Rechner allein relativ wenig ausmachen mag: Über den gesamten Haushalt hinweg summiert es sich dann doch, wenn man auf dieses Kriterium wenig bis keinen Wert legt. Das Bild ändert sich natürlich ein wenig, wenn man für den Mehrverbrauch auch entsprechenden Mehrwert erhält - 50% mehr Verbrauch bei 50% mehr Leistung sind, bei ansonsten gleichen technischen Voraussetzungen, tendenziell akzeptabel.

Insofern möchte ich mich hier ganz klar auf die Seite der PCGH schlagen und für Artikel, Reviews und die allgemeinen Berichterstattung zum Thema den Daumen nach oben recken. Es stimmt allerdings, dass man die ganze Qualität des Angebots erst dann erfassen kann, wenn man auch das Printmagazin liest. Die Website (besonders die Videos) haben sich in ihrer Qualität zwar sehr verbessert, seit ich sie nutze, trotzdem bietet das Magazin immer noch einige für mich unverzichtbare Inhalte. Und jetzt Schleim-Modus aus.
 
Zurück