Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation

Mmmh, ich will mich ja jetzt hier nicht als Paranoiker outen, aber ich sehe hier schon einen klitzekleinen Interessenskonflikt. Daher würde ich den folgenden Satz mal umschreiben:

Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten "fair" ermittelt wird.

Für mich in puncto Integrität in einer Liga mit:

Wie eingangs erwähnt, hat Bayer ein Interesse daran, dass die Schädlichkeit von Glyphosat "fair" ermittelt wird.

Wie eingangs erwähnt, hat VW ein Interesse daran, dass die Stickoxidemissionen von PKWs "fair" ermittelt werden.

Wie eingangs erwähnt, hat Boing ein Interesse daran, dass die Flugsicherheit der 737 Max "fair" ermittelt wird.


Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.


Bezugnehmend auf deine Bedenken der Auszug aus dem Artikel! Hast Du den Artikel überhaupt zu Ende gelesen?

Nvidia-Messtool, Nvidia-Software: Paranoiker ziehen nun womöglich eine Augenbraue hoch. Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten fair ermittelt wird. Insbesondere das Problem, dass sich die Total Board Power bei AMD-Grafikkarten nicht zuverlässig mithilfe von Tools auslesen lässt - stattdessen gibt's die "effizient" aussehende GPU/Chip Power - Nvidia-Messtool, Nvidia-Software: Paranoiker ziehen nun womöglich eine Augenbraue hoch. ist den Kaliforniern ein Dorn im Auge. PC Games Hardware verglich zwar nie Äpfel mit Birnen, legt jedoch seit Jahren Wert auf echte Messungen anstelle von Software-Daten und qualifizierte sich daher für den PCAT-Testlauf. Selbstverständlich haben wir PCAT genau auf die Finger gesehen, Quervergleiche angestellt und die Funktion in Kombination mit Radeon-Grafikkarten überprüft. Die Diagnose ist eindeutig: Hier geht alles mit rechten Dingen zu, denn Strom ist Strom - und den kann man objektiv messen. Demnach gibt es keinen Grund für Verschwörungstheorien.
 
Da bin ich gespannt auf die Test mit den neuen Karten beider Hersteller! ;)
Neben den Watt/Sek. interessiert mich natürlich auch die Watt pro Test, sprich der Gesamtverbrauch.
Bei den unterschiedlichen Lastszenarien verhalten sich die Karten sehr verschieden. Extrem finde ich Doom Eternal, wo Nvidia sehr ruhig wirkt und AMD außer Rand und Band, aber wer war am Ende sparsamer bzw. effizienter FPS/Watt?
 
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
 
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
Doch ich. Habe sogar noch einiges an alte Prozessoren auch 486er.
 
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(

Unterschätze das Forum nicht...Ich bin vielleicht nicht so Alt wie Du, aber die Entwicklung ist ja ebenso endlich und ich bin mit einem Schneider PC aufgewachsen...Gott habe ich meine Kumpels um ihre x286er, 386er beneidet - wer kennt noch den TURBO Knopf direkt am Gehäuse mit dem sich der Takt nahezu verdoppeln ließ?
Und damals waren die Engines noch direkt an den CPU Takt angebunden und liefen dann einfach schneller - ich fragte mich damals wo das Enden soll - LOL! Dedizierte GPU´s habe ich dann erstmal ausgelassen und war im Teenageralter eher mit 50er und 125er Tuning beschäftigt...Richtig eigenständig eingestiegen bin ich dann wieder beim Pentium 4...Ich denke da können einige mitreden!

PS: Weil ich eh schon OT bin - mir fiel gerade noch eine Geschichte ein.
Ich erinnere mich noch an eine Fahrt im Audi80 mit 68 Diesel PS, ohne Kindersitz und Anschnallgurt auf der Rückbank in die nächstgrößere Stadt zum Computerfachgeschäft ARLT.
Dort haben wir fast 1000 DM satte 8 MB Arbeitsspeicher gekauft...Und wer die Kaufkraft der damaligen DM kennt, weiß welche Investition dies war...Aus diesem Betrachtungswinkel erscheint das Jammern über den einen oder anderen Preis relativ!
 
Zuletzt bearbeitet:
Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.
Da das Tool reine Hardware ist, sind die Schummelmöglichkeiten extrem begrenzt. Zumal das Teil auch viele Reviewer bekommen haben (wie Igor oder PCGH), die mit viel teurer Messtechnik ähnliche Messungen machen können. Die können also verifizieren, ob die Werte hinhauen oder nicht.

Man vergisst als deutscher Leser gern, dass die "Messung" (eigentlich ist es eher ne Prüfung) von Grafikkarten im angelsächsischen Raum fast immer per Steckdosenmessgerät erfolgt. Das ist natürlich nur ein sehr grobes Schätzeisen. Da ist dieses Tool eine sehr gelungene Alternative.
 
von der Messhardware ermittelten Daten in Echtzeit vor (Polling Rate 100 ms).

das ist keine Echtzeit ;) da denke ich eher an Werte unter 1ms
Was wenn die GPU eine Spitze von 10ms von xA erzeugt, die dürften dann je nach Abtastung nicht zu sehen sein...

Aber schön das sich hier was bewegt :)
 
Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.
Auf der anderen Seite kann man die Messwerte relativ leicht von Fachleuten überprüft werden. Nvidia würde ganz dünnes Eis betreten, wenn ihr Tool Messwerte zu ihren Gunsten verfälschen würde. Dagegen wäre der Vorfall rund um die GTX 970 wie ein Kindergeburtstag.


Der Artikel wäre deutlich länger, wenn es da nicht eine andere Großbaustelle gäbe, die all meine Überstunden frisst.
Big-Navi ist also endlich angekommen?:-D
 
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
Unterschätze nicht die Macht der Google Bildersuche ;-)
Naja Mein erster PC war ein IBM Thinkpad mit 386SL Prozessor, Monochrombildschirm, Win 3...
 
Denke auch, dass hier etwaige Verschwörungstheorien fehl am Platz sind. Diesbezüglich sind immer die einfachsten Fragen die Wichtigsten, in diesem Fall eben auch "Wem würde ein bewusstes Verfälschen seitens Nvidia am meisten schaden?" und "Hätte der vermeintlich Geschädigte die Expertise das aufzuklären und klarzustellen?" Auf beides würde AMD zutreffen und Nvidia hätte dann einen riesigen Bock geschossen, der PR-technisch richtigerweise auch immens gegen sie ausgeschlachtet werden würde. Das wäre also der berühmte Schuss ins eigene Knie.

Dementsprechend schon ein spannendes Tool (und gleichzeitig natürlich ein Kandidat, der auch in Zukunft vor allem durch AMD Gegentests unterzogen werden wird)!
 
Jetzt ist Ihre Meinung zu Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation
Wurde ein Preis für das Ding genannt?
 
Ok, wo und wann kann ich das kaufen? :D
Das ist wirklich mal wieder etwas von Nvidia, bei dem ich ein need-that feeling habe.

Ich suche schon länger nach einer praktikablen Lösung, um PCIe Slot Power messen zu können.
 
Zurück