• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation
 

ChrisMK72

PCGH-Community-Veteran(in)
Heute scheint Nvidia "Tool-Tag" zu sein.

Das Mini-PCB bietet Platz für drei 8-Pol-Buchsen, welche eingangsseitig vom Netzteil und ausgangsseitig an die Grafikkarte kommen.

Nicht schlecht. Hatte mich schon gefragt, wie die den Strom messen wollen, der nicht vom PCIe Slot kommt.
Und die 3x 8pin reichen ja auch für 3090 OC Karten und sehr starke 2080Ti OC Modelle.

Eine USB-Verbindung stellt sicher, dass sich alle Daten abgreifen und auf Wunsch in Protokolldateien schreiben lassen - sehr praktisch, um live abzulesen, welche Last sich wie auswirkt

Praktisch. :)

edit:

Und wie kommt das Tool bitte an die GPU Power einer Navi Karte ran??

Ist es denn dem Tool nicht egal, welche Karte da in den PCIe Slot und an die 3x 8pin gesteckt werden ?


edit:

was interessante Detailbetrachtungen sowie gezielte Netzteilempfehlungen ermöglicht.

Na da bin ich ja mal gespannt, was ihr zu einer 3090 ohne weiteres OC so sagt, dazu ein 24/7 Stromspar-9900k. :D
Reichen 650W, oder nicht ?
Ich meine, ja(gerade ein gutes von BeQuiet).
Mal schaun, was ihr dazu meint.


edit:

Offenbar ist die GPU/Chip Power nicht zuverlässig - und das ausgerechnet bei der RTX 2070S

Schade und natürlich "toller" Vorführeffekt. ;)
Leicht peinlich.

edit:

PCGH wird sich die Geforce RTX 3090, RTX 3080 und RTX 3070 selbstverständlich haargenau ansehen und auch mit PCAT konfrontieren. Freuen Sie sich auf einen heißen September mit Messungen, so weit das Auge reicht!

Na klar ! ;) :daumen:
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Schade, dass ihr es nicht mit den Softwarelösungen verglichen habt.

Haben wir natürlich - die Bilder zeigen aber reine PCAT-Logs.
Der Artikel wäre deutlich länger, wenn es da nicht eine andere Großbaustelle gäbe, die all meine Überstunden frisst.

Und wie kommt das Tool bitte an die GPU Power einer Navi Karte ran??

Was die GPU-Power angeht, muss PCAT natürlich auch auf die APIs zurückgreifen. Dafür benötigen wir's aber nicht - sondern für das praktische Loggen aller Versorgungsleitungen in Quasi-Echzteit. :-)

Beste Grüße,
Raff
 

Gurdi

Kokü-Junkie (m/w)
Ich denke Gauss seine Frage bezieht sich eher wie das Tool die Bordpower errechnet wenn die AMD Karte dafür keine Sensoren aufweist.
 

Homerclon

Volt-Modder(in)
Interessantes Tool, wobei die Aufbereitung noch ein paar Fehler / Unschönheiten enthält. Die Wattangabe der TBP mit 222000 W ist im ersten Moment irritierend. Sind aber wohl mW, Alternativ fehlt das Komma.
Und die bereits genannte FPS-Auswertung.

Damit kann man nun also auch die Spannungsspitzen auslesen? Die finde ich nämlich nicht unspannend. Ist unschön wenn das Netzteil einfach ausschaltet, weil man etwas zu knapp kalkuliert hat und die Spannungsspitzen die Schutzschaltung auslösen.
[EDIT] Bei einer Intervalle von 100ms wohl nicht, schade. [/edit]

Wenn die GPU-Only-Werte auch nur halbwegs korrekt sind, muss NVIDIA ja richtige Stromfresser auf ihren PCBs haben. Der Speicher wird es wohl nicht sein, da sind sich ja beide einig - 8GB GDDR6 mit 1750MHz @ 256Bit.
Oder gibts ein Unterschied zwischen AMD und NVIDIA was als GPU-Only ausgegeben wird?
 
Zuletzt bearbeitet:

Rollora

Kokü-Junkie (m/w)
Haben wir natürlich - die Bilder zeigen aber reine PCAT-Logs.
Der Artikel wäre deutlich länger, wenn es da nicht eine andere Großbaustelle gäbe, die all meine Überstunden frisst.

Beste Grüße,
Raff
Ich hoffe ja doch, dass das gar keine so andere Baustelle ist, sondern die hier erhobenen Daten sich mit denen der "Baustelle" ergänzen bzw vergleichen lassen
 

gaussmath

Lötkolbengott/-göttin
Ich denke Gauss seine Frage bezieht sich eher wie das Tool die Bordpower errechnet wenn die AMD Karte dafür keine Sensoren aufweist.

So weit ich weiß, ist das nicht die reine Core Power, sondern Core Power + Wandlerverluste (bei AMD Karten). An die Core Power von Nvidia Karten selbst kommt PCAT auch nur nur über APIs ran.
 
Zuletzt bearbeitet:

Basileukum

Software-Overclocker(in)
"PCGH wird sich die Geforce RTX 3090, RTX 3080 und RTX 3070 selbstverständlich haargenau ansehen und auch mit PCAT konfrontieren. Freuen Sie sich auf einen heißen September mit Messungen, so weit das Auge reicht!"

Naja, wenn es funktioniert, dann kann es ja auch von Nvidia kommen. Allerdings vertraut man hier eher der PCGH Redaktion als den grünen oder roten Wichten, ihr macht das schon. :D
 

Mephisto_xD

BIOS-Overclocker(in)
Nvidia-Messtool, Nvidia-Software: Paranoiker ziehen nun womöglich eine Augenbraue hoch. Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten fair ermittelt wird.
Mmmh, ich will mich ja jetzt hier nicht als Paranoiker outen, aber ich sehe hier schon einen klitzekleinen Interessenskonflikt. Daher würde ich den folgenden Satz mal umschreiben:

Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten "fair" ermittelt wird.

Für mich in puncto Integrität in einer Liga mit:

Wie eingangs erwähnt, hat Bayer ein Interesse daran, dass die Schädlichkeit von Glyphosat "fair" ermittelt wird.

Wie eingangs erwähnt, hat VW ein Interesse daran, dass die Stickoxidemissionen von PKWs "fair" ermittelt werden.

Wie eingangs erwähnt, hat Boing ein Interesse daran, dass die Flugsicherheit der 737 Max "fair" ermittelt wird.


Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.
 

Unfaced

Komplett-PC-Aufrüster(in)
Spannender als pcat finde ich ja fast das Latenz Tool das nvidia hat, ausführliche Infos dazu hat Steve von gamers Nexus heute gebracht.

Trotzdem interessant was die Karten so verbrauchen.
 

yingtao

Software-Overclocker(in)
Mmmh, ich will mich ja jetzt hier nicht als Paranoiker outen, aber ich sehe hier schon einen klitzekleinen Interessenskonflikt. Daher würde ich den folgenden Satz mal umschreiben:

Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten "fair" ermittelt wird.

Für mich in puncto Integrität in einer Liga mit:

Wie eingangs erwähnt, hat Bayer ein Interesse daran, dass die Schädlichkeit von Glyphosat "fair" ermittelt wird.

Wie eingangs erwähnt, hat VW ein Interesse daran, dass die Stickoxidemissionen von PKWs "fair" ermittelt werden.

Wie eingangs erwähnt, hat Boing ein Interesse daran, dass die Flugsicherheit der 737 Max "fair" ermittelt wird.


Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.

Bedenken würde ich hier nicht haben da die Hardware des Tools recht einfach nachzuprüfen ist und nur Messdaten im CSV Format auspuckt. Ähnliche Hardware hat PCGH bereits genutzt, Igor's Lab hat sich sowas bereits selbst gebaut mit eigener Software um ähnlich wie mit Nvidias Software Spannungen/Verbrauch mit anderen Messwerten wie z.B. FPS zu überlagern und auch Gamers Nexus hat sich ähnliche Tools/Software dafür gebaut.

Bedenken könnte man vielleicht bei der Software haben, aber da die Hardware die Messdaten im CSV Format ausspuckt könnte man sich auch eine eigene Software schreiben oder das ganze sogar einfach per Excel auswerten.

Großes Thema bei GPUs (wenn die Leistung der GPUs ähnlich ist) ist immer der Verbrauch und da gibt es je nach Redaktion unterschiedliche Messmethoden. Die einen messen an der Steckdose und vergleichen Gesamtsystem mit Onboard GPU mit Gesamtsystem+extra GPU, andere nehmen einfach die Softwarewerte, wieder andere nehmen Pauschal 75W für PCIe und addieren drauf was per Strommesszange an den PCIe Kabeln gemessen wurde und wieder andere bauen sich eigene Tools zum messen. Mit Nvidias Lösung hat man jetzt eine einheitliche Messmethode für alle geschaffen die mit sich selbst vergleichbar ist.
 

big-maec

Freizeitschrauber(in)
Im Bios der Grafikkarte konnte man ja das Powerlimit der einzelnen Stromanschlüsse festlegen. Folglich muss das ja auch gemessen werden. Ist das ein ähnlicher Schaltungsaufbau wie das in einer Grafikkarte verbaut ist ?
 

Killermarkus81

Software-Overclocker(in)
Mmmh, ich will mich ja jetzt hier nicht als Paranoiker outen, aber ich sehe hier schon einen klitzekleinen Interessenskonflikt. Daher würde ich den folgenden Satz mal umschreiben:

Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten "fair" ermittelt wird.

Für mich in puncto Integrität in einer Liga mit:

Wie eingangs erwähnt, hat Bayer ein Interesse daran, dass die Schädlichkeit von Glyphosat "fair" ermittelt wird.

Wie eingangs erwähnt, hat VW ein Interesse daran, dass die Stickoxidemissionen von PKWs "fair" ermittelt werden.

Wie eingangs erwähnt, hat Boing ein Interesse daran, dass die Flugsicherheit der 737 Max "fair" ermittelt wird.


Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.


Bezugnehmend auf deine Bedenken der Auszug aus dem Artikel! Hast Du den Artikel überhaupt zu Ende gelesen?

Nvidia-Messtool, Nvidia-Software: Paranoiker ziehen nun womöglich eine Augenbraue hoch. Wie eingangs erwähnt, hat Nvidia ein Interesse daran, dass die Energieeffizienz von Grafikkarten fair ermittelt wird. Insbesondere das Problem, dass sich die Total Board Power bei AMD-Grafikkarten nicht zuverlässig mithilfe von Tools auslesen lässt - stattdessen gibt's die "effizient" aussehende GPU/Chip Power - Nvidia-Messtool, Nvidia-Software: Paranoiker ziehen nun womöglich eine Augenbraue hoch. ist den Kaliforniern ein Dorn im Auge. PC Games Hardware verglich zwar nie Äpfel mit Birnen, legt jedoch seit Jahren Wert auf echte Messungen anstelle von Software-Daten und qualifizierte sich daher für den PCAT-Testlauf. Selbstverständlich haben wir PCAT genau auf die Finger gesehen, Quervergleiche angestellt und die Funktion in Kombination mit Radeon-Grafikkarten überprüft. Die Diagnose ist eindeutig: Hier geht alles mit rechten Dingen zu, denn Strom ist Strom - und den kann man objektiv messen. Demnach gibt es keinen Grund für Verschwörungstheorien.
 

teklord

Schraubenverwechsler(in)
Da bin ich gespannt auf die Test mit den neuen Karten beider Hersteller! ;)
Neben den Watt/Sek. interessiert mich natürlich auch die Watt pro Test, sprich der Gesamtverbrauch.
Bei den unterschiedlichen Lastszenarien verhalten sich die Karten sehr verschieden. Extrem finde ich Doom Eternal, wo Nvidia sehr ruhig wirkt und AMD außer Rand und Band, aber wer war am Ende sparsamer bzw. effizienter FPS/Watt?
 

shootme55

BIOS-Overclocker(in)
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
 

big-maec

Freizeitschrauber(in)
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
Doch ich. Habe sogar noch einiges an alte Prozessoren auch 486er.
 

Killermarkus81

Software-Overclocker(in)
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(

Unterschätze das Forum nicht...Ich bin vielleicht nicht so Alt wie Du, aber die Entwicklung ist ja ebenso endlich und ich bin mit einem Schneider PC aufgewachsen...Gott habe ich meine Kumpels um ihre x286er, 386er beneidet - wer kennt noch den TURBO Knopf direkt am Gehäuse mit dem sich der Takt nahezu verdoppeln ließ?
Und damals waren die Engines noch direkt an den CPU Takt angebunden und liefen dann einfach schneller - ich fragte mich damals wo das Enden soll - LOL! Dedizierte GPU´s habe ich dann erstmal ausgelassen und war im Teenageralter eher mit 50er und 125er Tuning beschäftigt...Richtig eigenständig eingestiegen bin ich dann wieder beim Pentium 4...Ich denke da können einige mitreden!

PS: Weil ich eh schon OT bin - mir fiel gerade noch eine Geschichte ein.
Ich erinnere mich noch an eine Fahrt im Audi80 mit 68 Diesel PS, ohne Kindersitz und Anschnallgurt auf der Rückbank in die nächstgrößere Stadt zum Computerfachgeschäft ARLT.
Dort haben wir fast 1000 DM satte 8 MB Arbeitsspeicher gekauft...Und wer die Kaufkraft der damaligen DM kennt, weiß welche Investition dies war...Aus diesem Betrachtungswinkel erscheint das Jammern über den einen oder anderen Preis relativ!
 
Zuletzt bearbeitet:

TheEndOfTheWorld

PC-Selbstbauer(in)
Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.
Da das Tool reine Hardware ist, sind die Schummelmöglichkeiten extrem begrenzt. Zumal das Teil auch viele Reviewer bekommen haben (wie Igor oder PCGH), die mit viel teurer Messtechnik ähnliche Messungen machen können. Die können also verifizieren, ob die Werte hinhauen oder nicht.

Man vergisst als deutscher Leser gern, dass die "Messung" (eigentlich ist es eher ne Prüfung) von Grafikkarten im angelsächsischen Raum fast immer per Steckdosenmessgerät erfolgt. Das ist natürlich nur ein sehr grobes Schätzeisen. Da ist dieses Tool eine sehr gelungene Alternative.
 

DOcean

PCGHX-HWbot-Member (m/w)
von der Messhardware ermittelten Daten in Echtzeit vor (Polling Rate 100 ms).

das ist keine Echtzeit ;) da denke ich eher an Werte unter 1ms
Was wenn die GPU eine Spitze von 10ms von xA erzeugt, die dürften dann je nach Abtastung nicht zu sehen sein...

Aber schön das sich hier was bewegt :)
 

Birdy84

Volt-Modder(in)
Ich sage nicht per se, dass nVidia hier Schummelsoftware oder -hardware produziert hat. Aber das verwenden von nVidia-Tools untergräbt halt die Validität eines unabhängigen Tests in ähnlicher Form wie es ein von nVidia bezahlter Test tun würde.
Auf der anderen Seite kann man die Messwerte relativ leicht von Fachleuten überprüft werden. Nvidia würde ganz dünnes Eis betreten, wenn ihr Tool Messwerte zu ihren Gunsten verfälschen würde. Dagegen wäre der Vorfall rund um die GTX 970 wie ein Kindergeburtstag.


Der Artikel wäre deutlich länger, wenn es da nicht eine andere Großbaustelle gäbe, die all meine Überstunden frisst.
Big-Navi ist also endlich angekommen?:-D
 

Rollora

Kokü-Junkie (m/w)
Hab gerade die Headline gelesen und nur gedacht was hat Raff jetzt wieder angestellt, der wird doch nicht eine Geforce in nen alten 486er oder IBM AT eingebaut haben... :lol:
Verdammt fühl ich mich jetzt alt, die meisten im Forum wissen vermutlich nichtmal wie ein 486er aussieht... :(
Unterschätze nicht die Macht der Google Bildersuche ;-)
Naja Mein erster PC war ein IBM Thinkpad mit 386SL Prozessor, Monochrombildschirm, Win 3...
 

Julian K

Freizeitschrauber(in)
Denke auch, dass hier etwaige Verschwörungstheorien fehl am Platz sind. Diesbezüglich sind immer die einfachsten Fragen die Wichtigsten, in diesem Fall eben auch "Wem würde ein bewusstes Verfälschen seitens Nvidia am meisten schaden?" und "Hätte der vermeintlich Geschädigte die Expertise das aufzuklären und klarzustellen?" Auf beides würde AMD zutreffen und Nvidia hätte dann einen riesigen Bock geschossen, der PR-technisch richtigerweise auch immens gegen sie ausgeschlachtet werden würde. Das wäre also der berühmte Schuss ins eigene Knie.

Dementsprechend schon ein spannendes Tool (und gleichzeitig natürlich ein Kandidat, der auch in Zukunft vor allem durch AMD Gegentests unterzogen werden wird)!
 

Snoopy69

Freizeitschrauber(in)
Jetzt ist Ihre Meinung zu Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia PCAT ausprobiert: Grafikkarten-Leistungsaufnahme-Messtool der nächsten Generation
Wurde ein Preis für das Ding genannt?
 

EyRaptor

BIOS-Overclocker(in)
Ok, wo und wann kann ich das kaufen? :D
Das ist wirklich mal wieder etwas von Nvidia, bei dem ich ein need-that feeling habe.

Ich suche schon länger nach einer praktikablen Lösung, um PCIe Slot Power messen zu können.
 
Oben Unten