Na gut, gucken wir uns mal ein einfaches Beispiel an. Wir haben Karte1 und Karte2, die testen wir in den Auflösungen 1000 Pixel, 2000 Pixel und 4000 Pixel.
Nun stellen wir uns vor, Karte1 ist sehr schnell aber hat wenig Speicher, daher bringt Karte1 in den drei Auflösungen: 100 fps, 50 fps und 15 fps (Bei 4000 Pixeln macht sich der kleine Speicher bemerkbar und die Karte1 bringt schlechte Performance).
Karte2 ist langsam hat aber viel Speicher, d.h. sie skaliert mit der Pixelzahl und bringt in den drei Auflösungen: 50 fps, 25 fps und 12.5 fps.
Erstelle ich jetzt eine Benchmarkliste und normiere auf die schnelle Karte 1, so erhalte ich für die drei Auflösungen die Benchwerte:
Karte1: 100 Punkte, 100 Punkte, 100 Punkte
Karte2: 50 Punkte, 50 Punkte, 83 Punkte
Schaue ich mir Karte2 an, so sieht es so aus, als würde sie bei hohen Auflösungen plötzlich einen Boost bekommen. Das stimmt aber nicht, an der Karte2 hat sich nichts geändert, sondern wir sehen die Schwäche von Karte1 in den Benchwerten der Karte2 - und das würde ich anders lösen.
Außerdem erkenne ich an den Benchwerten der Karte1 nicht mehr, dass diese in den in den hohen Auflösungen ein Problem bekommt, die hat ja immer 100 100 100 Punkte