Intel iGPU im Praxistest - Lahmer Rohrkrepierer oder sinnvolle GPU-Alternative?

ebastler

Volt-Modder(in)
In letzter Zeit wurden hier im einen oder anderen Beratungsthread immer mal wieder Stimmen laut, wenn für einen Office-Rechner eine kleine Intel-CPU empfohlen wurde, ohne dedizierte GPU.
Viel zu langsam seien die iGPUs, selbst für Office und Internet. Sie hätten Probleme mit gutem FHD Material, und Spielen sei sowieso komplett unmöglich, egal, welches Spiel.
Ich habe das immer vehement abgestritten, musste aber letztendlich zugeben, dass meine HD4600 immer nur den Zweitmonitor - 1400*1050px - befeuert hat. Als 3D Beschleuniger und zum Videos schauen musste immer meine 660Ti von EVGA herhalten. Die hatte natürlich wenig Probleme mit Videos usw, und dank heftigem (Werks)OC auch nicht mit den meisten Spielen. Nun, diese ist den Hitzetod gestorben. Ob PrecisionX meine Lüfterkurve ignoriert hat (wäre ich doch beim Afterburner geblieben...), oder der Temperatursensor gesponnen hat, ich weiß es nicht.
Jedenfalls ist die Karte nun nicht mehr, und um diese soll es in dem Review auch nicht gehen. Als Hauptpixelschubse muss nun, bis ich mir was Neues leisten kann, erst mal die iGPU der 4670K herhalten.
Diese doch sehr nervige Situation wollte ich allerdings nutzen, um ein für alle Male klarzustellen, was die iGPU der Haswells so kann - und wo ihre Grenzen liegen.

Was habe ich getestet?
1) Leistung bei Videowiedergabe @ Stock
2) Leistung im 3DMark Fire Strike, bei verschiedenen Settings, um herauszufinden, wie viel man mit OC/Einstellungen aus dem Chip herausholen kann
3) Spieleleistung, nach dem OC in Punkt 2

Mein Testsystem:
-Asus Gryphon Z87
-4670K @ 3,8GHz sync all cores, 3,8GHz Cache
-4*4GB Corsair Vengeance LP @ 1600 9-9-9-24 1,5V
-Samsung 840pro 256GB
-WD Purple 2TB
-BeQuiet e9 480CM
-Windows 8.1 Professional 64bit, alle Updates installiert
-1920*1080px 60Hz Monitor

Sofern nicht anderweitig erwähnt wurden alle Tests mit den oben angeführten Einstellungen/Taktraten gemacht. Zudem kam der zum Testzeitpunkt aktuellste Betatreiber von Intel, 10.18.10.3652, zum Einsatz. Die GPU hat dabei 1024MB (das Maximum, das ich im Bios einstellen kann) RAM fix zugewiesen.



1) Videoleistung
Im Forum habe ich sogar mal gehört, die Intel HD Grafiken seien nicht für HD Videos geeignet. Das dementiere ich an dieser Stelle eindeutig!
Zum Testen habe ich zwei Full HD Filme der neuen "remastered" Reihe von Neon Genesis Evangelion genommen, 1.11 und 2.22. Beide sind als .mkv mit 1920*1080 Pixeln vorliegend, 23,98Hz. Die Datengrößen seht ihr am Screenshot der Info-Fenster.

2HD_1.jpg

Für einen schnellen Test habe ich erst einen Film allein laufen lassen (24fps laut Fraps), dann beide zusammen. Dabei lief einer im VLC Media Player für Metro, der andere in der Desktop Version.
Den Monitor habe ich dafür in etwa halbiert. Fraps hat nur die fps des Players am Desktop aufgezeichnet (stabile 24), aber der andere Film lief auch nicht weniger flüssig. Kein starkes Ruckeln bemerkbar, und ziemlich genau so, wie ich es von der 660Ti auch in Erinnerung habe.

2HD.jpg

Fazit an dieser Stelle: Die HD4600 ist für so ziemlich jeden Film auf 1920*1080 ausreichend. Wie es bei 3D oder 4k aussieht, kann ich mangels Videomaterial nicht testen, und zwei Monitore momentan leider auch nicht (eventuell leihe ich mir morgen den FHD Monitor meines Vaters und teste dann). Ein Film in Fullscreen, oder zwei Splitscreen, waren jedenfalls absolut kein Problem für meine iGPU.



2) 3DMark Fire Strike

Nach diesem kurzen Vorspiel wird es nun langsam ernst - wie wird sich der kleine Intel-Chip wohl im harten Alltag der Benchmarkwelt schlagen? Hat er eine Chance gegen seine dedizierten Artgenossen? Vorweg und ungeschönt - nein, hat er nicht. Aber Erstaunliches werdet ihr hier allemal finden, und einige Tipps, wie man eine iGPU ordentlich aufbohren kann. Schreibt den kleinen Chip nicht sofort ab, er hat trotz allem mehr drauf, als man vermutet.
Hierzu habe ich eine Reihe von Benchmarks mit verschiedenen Settings gemacht (endlich kann man Fire Strike direkt anwählen, ohne die nutzlosen anderen Tests).

Erster Test (Stock)
-Grafiktreiber, der von der Asus Page geladen wurde (Version unbekannt)
-GPU-VRAM: Auto
-GPU-Clock: Stock (1200MHz)
-RAM-Clock: 1600 9-9-9-24

780 Punkte (828 Grafik)
Fazit: Naja, was soll man sagen. Ruckeln ohne Ende, wie man es halt erwartet.

Zweiter Test (Moar VRAM!)
-Grafiktreiber, der von der Asus Page geladen wurde (Version unbekannt)
-GPU-VRAM: 1024MB fix
-GPU-Clock: Stock (1200MHz)
-RAM-Clock: 1600 9-9-9-24

795 Punkte (845 Grafik)
Fazit: Für Leute mit weniger RAM gut vernachlässigbare Unterschiede, sodass sie bei nicht-grafikintensiven Aufgaben dennoch den vollen RAM haben. Ich habe 16GB, daher kann ich das eine Gigabyte dauerhaft verschmerzen.

Dritter Test (Let's go beta!)
-Aktuellster Intel-Betatreiber (10.18.10.3652)
-GPU-VRAM: 1024MB fix
-GPU-Clock: Stock (1200MHz)
-RAM-Clock: 1600 9-9-9-24

829 Punkte (889 Grafik)
Fazit: Stärkerer Unterschied als beim VRAM, der aktuellste Treiber ist auf jeden Fall empfehlenswert!!

Vierter Test (Takt ist nur durch eins zu Ersetzen, und das ist noch mehr Takt)
-Aktuellster Intel-Betatreiber (10.18.10.3652)
-GPU-VRAM: 1024MB fix
-GPU-Clock: 1600MHz
-RAM-Clock: 1600 9-9-9-24

1036 Punkte (1104 Grafik)
Fazit: Erstens ist die iGPU erheblich taktfreudiger als erwartet (+400MHz wie nichts), zweitens ist das Ergebnis echt erstaunlich. Ihr solltet aber vorher das TDP Limit der CPU im Bios abschalten oder (wie ich) auf 150W hochdrehen, damit euch die nicht drosselt - die iGPU zieht laut der Intel XTU im GPU Stress Test bis zu 52W (sobald Prime nebenbei läuft nur mehr 22W bei selber Leistung, da misst was Mist). Trotzdem mehr als empfehlenswert, falls man Leistung aus einer iGPU will.

Fünfter Test (Was für Coretakt gilt, gilt für RAM schon lange)
Keine Ahnung, ob es an meiner Unfähigkeit, RAM Latenzen einzustellen, oder an meinen grottigen Modulen liegt, aber nicht mal 1866 10-12-12-32 wollte bei mir laufen, mit 1,65V.
Ich muss mich da mal in Ruhe einlesen, dann reiche ich Tests mit RAM OC nach. Sollte aber sehr viel bringen, vermutlich erheblich mehr als alles Bisherige zusammen.



3) Spieleleistung

So weit zu den Unterschieden der verschiedenen Settings im 3DMark, doch wie schlägt sich die iGPU denn nun in Spielen?
Hierfür nehme ich die schnellste Config, die ich stabil bekommen habe, also diese:
-Aktuellster Intel-Betatreiber (10.18.10.3652)
-GPU-VRAM: 1024MB fix
-GPU-Clock: 1600MHz
-RAM-Clock: 1600 9-9-9-24

Getestete Spiele:
Far Cry 3
Borderlands 2
Metro 2033
Bioshock 2
Dishonored
Robocraft (irgendwas muss ja flüssig laufen :ugly:)
BF BC2
BF3
BF4 (100% und 65% Auflösungsskala)

Wie teste ich:
Ich suche mir jeweils einen einigermaßen repräsentativen Teil aus. Multiplayer, TDM in BF 3 und 4 (da sind immer Feinde in der Nähe), Multiplayer Match in Robocraft, einigermaßen aufwändige Kampfszenen in Singleplayern. Diese Szene spiele ich 5 Minuten lang. In dieser Zeit lasse ich Fraps die fps mitloggen und präsentiere sie hier, zusammen mit meinem subjektiven Eindruck zur Spielbarkeit des jeweiligen Spiels.


Spiel 1: Far Cry 3 - Frames: 6738 - Time: 300000ms - Avg: 22.460 - Min: 9 - Max: 31
Settings: Alles auf Minimum
Szene: Laufen durch den Dschungel/Schießen auf einige Tiere/Autofahren/Feuergefecht mit 5 Piraten
Fazit: Unspielbar. Stellenweise wirkt es einigermaßen spielbar, aber kaum versucht man, zu schießen, trifft man wegen der geringen fps, und der Framedrops, nichts mehr.

farcry3_d3d11 2014-09-06 18-42-24-52.jpg farcry3_d3d11 2014-09-06 18-40-13-32.jpg farcry3_d3d11 2014-09-06 18-39-17-34.jpg


Spiel 2: Borderlands 2 - Frames: 6591 - Time: 300000ms - Avg: 21.970 - Min: 9 - Max: 30
Settings: Alles auf Minimum
Szene: Kampf um Liar's Berg, nachdem man mit Claptrap aufgebrochen ist
Fazit: Fast unspielbar. Viel zu geringe fps, und Framedrops, um Feinde, die sich bewegen, zu treffen. Schießen ist nur möglich, wenn man selbst still steht, und der Feind auch, sonst trifft man nichts.

Borderlands2 2014-09-06 18-49-07-04.jpg Borderlands2 2014-09-06 18-48-54-16.jpg Borderlands2 2014-09-06 18-45-04-15.jpg


Spiel 3: Metro 2033 - Frames: 8106 - Time: 300000ms - Avg: 27.020 - Min: 14 - Max: 47
Settings: DX9, alles auf Minimum
Szene: Die Mission "Dungeon" - Einige Ranger gegen haufenweise Mutanten in dunklen Gängen/Räumen (Taschenlampe an, teilweise Nachtsichtgerät)
Fazit: Naja. Angenehm ist etwas anderes, Spaß machts keinen, aber man kann es spielen. Stellenweise bei Framedrops wird es fast unmöglich, sich bewegende Gegner zu treffen.

Metro2033 2014-09-06 18-53-51-32.jpg Metro2033 2014-09-06 18-51-50-13.jpg Metro2033 2014-09-06 18-54-52-14.jpg


Spiel 4: Bioshock 2 - Frames: 13979 - Time: 300000ms - Avg: 46.597 - Min: 27 - Max: 62
Settings: Alles auf Maximum (!)
Szene: Minerva's Den DLC, letzte Minute auf dem Weg zum Thinker, sowie der Kampf gegen die Alphas dort
Fazit: Erstaunlich. Gut spielbar. Stellenweise etwas rucklig, aber gerade angesichts der Settings echt beeindruckend. Gut programmiert, die Engine, denn das Spiel sieht erheblich besser aus als beispielsweise Dishonored auf Minimum, und das bei ganz anderen Framerates!

Bioshock2 2014-09-06 18-56-54-00.jpg Bioshock2 2014-09-06 18-59-15-67.jpg Bioshock2 2014-09-06 18-57-43-22.jpg


Spiel 5: Dishonored - Frames: 8758 - Time: 300000ms - Avg: 29.193 - Min: 17 - Max: 40
Settings: Alles auf Minimum
Szene: Beginn der Mission an der Kaldwin's Bridge
Fazit: Sehr schwer spielbar. Laufen und Klettern problemlos, aber Schießen wird schwer, und Angriffe zu blocken ebenso. Trotz höherer average und min FPS als Metro gefühlt schlechter spielbar.

Dishonored 2014-09-06 23-15-08-73.jpg Dishonored 2014-09-06 23-11-43-94.jpg Dishonored 2014-09-06 23-12-11-12.jpg


Spiel 6: Robocraft - Frames: 12637 - Time: 211266ms - Avg: 59.816 - Min: 46 - Max: 62
Settings: "fast" (mehr Einstellungen gibt es da nicht) - sollte Minimum entsprechen)
Szene: Normales Multiplayermatch, Tier 2
Fazit: Ja, was soll man sagen. So gut wie perfekt stabile 60fps. Gut spielbar. Ist auch nichts wirklich Komplexes ;)

robocraft 2014-09-06 23-18-43-14.jpg robocraft 2014-09-06 23-18-03-01.jpg robocraft 2014-09-06 23-17-21-85.jpg


Spiel 7: BF BC2 - Frames: 16346 - Time: 300000ms - Avg: 54.487 - Min: 35 - Max: 74
Settings: Minimum-Preset
Szene: Team Deathmatch auf Isla Innocentes
Fazit: Schaut auf low sehr mies aus, aber ist problemlos spielbar. Auch der Multiplayer ist hier gut drinnen. Ab und an kurze Drops.

BFBC2Game 2014-09-06 23-21-13-53.jpg BFBC2Game 2014-09-06 23-25-16-98.jpg BFBC2Game 2014-09-06 23-25-48-41.jpg


Bilderlimit :ugly:
 
Zuletzt bearbeitet:
Spiel 8: BF3 - Frames: 9574 - Time: 300000ms - Avg: 31.913 - Min: 21 - Max: 42
Settings: Minimum-Preset
Szene: TDM in Noshahr, 4-10 Spieler (einige jointen während des Spiels nach)
Fazit: Nicht wirklich spielbar. Das Spiel ruckelt durch und durch ein Wenig, was schnelle Feuergefechte schwierig macht. Ein Singleplayer wäre wohl spielbar, aber im Multiplayer reichen mir die fps nicht. Immerhin keine bemerkbaren Drops, die Framerate bleibt recht konstant, gefühlt.

bf3 2014-09-06 23-41-26-09.jpg bf3 2014-09-06 23-33-51-30.jpg bf3 2014-09-06 23-33-37-42.jpg


Spiel 9: BF4 - Frames: 8586 - Time: 300000ms - Avg: 28.620 - Min: 18 - Max: 36
Settings: Minimum-Preset, 100% Skala
Szene: Pearl market TDM, ~30 Spieler
Fazit: Hierfür gilt das Selbe wie für BF3, nur, dass die Framerate hier zudem nicht wirklich konstant war. Immer wieder bemerkbare Framedrops. Nicht spielbar.

bf4 2014-09-06 23-52-05-16.jpg bf4 2014-09-06 23-46-14-27.jpg bf4 2014-09-06 23-54-09-42.jpg


Spiel 9.1: BF4 (65%) - Frames: 15723 - Time: 300000ms - Avg: 52.410 - Min: 34 - Max: 72
Settings: Minimum-Preset, 65% Skala
Szene: Pearl market TDM, ~30 Spieler
Fazit: Augenkrebsalarm! BF4 sieht auf Minimum schon eher bescheiden aus (erheblich mieser als das flüssiger laufende Bioshock 2 auf Maximum...), kombiniert man das mit 65% Auflösungsskala - Naja.
Dafür wird es spielbar. Das Spiel an sich ruckelt natürlich noch merkbar (die 52 Average hätte ich dem gefühlt nicht zugetraut). Ultra mit der 660Ti hatte auch an die 55fps Average, aber das war ganz anders spielbar. Immerhin sind keine richtig übel ruckelnden Drops mehr. Es gibt Besseres, aber man kann so durchaus ein Spielchen spielen.

bf4 2014-09-06 23-58-24-79.jpg bf4 2014-09-07 00-02-12-50.jpg bf4 2014-09-07 00-09-45-17.jpg


4) Fazit
Die iGPU kann mehr als man ihr landläufig zutraut!
Für Multimediarechner, und Office-Rechner erst Recht, ist sie absolut problemlos benutzbar.
Selbst für den nicht so anspruchsvollen Nebenbeispieler, der eher alte Spiele spielt, ist sie noch ausreichend, wie ich finde.
Bei AAA Titeln hingegen, erst Recht bei aktuellen, muss die iGPU eindeutig passen. Die Battlefields sahen alle drei eher mies aus, und wirklich spielbar waren nur BC2, und BF4 mit reduzierter Auflösungsskala (Dort sieht man dann aber vor lauter Pixeln die Gegner nicht mehr). Far Cry 3, BL2 und Metro 2033 würde ich so gar nicht spielen wollen, viel zu rucklig.
Die schlechte Performance von Dishonored hat mich etwas überrascht, da das selbst auf Maximum auf meiner 660Ti sehr hohe Framerates hervorgebracht hat. Auf Low sieht es zudem noch unschöner aus als sonst schon. Viel benötigte Rechenleistung für sehr bescheidene Optik.
Wirklich positiv überrascht hat mich nur Bioshock 2, das selbst auf maximalen Einstellungen hervorragend spielbar war, und dabei auch noch gut aussah.

Wer spielen will, ist mit der iGPU bei FHD definitiv nicht gut beraten. Wer aber nur arbeitet, Videos schaut (auch BluRay Qualität) und ab und an einen älteren Titel spielt, der hat keine Probleme mit der HD4600. Ich weiß aber nicht, wie sehr die sich leistungsmäßig von den kleineren Modellen unterscheidet.

Interessieren euch Benches mit anderen Programmen, oder mit bestimmten Spielen? Schreibt es einfach in einen Kommentar, und ich tue mein Bestes, den Test zu machen.
 
Zuletzt bearbeitet:
5) Zusätzliche Tests

Test 1: Cinebench R15 OpenGL - 40,60

cinebench.jpg


Test 2: Big Buck Bunny
Settings: 4k 60fps, einmal Windows Media Player, einmal VLC Media Player
WMPlayer: Frames: 7200 - Time: 120000ms - Avg: 60.000 - Min: 59 - Max: 61
VLC1: Frames: 6954 - Time: 120000ms - Avg: 57.950 - Min: 35 - Max: 61
VLC2: Frames: 5817 - Time: 120000ms - Avg: 48.475 - Min: 40 - Max: 56

Fazit: Bei VLC ist die Bildrate sehr unnachvollziehbar. Manchmal spielt er das ganze Video in stabilen 60fps durch, manchmal ruckelt es von Beginn an umher, manchmal (wie im Test 1) beginnt es auf halber Strecke zu ruckeln, oder (Test 2) ruckelt zu Beginn, und läuft danach flüssig weiter, nur, um dann wieder gegen Ende der Testsequenz zu ruckeln.
Sehr eigenartig. Test 1: Datei auf der HDD, Test 2: Datei auf der SSD
Der Windows Media Player hingegen zieht den ganzen 4k Film ruckelfrei durch. Wobei ich nicht genau weiß, was die Programme machen, wenn sie 4K Material auf einem 1080p Monitor in Fullscreen anzeigen...

wmplayer 2014-09-07 19-26-59-01.jpg wmplayer 2014-09-07 19-27-16-05.jpg wmplayer 2014-09-07 19-27-23-51.jpg
 
Zuletzt bearbeitet:
Daumen für die Mühe die du dir gemacht hast :daumen:
Find ich gut!

Das Ergebniss entspricht meinen Erwartungen, bzw. dem, was ich auch bisher von einer HD4600 gelesen habe.
Selbst die iGPU von meinen SandyBridge Pentium G620 meines Küchenrechners reicht zur flüssigen Wiedergabe sämtlichen Videomaterials welches mir zur Verfügung steht aus ;)
 
:schief: Nicht jeder will sich dafür einen GPU-hersteller kaufen ... *Hust ATI Hust* ... um bei diesem Segment krampfhaft punkten zu können ;)
 
Für manche Spiele reicht es in der Tat.
Gestern habe ich einige Runden BFBC2 Vietnam mit InGoodFaith gespielt, auf minimalen Settings (Augenweh...) ist es gut spielbar.
Auch ein Wenig Borderlands 2 mit Badboy und einem anderen Kumpel hab ich gespielt. Das ruckelte merkbar, aber als lvl 34 im Spiel eines lvl 19 Hosts hatte ich dennoch wenig Probleme. An meinen eigenen Spielstand wage ich mich bei dem Geruckel aber eher nicht.

In nächster Zeit wird man mich daher vermehrt in BC2 antreffen ;)
 
Naja, bis eine wirklich sinnvolle dGPU-Alternative für aktuelle FullHD-Spiele existiert, dürfen wir wahrscheinlich noch 1-2 APU-Generationen abwarten - ich meine, ein A10-7850K ist schon um einiges schneller als die iGPU vom i5, aber auch der packt nicht jedes Spiel auf Mittel.

Zeigt mal wieder wie gut Intel's IGP's sind.
Wenn bei den meisten Spielen "unspielbar" oder "macht wenig Spaß" steht, sehe ich ehrlich gesagt nicht, was daran so sonderlich gut sein soll. Das einzige, was da gut ist, ist das Optimierungs- bzw. Taktpotential.

Man kann mit den Dingern arbeiten - das kann ich auch mit der GPU von meinem Atom-Netbook - und man kann damit vielleicht wunderbar Filme konsumieren, für sowas sind die Dinger auch da, das ginge in dem Fall auch locker ohne Hardwarebeschleunigung. Aber was Spiele angeht, lautet das Fazit doch klar, dass die GPU des i5 bestenfalls eingeschränkt spieletauglich ist, sofern man nicht mit stark reduzierten Details und ggf. reduziertet Auflösung spielt oder sich auf alte Titel beschränkt.

Das wäre übrigens auch noch ein interessanter Punkt gewesen - wie sich das Dingen auf 720p oder 1366x768 schlägt, bzw. wie die Leistung mit der Auflösung skaliert. Denn damit dürfte man da wirklich einiges drauf spielen können, ggf. sogar auf mittleren Details, die dann je nach Spiel schon ganz anders aussehen als die minimalen.
 
Zuletzt bearbeitet:
Ah biiitttteee, willst du echt mit diesem leidigen Thema anfangen, wo du alles nur auf aktuelle Spieleleistung herunter brichst und ich dir das Gesamtbild versuchen soll zu erklären, nein Danke keine Lust, die Diskussion kannst dir Vorstellen wenn du willst.
 
ΔΣΛ;6770343 schrieb:
Ah biiitttteee, willst du echt mit diesem leidigen Thema anfangen, wo du alles nur auf aktuelle Spieleleistung herunter brichst und ich dir das Gesamtbild versuchen soll zu erklären, nein Danke keine Lust, die Diskussion kannst dir Vorstellen wenn du willst.

Es geht ja-sofern man ne iGPU als vollwertigen GPU-Ersatz betrachten will- um die aktuelle Spieleleistung. Ältere Spiele sind wieder ein anderes Parkett.
 
Zurück