Intel Tiger Lake: Mit Xe-Grafik sogar schneller als AMDs Renoir?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Tiger Lake: Mit Xe-Grafik sogar schneller als AMDs Renoir?

Geleakte Benchmarks wecken Hoffnungen auf einen beträchtlichen Leistungssprung bei Intel. Intels Tiger Lake könnte, dank Xe-Grafik, eine mehr als doppelt so schnelle Grafikeinheit wie Ice Lake an Bord haben. Selbst AMDs Renoir könnte im Notebook-Sektor geschlagen werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Tiger Lake: Mit Xe-Grafik sogar schneller als AMDs Renoir?
 
die leistung der hpc karten ist doch in opencl geringer als von amd/nvidia.

wie soll dann ne popel igp schneller sein? und wenn man die shader/cores etc. erhöht ist es kein hexenwerk.:ugly:
mal gucken wie sich amd apu's in 7nm schlagen werden.
 
Mensch, da kann man Intel ja nach langer Zeit beglückwünschen :ugly:

Sollte das denn auch wirklich in echten Tests rüberkommen und nicht in "Real World Application" xD
 
Tja, aber nächstes Jahr kommt Zen 3 Mobile samt RDNA2-iGPUs.

Renoir's Grafik ist ja immer noch auf Vega-basis. Wäre nicht unrealistisch die doppelte Leistung von den RDNA2 mobile GPUs zu erwarten, immerhin ist es ein Sprung um zwei Generationen.
 
die leistung der hpc karten ist doch in opencl geringer als von amd/nvidia.

wie soll dann ne popel igp schneller sein? und wenn man die shader/cores etc. erhöht ist es kein hexenwerk.
mal gucken wie sich amd apu's in 7nm schlagen werden.

Lol, vielleicht zuvor einen Kaffee trinken und dann den Post noch einmal überarbeiten? Denn dort passt rein gar nichts zusammen.

Tja, aber nächstes Jahr kommt Zen 3 Mobile samt RDNA2-iGPUs.

Renoir's Grafik ist ja immer noch auf Vega-basis. Wäre nicht unrealistisch die doppelte Leistung von den RDNA2 mobile GPUs zu erwarten, immerhin ist es ein Sprung um zwei Generationen.

Ob man RDNA oder RDNA2 verwenden wird, bleibt vorerst abzuwarten, denn bspw. ein Jahr nach RDNA hat man Renoir "nur" mit einer gepimpten GCN und nicht etwa mit RDNA veröffentlicht. Abgesehen davon sind +100 % Leistungssteigerung nicht zwingend zu erwarten, denn das, was man in Renoir als "Vega"-basiert bezeichnet, ist leistungstechnisch deutlich aufgewertet worden und nicht mit den Einheiten in Picasso vergleichbar. Beispielsweise Renoir mit 7 CUs und 1,6 GHz Peak schlägt Picasso mit 11 CUs und 1,4 GHz Peak bereits deutlich mit Blick auf die FPS. Hier wird man abwarten müssen ...
 
erstmal abwarten, was reale tests unter bekannten bedingungen zeigen, und nicht irgendwelche geleakten ergebnisse ohne weiteren einblick wie man zu den ergebnissen kam.
 
Also nix für ungut, als ich aber im aktuellen Heft gelesen habe, daß die bei Renoir die alte Vegaarchitektur mit verbaut haben, da mußte ich auch erstmal lachen. Blöder geht es dann ja nicht mehr, wenn schon Navi am Start hast.
 
Wäre ja nicht das erste mal. Die Iris Pro Ausbaustufen sind schon seit einigen Jahren immer mal wieder an den AMD APUs vorbeigezogen.

Blöderweise werden diese hohen Ausbaustufen praktisch nur in Macbook Pros und ein paar exotischen Clevo Designs verbaut. Was im Normalfall auch Sinn macht, denn eine schmale iGPU für Facebook & Youtube gepaart mit einer dedizierten GPU ala 2060 ist nicht nur deutlich schneller, sondern auch ähnlich effizient. Die Iris Pros und ihre AMD Äquivalente standen in der Vergangenheit immer ein bisschen zwischen den Stühlen, weil sie fürs Browsen völlig überdimensioniert, aber zum Spielen eigentlich zu langsam sind. Und ich denke daran wird sich auch mit Xe und RDNA2-APUs nur wenig ändern.

Eine konkurrenzfähige iGPU bräuchte ein eigenes, breites Speicherinterface um schnellen GDDR5/6 oder HBM ansprechen zu können - aber jenes Speicherinterface würde vermutlich die Effizienz im Leerlauf so sehr kaputtmachen, dass eine schwache iGPU + dedizierte GPU am Ende sowohl schneller, als auch effizienter wäre.
 
Mit dem R9 4900H kann man schon ganz gut spielen. Es muss nur der iGPU genügend Speicher zugewiesen werden können, was natürlich auch voraussetzt, dass sich die Geräte mindestens auf 16 GiB DDR4 im Dualchannel aufrüsten lassen.
 
Wobei es da noch zwei Knackpunkte gibt:
- Grafiktreiber
- Intel-CPUs mit der großen iGPU werden fast nie verbaut

So wie ich das verstehe sind das nicht die größten Ausbaustufen, mit dem L4 Cache, sondern die normalen Versionen. Von daher wird man die dann wohl öfter zu Gesicht bekommen.

Die Treiber sind akzeptabel, in jeder Hinsicht. Sie bringen die Spiele zum laufen, mehr aber auch nicht. Damit kann ich leben, zumindest irgendwie.

Mit dem R9 4900H kann man schon ganz gut spielen. Es muss nur der iGPU genügend Speicher zugewiesen werden können, was natürlich auch voraussetzt, dass sich die Geräte mindestens auf 16 GiB DDR4 im Dualchannel aufrüsten lassen.

Hängt immer von den Ansprüchen ab. Zum laufen bekommt man alles, nur ist eine GT 1030 allen derzeitigen IGPs überlegen, eine GTX 1050 ist dagegen dann ein wahres Leistungsmonster. Von der GTX 1060 oder GTX 1650 garnicht zu reden.
 
Dann wäre es aber sehr unwahrscheinlich, dass man da mit den Vegas mithalten kann.

Die aktuelle Intel (U)HD620 bzw. (U)HD630 stammt vom Skylake aus dem Jahr 2016 und wurde seitdem nicht verändert, hängt also Jahrelang hinterher und war schon damals recht langsam.

Hängt immer von den Ansprüchen ab.

Auf niedrig sollten schon 30 FPS avg, bzw. 20 FPS min drin sein.
 
Zuletzt bearbeitet:
Dann wäre es aber sehr unwahrscheinlich, dass man da mit den Vegas mithalten kann.

Die aktuelle Intel (U)HD620 bzw. (U)HD630 stammt vom Skylake aus dem Jahr 2016 und wurde seitdem nicht verändert, hängt also Jahrelang hinterher und war schon damals recht langsam.

Auf niedrig sollten schon 30 FPS avg, bzw. 20 FPS min drin sein.

Anno 1800 wäre so ein Beispiel, wo es nicht mehr für 30 FPS reichen könnte in 720p, selbst nicht mit 10900K und höherem RAM Takt. Preset niedrig, 24,3 avg bei i9-9900K, DDR4-2666. Der Ryzen 3 3200G mit DDR4-2933 stemmt auf niedrig 44,8 Bilder die Sekunde, auf mittel 22,8 FPS, laut Computerbase, mit ihrer Testmethodik.
 
Ne aber bestimmt auf Intel zugeschnittene, kennt man ja von denen nicht anders :P.
hab ich mir auch gerade gedacht, wirst sehen, da wird so lange gesucht bis man was gefunden hat wo man 2~3 Points vorne liegt, auch wenn es überhaut keine Aussage kraft hat und in allen anderen Benchmarks deklassiert wird. :D
 
Dann wäre es aber sehr unwahrscheinlich, dass man da mit den Vegas mithalten kann.

Die aktuelle Intel (U)HD620 bzw. (U)HD630 stammt vom Skylake aus dem Jahr 2016 und wurde seitdem nicht verändert, hängt also Jahrelang hinterher und war schon damals recht langsam.

Der Vergleichsmaßstab war doch Ice Lake und nicht Skylake, von daher könnte das hinkommen.
 
Zurück