Gigabyte Aorus 15G mit i7-10875H und 2070S im Test: Die erste "Super-GPU" ist da

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Gigabyte Aorus 15G mit i7-10875H und 2070S im Test: Die erste "Super-GPU" ist da

Pünktlich zu Ostern hat uns Gigabyte ein Ei ins Nest gelegt: Am Karsamstag bekommen wir das Aorus 15G zum Testen, das erste Notebook mit einer RTX 2070 Super Max-Q vom Turing-Refresh und einem Intel Core i7-10875H - Intels neuer Achterner aus der zehnten Generation Comet Lake-H. Ist die neue Grafikeinheit auch wirklich super? Und kann Intel mit dem erst kürzlich erschienenen Ryzen Mobile konkurrieren. Das wollen wir hier mit ersten Leistungstests beantworten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Gigabyte Aorus 15G mit i7-10875H und 2070S im Test: Die erste "Super-GPU" ist da
 
Wieso ist die Laptop CPU im CB20 Multi schneller als ein 9900K? Selbst die 6-Kerner sind schneller. Das kann doch niemals stimmen?!
 
Da musst du auch die jeweiligen Laptops in den Vergleich mit einbeziehen, wenn die CPU ins thermische Limit läuft oder vom PT nicht so hoch boosten darf dann ist das Ergebnis halt schlechter.
 
Weil die nen Desktop 9900k in ein Notebook gepresst haben. Finde es auch verwirrend und man sollte das Desktop Modell auch mit seiner Desktop TDP testen, ohne dass das Ding sofort wegen Hitze bremmst, schon allein um mal einen Vergleich zu haben. :ka:
 
Wie schon mit den letzten Desktop "Refresh" Cpu´s, die sind "Dead on Arrival". Intel MUSSTE irgendwas bringen, auch wenn es umsonst ist. (siehe Hardware Unboxed)
Da hift es auch nicht, die Cpu mit einer schönen 2070S zu kombinieren.
 
Komisch dass der Intel sich Single Core vom Ryzen schnappen kann aber nicht MultiCore, bei gleicher Kernanzahl. Heißt wohl dass der allcore boost ziemlich gedrosselt ist, was wiederum nicht für die Spieleleistung spricht.
 
Weil die nen Desktop 9900k in ein Notebook gepresst haben. Finde es auch verwirrend und man sollte das Desktop Modell auch mit seiner Desktop TDP testen, ohne dass das Ding sofort wegen Hitze bremmst, schon allein um mal einen Vergleich zu haben.
Es werden halt zum Glück Laptops und keine nackten CPUs mit einander verglichen. So lange ich keinen R9 4900H(S) oder i7-10875H inkl. MiniITX Mainboard kaufen kann, interessiert mich auch nur die Systemleistung. Was mein i9-9900K im Desktop kann, weiss ich selber.

Wieder mal nur Takt reingepumpt. Blasen aus allen Löchern, da wird man bei AMD eher schmunzeln.
Außer der rückständige Anwender hat doch tatsächlich noch altmodische Single-Thread Anwendungen....Von daher im Kontext des Forums erwartungsgemäß uninteressant (die CPU kommt dafür sowieso vom falschen Hersteller), für jemanden, der seine Anwendungen kennt, u.U. nicht.

Ich fände es eher mal interessant die Aussage
"In der Leistungsaufnahme genehmigt sich der Achtkerner einige Sekunden circa 105 Watt"
zu konkretisieren. SInd das 2, 10 oder wieviele Sekunden. Aber auch sowas ist natürlcih für Spiele irrelevant. Genauso wie man nur anhand der Bilder erahnen kann, dass es sich um ein mattes Display handeln könnte.
 
Ich fände es eher mal interessant die Aussage
"In der Leistungsaufnahme genehmigt sich der Achtkerner einige Sekunden circa 105 Watt"
zu konkretisieren. Sind das 2, 10 oder wieviele Sekunden. Aber auch sowas ist natürlcih für Spiele irrelevant. Genauso wie man nur anhand der Bilder erahnen kann, dass es sich um ein mattes Display handeln könnte.
Da ich die PL1 PL2 sowie deren Zeitfenster auch interessant finde, habe ich mal Google bemüht und kann von einem Golem-Artikel (Link) aus Zitieren:
Golem schrieb:
Intel selbst spezifiziert ein PL1 von 65 Watt, was von Gigabyte nicht komplett ausgenutzt wird. Das kurzfristige Basis-PL2 von 107 Watt für 56 Sekunden hingegen liegt an, theoretisch wäre auch ein Performance-PL2 von 135 Watt erlaubt. Bei Last auf einem Kern benötigt der Core i7-10875H immense 37 Watt um 4,8 GHz in Singlethread-Workloads wie Cinebench R15 zu erreichen.
Wenn ich das daraus richtig verstehe, kann jeder Hersteller die PL1, PL2 und die Zeitfenster (in einem von Intel gesetzten Rahmen) selber bestimmen, was die Vergleichbarkeit zwischen den CPU's herausgelöst sicher nicht vereinfacht.

Ich sehe schon kommen dass bei etwaigen Fanboykriegen einige als Stilmittel Dicke Desktop - Replacements mit starker Kühlung dann mit leichten Portable Geräten mit oft nur einem kleinen Kühlkörper vergleichen (was wenig Sinn macht).
 
Zuletzt bearbeitet:
Ich fände es eher mal interessant die Aussage
"In der Leistungsaufnahme genehmigt sich der Achtkerner einige Sekunden circa 105 Watt"
zu konkretisieren. SInd das 2, 10 oder wieviele Sekunden. Aber auch sowas ist natürlcih für Spiele irrelevant. Genauso wie man nur anhand der Bilder erahnen kann, dass es sich um ein mattes Display handeln könnte.

Halte solche Details für generell irrelevant, aber gut: Es sind fast 10 Sekunden. Bis der Sensor 85 Grad meldet und dann eben drosselt. Und spiegelnde Displays gibt es schon lange nicht mehr.
 
Ob jetzt Max Q oder Super ist also kaum ein Unterschied, wobei Effizienz bei einem Spielenotebook sicher nicht die Rolle spielt, was anderes aber schon. Lautstärke und da mutiert jedes dieser Books zu einem Fön, wenn man die Framerate unter 1080p nicht auf 60fps limitiert. Ob man Raytracing auf einem 15 oder 17 Zoll Monitor überhaupt in mittleren Qualitätsleveln wahr nimmt bleibt auch fraglich. Wozu dem Notebook einen 144Hz Bildschirm mitgeben, wenn man die Wiederholrate dann aktiviert, versteht man sein eigenes Wort nicht mehr?

Ich habe so eine "Höllenmaschine" hier stehen, zum Glück mit einem 6-Kerner der sich etwas mehr zurückhält. Ansonsten drehen beide Lüfter auf, dass es kein morgen gibt. Ich musste wechseln, das alte Notebook schafft kaum Windows 10 hochzufahren (2 Kerner), aber spielen mit dem neuen geht nur wenn man Ohropacks trägt.

Effizientere Die's aus der Serienfertigung Desktop, einfach zu selektieren und im Bereich Mobile zu verwursten ist die blödeste Idee von allen, Akkulaufzeit mal nebenher, was ja nicht mal den Preis mindert sondern ihn brachial in die Höhe treibt, so wie alles das mit RT oder RTX betitelt wird. Ob's das immer verdient und wert ist mal aussen vor.

Minecraft hängt ab einer bestimmten Anzahl an Chunks übrigens brachial im CPU Limit, da mutiert es auf einem Laptop schnell zu "Minecraft im Nebel" wenn man RTX aktiviert.
 
Zuletzt bearbeitet von einem Moderator:
Also das sind ja erfreuliche Zahlen, wenn man RT ausläßt. :D (Hier bin ich mal gespannt wann ich über das erste Spiel mit RT stolpere, da hat sich die Desktop GPU Anschaffung bis jetzt, für diesen Bereich, nicht gelohnt.)

"Denn generell sind alle (RTX-)Gaming-Notebooks ziemlich laut unter Last, manche eben mehr und manche eben etwas weniger.
In Sachen Lüfterlärm dürfte sich also wenig geändert haben - soweit unsere erste subjektive Vorabscheinschätzung dazu."
(Das ist halt einer der Gründe, warum ich nie wirklich Mobilegamer werde, entweder zu leistungsschwach oder zu laut, oder man geht halt dann ne Stufe runter, macht es wie Nintendo bzw. Indyspiele etc.)
 
Nvidia hat nahezu zeitgleich mit dem "Super"-Refresh auch die Upscaling-Technik DLSS 2.0 renoviert, welche schon in einigen Spielen verfügbar ist und trotz Raytracing die Fps wieder aufbohren soll.

Der Satz ist ein bisl zweideutig und könnte so interpretiert werden als würden nur die "Super"-Varianten DLSS 2.0 beherrschen. Läuft aber natürlich auf allen Turing-Karten.
 
Ich hab mir jetzt erst einen Schenker gekauft, bei AMD Mobil High-End CPUs geht es ja leider nur bis RTX 2060 und ich definitiv kein Intel mehr unterstützen werde die nächsten Jahre.
 
Zurück