Intel-AMD-APU: Weitere Leaks nennen Performance oberhalb von GTX1060 Max-Q

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel-AMD-APU: Weitere Leaks nennen Performance oberhalb von GTX1060 Max-Q

Nachdem erst kürzlich inoffiziell Daten zur ungewohnten Symbiose zwischen AMD und Intel durchsickerten, gibt es nun einen weiteren Leak. Demnach ist der für mobile Systeme gedachte Hybride aus Kaby Lake und Vega schneller als ein ähnlicher Prozessor mit Geforce GTX1060 Max-Q.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel-AMD-APU: Weitere Leaks nennen Performance oberhalb von GTX1060 Max-Q
 
Demnach ist die Radeon RX Vega M GL in Hitman 40%, in Deus Ex: Mankind Dividend 30% und in Vermintide 2 immerhin noch 10% schneller als das Vergleichssystem mit Geforce GTX 1050.
Die Radeon RX Vega M GH soll sich um die Faktoren +7% in Hitman, +13% in Deus Ex: Mankind Dividend und +9% in Total War: Warhammer von einer Geforce GTX 1060 Max-Q absetzen können, die mit einem I7-7700HQ w gepaart wurde.
Ihr gibt doch sonst auch immer Unterschiede in Prozent an, wieso diesmal in Faktoren? Ich fänden den Text so schöner.
 
Hm, es wurde doch spekuliert, dass Apple einer der Initiatoren hinter diesem Produkt sein soll. Falls das so tatsächlich so ist, dann kommt als Produkt aber nur ein neuer iMac infrage. Denn die TDP ist für MacBooks doch viel zu hoch... - oder kommt da vielleicht noch mehr (mit kleinerer Vega)?
 
Hm, es wurde doch spekuliert, dass Apple einer der Initiatoren hinter diesem Produkt sein soll. Falls das so tatsächlich so ist, dann kommt als Produkt aber nur ein neuer iMac infrage. Denn die TDP ist für MacBooks doch viel zu hoch... - oder kommt da vielleicht noch mehr (mit kleinerer Vega)?

Die 15"-MacBooks gibts mit Radeon Pro 560 und i7-7700HQ. Das sind 35W + 45W.
Da passt die kleinere Variante mit 65W locker ins thermale Budget.
Auch 100W könnte man noch gut wegkühlen, wenn man denn möchte.
Glaube aber auch eher an einen iMac für die große Variante.
 
Mich würde der Gesamtverbrauch im Vergleich zu herkömmlichen Lösungen interessieren!
Das ist doch gerade im mobilen Bereich der springende Punkt und das eigentlich Interessante.
 
Die 15"-MacBooks gibts mit Radeon Pro 560 und i7-7700HQ. Das sind 35W + 45W.
Da passt die kleinere Variante mit 65W locker ins thermale Budget.
Auch 100W könnte man noch gut wegkühlen, wenn man denn möchte.
Glaube aber auch eher an einen iMac für die große Variante.

Richtig! Die GPU habe ich ja komplett vergessen. Ich habe nur an die TDP der CPU gedacht.

@Abductee: Simmt auch - der Mac Mini ist ja schon länger überfällig.
 
Realistisch gesehen halte ich diese Werte für nicht all zu glaubwürdig. Eine Vega mit gerade einmal rund 300 Shadern mehr soll leistungsfähiger sein, als eine 1060? Hmmm...
Natürlich könnte es zu merklichen Vorteilen durch die direktere Anbindung der GPU kommen aber mit solcher Wirkung sicher nicht. Sonst könnte eine frei boostende Vega 64 eine 1080, mit 1500 Shadern weniger, jederzeit abhängen und selbst eine Ti zumindest bedrängen. Und das ist bekanntlich nicht der Fall...
Daher 1050 Ti sicherlich, 1060(MQ) auf keinen Fall.
 
Ui... So im Schnitt 10% über ner 1060 MaxQ heißt mal eben entspannt Performance einer normalen GTX1060.
Nicht übel... Muss man mal überlegen, das ist Pi mal Daumen die Performance einer GTX980 + einem Intel-Quad in 100W TDP. :what:
 
Sonst könnte eine frei boostende Vega 64 eine 1080, mit 1500 Shadern weniger, jederzeit abhängen und selbst eine Ti zumindest bedrängen. Und das ist bekanntlich nicht der Fall...

jederzeit sicher nicht, kommt aber wohl vor!

die apu hier find ich aber ziemlich nice, wenn das mit der leistung so stimmen sollte. da kann man sich ja langsam aber sicher überlegen, sich was dezentes für unter die glotze /zum integrieren in die audioanlage zuzulegen. :)
 
das teil verbaut in der playstation 5 wird dank deren API zum teil sogar ein 1080Ti an die wand nageln.
am PC sehe ich nur vorteile bei laptops , da die DX12 krücke selbst in der xbox x nichts taugt.
bin schon auf den stromverbrauch der INTEL-AMD APU gespannt und erste benchmarks mit vulkan.

Ui... So im Schnitt 10% über ner 1060 MaxQ heißt mal eben entspannt Performance einer normalen GTX1060.

auf der PS5 in paar optimierten games (primär exklusives) eher gleichzustellen mit einer 1080ti
 
Realistisch gesehen halte ich diese Werte für nicht all zu glaubwürdig. Eine Vega mit gerade einmal rund 300 Shadern mehr soll leistungsfähiger sein, als eine 1060? Hmmm...
Natürlich könnte es zu merklichen Vorteilen durch die direktere Anbindung der GPU kommen aber mit solcher Wirkung sicher nicht. Sonst könnte eine frei boostende Vega 64 eine 1080, mit 1500 Shadern weniger, jederzeit abhängen und selbst eine Ti zumindest bedrängen. Und das ist bekanntlich nicht der Fall...
Daher 1050 Ti sicherlich, 1060(MQ) auf keinen Fall.

Vega scheit ja ordentlich Bandbreiten limitiert zu sein

hier hat man 24 NCU an einen HBM2 Stack wo die großen Vega 64 NCU an 2 HBM2 Stacks haben

das besse Verhältnis von Speicherbandbreite zu Rechenleistung könnte dem kleinen helfen

aber erstmal echte Tests abwarten
 
Bedenkt, dass solche Chips viel näher an ihrem Effizienzoptimum betrieben werden können und da hat AMD sowohl bei Ryzen als auch bei Vega SEHR effiziente Chips im Angebot. Wenn du Ryzen mit 3 GHz betreibst und Vega mit 1 GHz sind die irre energieeffizient und sowohl Intel als auch NVidia voraus.
Nur bemerkt das keiner weil AMD wegen seiner Konkurrenz sowohl Ryzen als auch Vega am Vollanschlag laufen lassen muss wo (besonders bei Vega) der Chip zum Säufer mutiert-

In der TDP-Klasse wo wir uns hier bewegen wäre es aber durchaus möglich, dass VEGA deutlich effizienter als Pascal ist - auch wenn ich derartige Unterschiede wie im Artikel genannt auch noch nicht glaube.
 
Laut dem Text bei VideoCardZ soll das Power-Sharing zwischen CPU und GPU die Effizienz um bis zu 18% verbessern.
Daneben besitzt die Vega-Umsetzung auch Power-Gating pro Compute-Unit, dass hat AMD bisher nur bei den APUs und Polaris11 umgesetzt, weil das Fläche kostet und stets komplexer mit der Anzahl der CUs wird.
Verwunderlich ist das starke Front-End und Back-End, wobei letzteres mit 64 ROPs einfach nur nach overkill aussieht, da frage ich mich echt welchen Sinn man dahinter gesehen hat.
 
Laut dem Text bei VideoCardZ soll das Power-Sharing zwischen CPU und GPU die Effizienz um bis zu 18% verbessern.
Daneben besitzt die Vega-Umsetzung auch Power-Gating pro Compute-Unit, dass hat AMD bisher nur bei den APUs und Polaris11 umgesetzt, weil das Fläche kostet und stets komplexer mit der Anzahl der CUs wird.
Verwunderlich ist das starke Front-End und Back-End, wobei letzteres mit 64 ROPs einfach nur nach overkill aussieht, da frage ich mich echt welchen Sinn man dahinter gesehen hat.

Gibts da ne Quelle dazu, daß Power-Gating nicht in Vega eingebaut ist?
 
Hm, es wurde doch spekuliert, dass Apple einer der Initiatoren hinter diesem Produkt sein soll. Falls das so tatsächlich so ist, dann kommt als Produkt aber nur ein neuer iMac infrage. Denn die TDP ist für MacBooks doch viel zu hoch... - oder kommt da vielleicht noch mehr (mit kleinerer Vega)?
Artikel schrieb:
Laut Leak erscheinen sie im ersten Quartal 2018 in (mobilen) Systemen von Dell und HP sowie als Intel NUC.
Lesen?!?! :nene:
 
Zurück