Intel Core i7 8809G: Kaby Lake mit Vega bietet hohe Spieleleistung

Doch genau dafür wurde Vega designed, für sehr hohe Taktraten.
Angepeilt waren mal 1600MHz, geworden sind es ~1330 im Referenzdesign, heißt dieser Transistorenaufwand hat sich nicht gelohnt, da man Polaris auch in diese Region takten kann.
Und der Stromverbrauch der Vega mobile + Intel CPU ist nichts besonderes, eine GTX 1050 Ti + HBM und der Intel CPU wäre deutlich effizienter, nur hat sich AMD bestimmt wieder über den Preis verkauft und daher verbaut Intel AMD.

Appel will keine Nvidias haben Aktuell, was genau zwischen Nvidia und Appel passiert ist, das die Überlegenen Chips von Nvidia nicht in Betracht kommen, weis so Richtig keiner.
Intel wird deshalb Amd nutzen, das Amd Sonder Chips baut auf den Kundenwunsch passend wird auch helfen. Nvidia macht nichtmal für NINTENDO nen Sonder Chip.
Amds Gpu Lösung passt für Intel super, Sie haben den "CHEFF" der Gpu Sparte von Amd dadurch zu sich bekommen, ohne das es Amd "kapiert" hat.

SORRY NINTENDO NICHT NVIDIA:
 
Zuletzt bearbeitet:
Ein Fortschritt wäre es die Quelle zu lesen (und auch korrekt wiederzugeben@Autor), denn das Messgerät HPM-100A (Wattman) ist ein Steckdosen-Energiemonitor, d.h. gemessen wurde nicht die "APU", sondern das komplette NUC-Gerät, also inkl. Netzteil(Verluste), (Mobo)Spannungswandler, RAM, M.2 SSD, Chipsatz, etc.

Eine Kombination aus DC/DC-Wandler und Tischnetzteil wie es hier zum Einsatz kommt, ist im Bereichen von 150 Watt deutlich ineffizienter (nur ca. 85% Wirkunsgrad, der ergibt sich aus ~95% WG des DC/DCs x ~90% WG des AC-Adapters) als beispielsweise übliche Platinum/Titanium ATX-Netzteile, die in dem Bereich bereits einen Wirkungsgrad von rund 92-94% erreichen. Durch die Spannungswandlung für den Prozessor bleiben auch einige Prozente auf der Strecke. Die Wandlerverluste von Mobo und Netzteil summieren sich hier gut und gerne auf 20% insgesamt. Dann muss man noch Chipsatz, SSD und RAM abziehen, auf viel mehr als ~115W kommt man dann nicht mehr, allerdings waren das nur Peaks (155W), der Durchschnitt in Spielen lag bei 140 Watt, was dann ziemlich gut zur TDP passt, also rund 105W Leistungsaufnahme für den gesamten Prozessor (GPU+CPU).
Das macht das ganze DIng zwar kompakt, aber immer noch nicht effizient.
Zum Vergleich: Der PC meiner Frau hat in Spielen auch meist so um die 150W. Da ist aber ein i7, 12 GB RAM, 4 Platten, ne Soundkarte, eine 1060, ne Netzwerkkarte usw usf drin. Wenn man alles etwas undervoltet ist man bei 120W und drunter. AUch inkl. Netzteil btw.
Also Effizienzwunder wird das keines.

Es ist ein wirklich kompaktes Teil, aber irgendwie hätte ich halt mehr erhofft was die Effizienz betrifft. Aber gut, wer weiß was da wirklich gemessen wurde oder wie sehr man dem vertrauen kann, ich warte auf unabhängige Tests
 
?


Was genau willst du sagen?
Soll das auch nur irgendwie Sinn ergeben?

Durch den Intel Amd Deal konnte Raja Koduri längere Zeit mit Intel "legal" in Kontakt sein, auch kannte er seine Ansprechpartner damit besser als, ohne Kontakt.
Wenn ich jemand auf Arbeit gut kennengelernt habe, kann man den auch mal so Anrufen, wenn man nen Neuen Arbeitsplatz sucht, gerne als Vitamin B bezeichnet.
 
Wer sich mit dem Thema Koduri intensiver beschäftigt hat, wußte das der Haussegen zwischen ihm und Lisa Su schon mind. 1 Jahr schief hing, AMD wollte Koduri loswerdern, da ist niemand abgeworben worden ohne wohlwollendes zuschubsen!
Spätestens im Februar 2017 mußte eigentlich jedem klar gewesen sein, dass es erhebliche Verwerfungen gibt, wenn die CEO öffentlichkeitswirksam bekannt gibt, wie das Treiber Team der Radeon Groupe seine Arbeit zu priosieren hat.
Das war eine glasklare Einmischung in die Kernkompetenz von Koduri und das öffentlich.
 
Die Vegas sind nicht für sehr hohe Taktraten gemacht. Bei niedrigen Taktraten sind sie auch sehr Effizient. Das sollte einer wie du schon wissen, der sehr oft hier im Forum ist.
Lustig, denn gerade dafür wurden Milliarden von Transistoren hinzugefügt: dass Vega höhere Taktraten als Fiji erreicht. Das sollte einer wie du schon wissen, der sehr oft hier im Forum ist.

Vega ist also 100%ig für hohe Taktraten designed worden. Dass das Ding diese nicht erreicht und das was es erreicht leider mit enormer Leistungsaufnahme nennt sich halt Design-Fail. Gibts natürlich von allen Firmen, nicht nur in dem Fall bei Vega

Das ist aber gar nicht das Thema: Vega ist in diesem Fall nicht alleinig Schuld, schließlich gönnt sich in dem Fall die CPU auch über 50W @ Max (wobei hier auch die iGPU mitgerechnet ist laut TDP Angabe beim Chip ohne Vega). Das ganze "Ding" ist generell nicht gerade sparsam
 
Das weißt du doch gar nicht, es kann genauso gut am 14nm LPP Prozess liegen.
Im übrigen zeigt Vega gerade wie effizient er ist bei der Ryzen APU (Notebook und Desktop) sowie mit dem Intel Chip.
Und bei aller liebe, deine Verbrauchsausführungen zum Rechner deiner Frau widersprechen allen offiziellen Verbrauchsangaben zu einer GTX 1060 und einem Intel I7, aller Hardware Magazine rund um den Globus, außer deine Frau spielt nur Spiele in denen die Graka und CPU nur zu 50% beansprucht werden!

Ich habe von dir auch nichts anderes erwartet, genauso mit deiner Aussage, dass der Ryzen 2000 auf alle Fälle nicht über 10% schneller werden wird, wie seine Ryzen1 Vorgänger, ist aber schon leider passiert!
Result
 
Das weißt du doch gar nicht, es kann genauso gut am 14nm LPP Prozess liegen.
Unwahrscheinlich, weil Nvidia diesen in der 1050 und Ti auch benutzt und dort ähnliche Probleme nicht hat, sondern laut 3dcenter News vor knapp 1 Jahr 80% Effizienter als eine gleich große (Chipgröße, Transistormenge) 460 abschneidet.
Im übrigen zeigt Vega gerade wie effizient er ist bei der Ryzen APU (Notebook und Desktop) sowie mit dem Intel Chip.
Da es keine vergleichbare Nvidia Hardware gibt, mit ähnlich vielen Ausführungseinheiten können wir das leider nicht korrekt vergleichen. Aber: ein heruntergetakteter großer Chip ist natürlich wesentlich effizienter, als ein am limit getakteter (Vega 64). Das war ja schon bei der Fury/Nano so oder anderen "big chips". Man müsste das immer im Vergleich zu anderen, ähnlich schnellen oder großen Chips ansehen um einen technisch sinnvollen Vergleich ziehen zu können. Wenn man jetzt eine Intel CPU mit integrierter Nvidia GPU samt HBM hätte und diese würde gleich viel oder MEHR verbrauchen, wäre Vega natürlich tatsächlich plötzlich ein effizienzwunder. Wenn das mit den 150W aber stimmen sollte (wie gesagt, glaub ich erstmal nicht), dann ist man bei der Effizienz bei dem Jahrealten Desktop meiner Frau. Was nicht besonders Effizient ist.
Und bei aller liebe, deine Verbrauchsausführungen zum Rechner deiner Frau widersprechen allen offiziellen Verbrauchsangaben zu einer GTX 1060 und einem Intel I7, aller Hardware Magazine rund um den Globus, außer deine Frau spielt nur Spiele in denen die Graka und CPU nur zu 50% beansprucht wird!
Ehrlich gesagt weiß ich das nicht, ob jetzt die GPU besonders beansprucht wird, oder die CPU. Es wird aber nicht plötzlich der Verbrauch nochmal um 60-70W hochgehen. Das höcshte was ich je gemessen habe, waren knappe 200W mit Prime das noch nebenbei auf der CPU lief während Watch dogs die GPU ein bisschen beansprucht hat(aber dann halt unspielbar war, war ja nur ein Test)
Zugegeben, ich habe kein Hochpräzisionsgerät sondern ein 08/15 Strommessgerät und die Messungen sind demnach nicht 100% akkurat, aber letztlich überrascht der hohe Verbrauch für ein 1000€ System doch sehr, welches auf Kompaktheit und Effizienz ausgelegt sein sollte

Du hast in deinem Beitrag diesmal übrigens vergessen zu sagen, was für ein grausiger AMD hater ich bin, obwohl 9 von 10 meiner CPUs von AMD sind und ich stets betone wie gut Zen geworden ist, speziell in Anbetracht der MIttel die AMD so hat.
Ich würds noch dazu schreiben, weil ohne "du bist doch nur ein AMD hater und Intel Fanboy" verlieren deine Posts ein bisschen den Don 71 Charakter
 
Zuletzt bearbeitet:
Naja eine GTX 1060 6GB FE liegt bei 110- 120 Watt wann sie voll ausgelastet wird, ein i7 dürfte auch 50-70 Watt beim Gaming schlucken, dazu kommt dann das Brett, Platten, Soundkarte und Verlustleistung durch das Netzteil, zwischen 170-200 Watt sind ein sehr reealistischer Wert, je nachdem wie stark das Spiel CPU und Graka beansprucht.

Unwahrscheinlich, weil Nvidia diesen in der 1050 und Ti auch benutzt und dort ähnliche Probleme nicht hat, sondern laut 3dcenter News vor knapp 1 Jahr 80% Effizienter als eine gleich große (Chipgröße, Transistormenge) 460 abschneidet.
Das würde bedeuten, dass eine 1050ti 45 Watt verbraucht, willst du uns verarschen?!
GeForce GTX 1050 (Ti) im Test: Einmal perfekt und einmal mit zu wenig Speicher (Seite 6) - ComputerBase
Ich sehe hier keine nennenswerten Verbrauchsvorteile der 1050ti zur RX 460! Der Unterschied beträgt in der Spitze 20 Watt zu einer OC 460
 
Zuletzt bearbeitet:
Naja eine GTX 1060 6GB FE liegt bei 110- 120 Watt wann sie voll ausgelastet wird, ein i7 dürfte auch 50-70 Watt beim Gaming schlucken, dazu kommt dann das Brett, Platten, Soundkarte und Verlustleistung durch das Netzteil, zwischen 170-200 Watt sind ein sehr reealistischer Wert, je nachdem wie stark das Spiel CPU und Graka beansprucht.
Ja richtig, deshalb bin ich überrascht, dass diese angeblich so tolle APU eigentlich kaum weniger verbraucht.
Wenn Vega wirklich so ein Hit ist, wie du sagst, dann müsste der Verbrauch @ 1060 Leistung ja DEUTLICH drunter sein, allein schon wegen HBM usw.

Nochmal: das ganze ist natürlich eine nette Spielerei, aber sobald ich ein bisschen Platz habe, ist eine Kombination aus GPU und CPU wohl fast genauso effizient, dafür aber deutlich flexibler
 
Absprachen mit der Konkurrenz sind außerhalb einer Verhandlung oder eines Deals, und ohne wissen des Arbeitgebers Illegal, steht sogar in meinem Vertrag drin und ich bin kein Manager.
Nennt sich Geheimhaltungsvereinbarung & Verschwiegenheitsklausel
 
Ichh male es dir auf! Warum musst die eigentlich immer lügen, schau dir doch einfach die Werte an, die sind faktisch!

Irgendwann wird es langweilig mit deinen albernen Lügen Unterstellungen, der Chip hat wieviele Shader und taktet mit wievielen Megahertz?
1536 Shader, die RX580 hat 2304 und die RX570 2048, wie zum Teufel soll ein derart kleiner Chip an die Leistung der großen Modelle rankommen?
Wende doch mal ein wenig Logik an, bevor du immer gleicht mit solch dumpfen Unterstellungen arbeitest.

Rise of the Tomb Raider DX12: 52,6 fps OC: 59,1 fps
Total Warhammer2 DX12: 27,3 fps OC: 30,1 fps
The Division DX12: 41,5 fps OC: 46,8fps

Und wer weiß wie die getestet haben... wird wohl nen Grund haben warum sie die Leistung zwischen GTX 1050 Ti und RX 580/1060 einschätzen.
Mit 1536 Shadern wird an Leistung nicht allzuviel herumkommen, da rechne ich mit 25% mehr Leistung über einer GTX 1050 Ti, was durchaus ordentlich wäre.
Eine RX 470 liegt etwa 40% vor der 1050 Ti, die hat mehr Shader und wohl nen vergleichbaren Takt als Kabylake G.
Alle Messungen mit 1080p und Ultra Preset

Wers glaubt.:schief:
 
Ich habe von dir auch nichts anderes erwartet, genauso mit deiner Aussage, dass der Ryzen 2000 auf alle Fälle nicht über 10% schneller werden wird, wie seine Ryzen1 Vorgänger, ist aber schon leider passiert!
Nächste Lüge bitte, habe ich so nie gesagt.
Ich schrieb, dass sich die Performanceverbesserungen im Bereich von 10-15% aufhalten werden, weil 10% Mehrtakt nunmal kaum mehr zulassen, hinzu kommend die Verbesserungen durch höhere RAM Speeds. Und dort schrieb ich, dass es in Ausnahmefällen natürlich auch besser skalieren kann, genauso wie es auch Ergebnisse unter 10% geben wird.
Hier meine originalaussage, für die du mich übrigens als AMD Hater beleidigt hast, obwohl ich hier eindeutig sage, Ryzen ist kein Krüppel und eindeutig Zen vor einem Intel Fanboy verteidige http://extreme.pcgameshardware.de/n...tliches-taktplus-der-basis-7.html#post9275651
Und hier nochmal für dich im in einem anderen Beitrag
http://extreme.pcgameshardware.de/n...tliches-taktplus-der-basis-8.html#post9275705

Aber ja, du diskutierst einfach nicht gerne mit Niveau, du legst lieber anderen irgendwelche Lügen in den Mund, verdrehst aussagen und sagst dann "seht euch diesen Fanboy an". Dir würde mal wieder ne Auszeit gut tun, du weißt offenbar nicht, wie man sich in einem Diskussionsforum verhält

Das würde bedeuten, dass eine 1050ti 45 Watt verbraucht, willst du uns verarschen?!
Gehts dir irgendwie nicht gut? Komm mal runter mit deinem Ton.
Deine Aussage würde bedeuten, dass beide gleich schnell sein müssen. Sind sie aber nicht.
Die 1050 ti ist zwischen 50 und 80 % schneller (in GPU intensiven Szenarien) bei gleichem Verbrauch wie eine 460. Das steht im selben verlinkten Test. Und was heißt das? Genau, sie ist in manchen Szenarien 50-80% effizienter.
Also bevor du weiterhin User beleidigst, mal nachdenken.


GeForce GTX 1050 (Ti) im Test: Einmal perfekt und einmal mit zu wenig Speicher (Seite 6) - ComputerBase
Ich sehe hier keine nennenswerten Verbrauchsvorteile der 1050ti zur RX 460! Der Unterschied beträgt in der Spitze 20 Watt zu einer OC 460
Wer spricht von Verbrauch, ich spreche von Effizienz.
Wenn eine Karte bei gleichem Verbrauch deutlich schneller ist, ist sie auch deutlich effizienter. Wenn der gleiche Prozess anliegt, kann man ganz klar sagen wo der Fehler liegt.
Hör mal auf Lügen in meinen Mund zu legen. Wenn du schon andere als Fanboy bezeichnest, sei doch selbst mal ein bisschen Seriös.
Wenn dir das Wort Effizient nix sagt, kann ich dir natürlich gerne helfen

Edit: Nachtrag
Ein kleiner Artikel zur 1050 und Ti
Launch-Analyse nVidia GeForce GTX 1050 & 1050 Ti | 3DCenter.org

Edit 2: oh es waren doch nur knappe 70, nicht 80%, mein Fehler

Hardware- und Nachrichten-Links des 27./28. Oktober 2016 | 3DCenter.org

so eröffnet jener dann doch wieder eine neue Effizienz- und Architektur-Diskussion mit AMD. Denn wenn GeForce GTX 1050 & GeForce GTX 1050 Ti ein was können, dann ist das möglichst viel fps zu möglichst wenig Stromverbrauch auszuwerfen. Im Fall der GeForce GTX 1050 Ti ist dies mit einem Performance-Index von 360% zu einem Stromverbrauch von ~58 Watt besonders drastisch – gegenüber der (referenzmäßigen) Radeon RX 460 (260%, ~70W) holt nVidia satte 67% mehr Performance/Watt heraus – bei noch dazu einem Grafikchip mit ähnlicher Chipgröße (GP107 mit 132mm², Polaris 11 mit 123mm²) und sogar faktisch identischer Fertigung (14nm Samsung vs. 14nm GlobalFoundries). Selbiges Dilemma hatte sich kürzlich schon angedeutet – Meldungen No.1 & No.2 – und erreicht nun im Zweikampf von nVidias GP107 gegen AMDs Polaris 11 ein neues Level.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Zur Geschichte mit der 1050 Ti...
Geforce GTX 1050 (Ti) im Test: Pascal'sches Sparmodell ab 125 Euro (Update mit Multi-res Shading)

EVGA GTX 4GB 1050 Ti vs RX460 4GB Nitro

Crysis 3: 59 vs. 87
Anno 2070: 56 vs 95

Zudem ist die 1050 Ti im Index 30% schneller, die OC Variante dürfte nochmal besser sein als die Nitro.

Also 50% mehr Leistungsaufnahme und trotzdem wohl gut 30% schneller, also da ist man zusammengerechnet schon eher schon 90%.
Bei CB sinds eher 60%, also kommt man da wohl ganz gut auf 70/80% je nach Karte halt, das ist halt aktuell der normale Effizienzrückstand bei gleicher Fertigung.
Und genau deshalb kann man massiv bezweifeln, dass die Vega Architektur überhaupt in irgendeinerweise im Vergleich zu Nvidia effizient wäre.
AMD kann froh sein, dass Nvidia keine kleinen Customchips für Intel zu niedrigen Preisen liefern will.
Schaut wie weit die 1050 Ti da oben liegt.

Sapphire Radeon RX 580 Nitro+ Limited Edition 8 GB Review | TechPowerUp

In jedem Bild steht 1080p Ultra Preset!

Das kann doch recht egal sein was da steht, wahrscheinlich haben sie das ganze mit Stickstoff gekühlt oder halt irgendnen Unsinn betrieben.
1536 Shader können nicht die Leistung einer RX 580 mit 2304 Shader produzieren, außer die Bandbreite von GDDR5 ist bei Polaris eine riesen Bremse, ist sie aber nur leicht.
Das sind 50% mehr Shader und zusätzlich ziemlich sicher noch eine Ecke mehr Takt bei der RX 580 in der Praxis.
Man kann froh sein wenn man deutlich genug über ner 1050 Ti rauskommt.
Wenn man pessimistisch sein will, dann wirds für viel mehr wie eine 1050 Ti auch nicht reichen können, denn ich kann mir kaum vorstellen dass man CPU und GPU kochen lassen will.
Also muss der Takt halt auch moderat bei 1100 oder max. 1200 für die GPU ausfallen und damit landet man zwingend hinter einer RX 470 und die hat bekanntlich 33% mehr Shader als eine Kabylake G Vega.

Außerdem ist das von Spiel zu Spiel unterschiedlich, ich beziehe mich da auf faktische und realistische Verbrauswerte, aber jedem Tierchen sein spezielles anti AMD plesierchen.

Es ist doch irrelevant welche Seite und welche Spiele es sind, es ist doch überall in etwa dasselbe Ergebnis.
Egal ob CB, PCGH, Techpowerup oder die Zusammenfassung im 3D Center, die ist sogar am neutralsten.
 
Zuletzt bearbeitet:
Ich hab jetzt mal die letzten 10 Postings entfernt, da sie überwiegend bis ausschließlich Spam/OT waren. Bitte klärt eure persönlichen Probleme per PM, und kommt hier wieder zum Thema zurück.



46925.jpg





Edit: Ich hab jetzt wieder 2 Postings entfernt. Wollt ihr mich gerade vielleicht ein bisschen ver@rschen? Oder hab ich mich etwa unklar ausgedrückt? Der nächste Spam wird mit Punkten geahndet, anders klappt das hier scheinbar nicht.

JohnRambo2008.jpg
 
Zuletzt bearbeitet:
Nochmal meine Frage, die aber anscheinend OT ist :huh:

Wer macht den Treibersupport. Im originalen Artikel ist ein Screenshot des Treibers zu sehen Intel Kaby Lake-G im NUC im Test (Bild 18/18) - ComputerBase, der den Aktuellen AMD Treiber zeigt mit Intel Logo drauf.
Es scheint also ein leicht modifizierter AMD Treiber zu sein.

Angenommen AMD schickt den Treiber an Intel weiter, diese testen den dann und geben den bei Bedarf mit eigenem Logo frei, würde ein AMD Treiber auch funktionieren? Wenn ja mit EInschränkungen (GPU Umschalten? Power-Saving-Features aus?...). Ist man also von Intel abhängig oder AMD? Letzteres wäre praktisch, deren Treiberupdates sind ja regelmäßig, aber wenn Intel jedesmal den AMD Treiber zuerst testet und dann erst freigibt verzögert sich da ja einiges. Falls der Support überhaupt lange aufrecht erhalten bleibt. Oder ist es überhaupt wie früher, dass der NUC Hersteller in dem Fall den Treiber zur Verfügung stellt. Weiß man da etwas?
Werden die Treiber dann in Intels Treiberpaket integriert oder separat zum Download sein.
Die Angst ist: ich habe einen uralten Laptop (aber immer noch im Betrieb (Tochter)) mit ATI Grafikkarte von Dell, das letzte Treiberupdate ist von Dell selbst, ATI hat damals die Mobilen Treiber nicht unterstützt. Das letzte Dell Update war aber der im Verkauf mitgelieferte Treiber.
Über viele modifikationen und 3rd Party Treiber gelang es mir dann dem Grafiktreiber immer mal wieder seine Flausen auszutreiben.

Grafiktreibersupport ist natürlich heute ein anderer wie 2002, aber die Frage ist für mich dann doch wichtig. Gerade wenn ich im Notebook so einen Chip habe, will ich ja vorallem die Effizienzfunktionen weiter nutzen nach einem Treiberupdate. Da wäre dann schon interessant, wie Intel dies bewerkstelligen will. Wird Intel die Treiber nochmal extra testen, oder verlässt man sich auf AMDs QA Abteilung? Wenn letzteres, was macht Intel im Falle eines Desasters wie das bei manchen Nvidia-Chips mal war nach einem Treiberupdate?
Absprachen mit der Konkurrenz sind außerhalb einer Verhandlung oder eines Deals, und ohne wissen des Arbeitgebers Illegal, steht sogar in meinem Vertrag drin und ich bin kein Manager.
Nennt sich Geheimhaltungsvereinbarung & Verschwiegenheitsklausel
Ich denke der User bezog sich auf die Lizenzverhandlungen zu diversen Technologien. Da wir aber nicht wissen was genau verhandelt wurde (unter anderem, aber vielleicht nicht NUR Vega auf dem Intel EMIB) ist es ja nur eine Vermutung "ins Blaue" (ungeschicktes Wortspiel mit Intels Firmenfarbe).
Inwiefern und ob überhaupt Raja schon länger mit Intel in Kontakt steht, ob dies im Zusammenhang mit Vega auf dem EMIB überhaupt nötig war oder ob das das Sales-Team gemacht hat wissen wir ja nicht. Also ich habe diesbezüglich zumindest nichts offizielles gelesen. VIelleicht gibts irgendwo ein Interview welches das genauer beleuchtet
 
Zuletzt bearbeitet:
Nochmal meine Frage, die aber anscheinend OT ist :huh:
Sie war/ist nicht OT, sie wurde entfernt weil sie Teil eines Postings war, dass wiederum mehrheitlich OT/Spam war. Und wenn zahlreiche Postings in einem Rutsch entfernt werden (müssen), dann nimmt sich die Moderation (in dem Fall ich^^) auch mal das Recht raus, nicht jedes einzelne dieser Postings nach quasi einzelnen Topic-Sätzen zu durchforsten, um diese dann zu "retten". Dann kommt es eben auch mal zu Kollateralschäden. ;)

Wenn noch was unklar ist, bitte per PM.

Weitermachen.
 
Ich vermute mal, Vega-Mobile wird genau auf dieser GPU basieren.
Die Höhe des Packages soll laut Roadmap oder Investoren Präsentation (weis es nicht mehr genau wo das jetzt steht!) gleich hoch wie bei Kaby Lake G sein.
Da vermute ich mal, daß Intel für diese Karten einer der Fertigungspartner wird.
Intel wird GPU + HBM für AMD per EMIB verbinden, vermute ich mal.
Bei Vega Mobile wird nach wie vor ein Interposer verwendet, welcher allerdings tiefer in das Package verankert wird, um die typischen 1.7mm Höhe zu erreichen:
Auf Nachfrage sagte AMD aber, dass bei Radeon Vega Mobile ein Interposer genutzt wird, der besonders tief im Package sitze.
Grafikkarte: AMD zeigt Radeon Vega Mobile und Roadmap - Golem.de
Nochmal meine Frage, die aber anscheinend OT ist :huh:

Wer macht den Treibersupport. Im originalen Artikel ist ein Screenshot des Treibers zu sehen Intel Kaby Lake-G im NUC im Test (Bild 18/18) - ComputerBase, der den Aktuellen AMD Treiber zeigt mit Intel Logo drauf.
Es scheint also ein leicht modifizierter AMD Treiber zu sein.

Angenommen AMD schickt den Treiber an Intel weiter, diese testen den dann und geben den bei Bedarf mit eigenem Logo frei, würde ein AMD Treiber auch funktionieren? Wenn ja mit EInschränkungen (GPU Umschalten? Power-Saving-Features aus?...). Ist man also von Intel abhängig oder AMD? Letzteres wäre praktisch, deren Treiberupdates sind ja regelmäßig, aber wenn Intel jedesmal den AMD Treiber zuerst testet und dann erst freigibt verzögert sich da ja einiges. Falls der Support überhaupt lange aufrecht erhalten bleibt. Oder ist es überhaupt wie früher, dass der NUC Hersteller in dem Fall den Treiber zur Verfügung stellt. Weiß man da etwas?
[...]
Soweit ich das sehe wird AMD die Treiber an Intel liefern, Intel wohl selber einen Q&A-Pass drüber laufen lassen und dann stets selber verteilen.
AMDs Standard-Treiber wird man sehr wahrscheinlich nicht installieren können, jedenfalls nicht ohne eine mögliche Kennung zu überspringen.
Die CPU und GPU teilen sich das gleiche Energiebudget und tauschen die Informationen untereinander aus, ich denke darauf wird auch auf der Softwareseite geachtet, dass alles richtig läuft, neben der weiteren Kompatibilität zwischen dem Umschalten der GPUs.
Hat Intel keine Lust mehr Support zu leisten, wohingegen AMD aber noch neuere Treiber anbietet, wird man wohl wie bei einigen Notebook OEMs auf den alten Treiberpaketen sitzen bleiben.
Ich denke aber Intel wird zusammen mit AMD einen besseren Job machen, aber das kann man in ein paar Monaten auch schon vorab beurteilen wenn man sieht wie häufig Intel Treiberaktualisierungen ausliefert und wie lange die Verzögerung in der Regel ausfällt.
 
Zurück