Intel Skylake: Spezifikationen zu Desktop- und Mobil-CPUs aufgetaucht

Was ist eigentlich mit den M-CPUs für Notebooks? Wird es nur noch die gebremsten Y und U Varianten geben oder wurden die einfach vergessen?
 
CPUs mit und ohne integrierte Spannungswandler, bin ja mal gespannt ob Skylake überhaupt als mobile Version herauskommt.
 
Funktionsweise:
1) Der Monitor wird an der iGPU angeschlossen.
2) Wenn der nvidea/AMD Treiber den Start z.B. eines Spieles erkennt, wird die dGPU aufgeweckt, die dann fleißig rechnet.
3) Jedes fertig berechnete Bild wird in den Speicher der iGPU kopiert (eventuell mit Hilfe eines auf der dGPU platzierten Zusatzchips um Leistungeinbrüche zu verhindern)
4) iGPU zeigt, dass Bild im Speicher an.
5) Wenn das Spiel beendet wird, schaltet der Treiber die dGPU wieder ab.

Wenn es dabei nicht zu einem Leistungsverlust durch den Umweg über die iGPU kommt, wäre das schon wirklich eine gute Sache! Oder die iGPU wird bei Prozessen eingebunden, wo eine Leistungssteigerung möglich wäre... Aber beide dieser Möglichkeiten sind wohl vor allem eine softwaretechnische Angelegenheit, oder irre ich mich da?

Viele Grüße
Eteokles
 
Interessant wäre auch wenn es irgendwie möglich wäre die Integrierte Grafik zur Physik Berechnung zu nutzen wie PhysX bei Nvidia, bzw halt eine neue offene Plattform, falls keine IGPU vorhanden berechnet halt die normale Grafikkarte.
 
Was ist eigentlich mit den M-CPUs für Notebooks? Wird es nur noch die gebremsten Y und U Varianten geben oder wurden die einfach vergessen?

s.o.: DIE-Codenamen nicht mit SKUs verwechseln. Ein Y-DIE kann durchaus als ....M-Modell auf den Markt kommen, die Bezeichnungen sind unabhängig. Trägt ja auch keine So2011-CPU ein "E" im Namen, nur weil der DIE so heißt.

Wenn es dabei nicht zu einem Leistungsverlust durch den Umweg über die iGPU kommt, wäre das schon wirklich eine gute Sache! Oder die iGPU wird bei Prozessen eingebunden, wo eine Leistungssteigerung möglich wäre... Aber beide dieser Möglichkeiten sind wohl vor allem eine softwaretechnische Angelegenheit, oder irre ich mich da?

Viele Grüße
Eteokles

Durch die Übertragung müsste es zwangsläufig zu einer leichten Latenz (vermutlich ein Frame) kommen - die dGPU kann nicht in den Buffer der iGPU rendern, das fertige Bild muss erst übertragen werden. Alles andere ist Software und der Transfer eines fertig gernderten Bild sollte die PCIe-Verbindung quasi nicht belasten. iGPU ins Rendering einzubinden ist schwierig (siehe die eher beschränkten Erfolge von Hybrid-Crossfire), Hersteller-übergreifend wahrscheinlich fast unmöglich. Man könnte die iGPU als Co-Prozessor für Physik,... nutzen - aber wenn überhaupt (Intel+Treiber...) geht das bislang nur über OpenCL (es sei denn, DCompute erlaubt die gezielte Steuerung mehrer GPUs ohne Overhead - was ich nicht glaube) und das nutzt ja ohnehin kaum jemand :(
 
- DMI3 !!! ENDLICH !!!
Captain?
Man könnte die iGPU als Co-Prozessor für Physik,... nutzen - aber wenn überhaupt (Intel+Treiber...) geht das bislang nur über OpenCL (es sei denn, DCompute erlaubt die gezielte Steuerung mehrer GPUs ohne Overhead - was ich nicht glaube) und das nutzt ja ohnehin kaum jemand :(
jep, darauf hoffe ich seit einigen Jahren. Entwickler müssen diese Ressource, die in so gut wie allen Spiele-PCs schlummert (solange der chipsatz es anspricht, zumindest unter So 1156 gabs ja noch welche die die iGPU brach liegen ließen) endlich nutzen. Ein zusätzlicher Grafikkern der eigentlich ordentlich Leistung hat, aber nix tut... schade um das verschwendete Potential.
Dafür stehen wir seit 10 Jahren auf der Stelle was Spiel(nicht Effekt)-Physik betrifft sowie noch schlimmer: KI
 
Was sagt denn die Gerüchteküche zum Releasezeitraum von Skylake ? Geht da momentan wirklich 2015 durch den Raum oder eher 2016. Gerade wenn man sich zu Gemüte führt wann Broadwell Desktop erscheinen soll, halte ich 2015 schon für "interessant".
 
Die jüngsten Gerüchte sprechen von einem paralleln Launch, seit längerer Zeit ist eine Co-Existenz von Broadwell-H mit kleineren Skylake (-H? -S?) im Gespräch. Insgesamt schein die Sache noch sehr dynamisch, Intels Produkt-Launches hängen ja nun schon länger mehr von der Marktpolitik und den Lagebeständen ab, denn vom technischen Fortschritt.
Mein aktueller Tipp:
Broadwell-H (K-SKUs) kommen zu Weihnachten/Jahrende (Launch) bzw. Anfang 2015 (breite Verfügbarkeit) als obere Abrundung zu Haswell-Refresh. Letztere werden dann zum üblichen Q2/Frühsommer-Termin (frühestens Mai, spätestens Computex) von Skylake-? ersetzt.
 
Genau diese Marktpolitik lässt mich an Q2/15 zweifeln, flächendeckend sogar an 2015 im allgemeinen. Zumindest was die Desktop Skylake angeht, eben weil Broadwell dann noch recht frisch sein dürfte. Wobei Ivy und Haswell ja auch nebenher laufen.
Na dann schau ich mich wohl doch mal nach nem großen Ivy um. Danke für die Infos.
 
Das Wechseln zwischen iGPU und dGPU sollte am PC theoretisch auch, genauso wie an modernen Laptops, problemlos funktionieren. Hierfür müssten nvidea/AMD nur entsprechende Treiber zur Verfügung stellen (und gegebenenfalls ein Zusatzchip auf ihren Grafikkarten verbauen).
Dass die Technik beim Destop-PC nicht eingesetzt wird, liegt vermutlich vorallem daran, dass man keine Energieeinsparung aufgrund begrenzter Akkulaufzeit benötigt.

Interessant oder?! Jetzt haben schon etliche PCs diese Technik seit Jahren parallel verbaut, ohne die Potentiale zu nutzen. Und ohne, dass eine professionelle Plattform (Redaktion) das Für und Wider mal ergründet. Beim Laptop hat Nvidia einen sehr guten Ansatz gezeigt und umgesetzt (AMD k.A.) aber dabei bliebs. Wahrscheinlich auch wegen der vordergründigen Stromersparnis. Aber warum nicht auch auf dem PC??
Überall gurken "Manager" rum...aber die greifbarste "Innovation" sieht keiner oder wie :what: ?!
 
Für Skylake Desktop CPU,s soll es vorerst keine K-CPU,s geben hab ich auf einer anderen Website gelesen, das wär sehr entäuschend.Und PCI E 4.0 wäre schon sinnvoll wenn man eine SSD PCI E Karte nutzt(gibts SSD PCI E die 8Lanes nutzen mit über 2000/Mbits
lesen/schreiben).Es mag ja sein das die jetzigen High End Grafikkarten die jetzigen PCI-E 3.0 nicht voll ausschöpfen aber in einigen Jahren könnte die 4.0 Version schon sinnvoll sein.Da die wensentlich mehr Rechenleistung haben werden als die jetzigen und die 4 K Auflösung in Spielen effektiver ausnützen könnte.Und 4.0 Version ist auch sinnvoll bei einem Multi GPU System bzw. andere Hardware die auch Lanes für sich beanspruchen z.B.Soundkarte ect.einen möglichen Flaschenhals wird dadurch verhindert.
 
Und PCI E 4.0 wäre schon sinnvoll wenn man eine SSD PCI E Karte nutzt(gibts SSD PCI E die 8Lanes nutzen mit über 2000/Mbits

PCI-E 3 schafft pro Lane 985 MByte/s. Und das in beide Richtungen. SSDs sind kein grund für PCI-E 4 ;)
Bei GraKas siehts nicht viel anders aus bisher, denk ich. Habe aber noch keine 4K MGPU vergleiche zwischen 2 und 3 gesehen, wär mal interessant.
 
Zurück