Sandy Bridge DIE-Shot im Rückblick

Skysnake

Lötkolbengott/-göttin
Sandy Bridge DIE-Shot im Rückblick

Nachdem Sandy Bridge nun schon einige Zeit offiziell zu kaufen ist, wolle ich mir mal einige Spekulationen zu Sandy Bridge rückblickend anschauen, was wahr wurde und was nicht.

Hierbei bin ich auf einen DIE-Shot gestoßen, welcher bereits 2009! Sandy Bridge zeigte. Vergleicht man diesen mit dem finalen DIE, sieht man eine verblüffend große Übereinstimmung, man könnte fast meinen, das Bild von 2009 war bereits ein finaler Sandy Bridge. Sicher gab es noch viele kleine aber wichtige Änderungen, das Grundkonzept etc. stand 2009 aber definitiv bereits fest.

PC Watch hatte mit Hiroshige hier eine wirklich gute Quelle. Hoffen wir das zu den nächsten und übernächsten Generationen ebenso gute Quellen aufgetrieben werden :daumen:

Bilder zu breit

Quelle: [Šg‘å‰æ‘œ]yŒã“¡O–΂ÌWeeklyŠCŠOƒjƒ…[ƒXz WestmereŒnCPU‚̃‰ƒbƒVƒ…‚Æ‚È‚éIntel‚Ì2010”Nƒ[ƒhƒ}ƒbƒv
 

Anhänge

  • Die Shot Sandy Bridge.png
    Die Shot Sandy Bridge.png
    1 MB · Aufrufe: 1.495
Zuletzt bearbeitet von einem Moderator:
AW: Sandy Bridge DIE-Shot im Rückblick

Das die Neie DIE schaut auf geräumter aus als die aus 2009.
Was mich aber mehr wunder du kannst die Seite lesen ?:what:
 
AW: Sandy Bridge DIE-Shot im Rückblick

Nachdem Sandy Bridge nun schon einige Zeit offiziell zu kaufen ist, wolle ich mir mal einige Spekulationen zu Sandy Bridge rückblickend anschauen, was wahr wurde und was nicht.

Hierbei bin ich auf einen DIE-Shot gestoßen, welcher bereits 2009! Sandy Bridge zeigte. Vergleicht man diesen mit dem finalen DIE, sieht man eine verblüffend große Übereinstimmung, man könnte fast meinen, das Bild von 2009 war bereits ein finaler Sandy Bridge. Sicher gab es noch viele kleine aber wichtige Änderungen, das Grundkonzept etc. stand 2009 aber definitiv bereits fest.

PC Watch hatte mit Hiroshige hier eine wirklich gute Quelle. Hoffen wir das zu den nächsten und übernächsten Generationen ebenso gute Quellen aufgetrieben werden :daumen:


Quelle: [Šg‘å‰æ‘œ]yŒã“¡O–΂ÌWeeklyŠCŠOƒjƒ…[ƒXz WestmereŒnCPU‚̃‰ƒbƒVƒ…‚Æ‚È‚éIntel‚Ì2010”Nƒ[ƒhƒ}ƒbƒv
Nun tut mir leid dich enttäuschen zu müssen...
aber ich muss dich wohl über die Entwicklung von CPUs und GPUs aufklären.

Die Entstehung der Radeon HD 4xxx Generation, hat 3 Jahre gedauert, und das obwohl sie "nur" ein Update der HD 2/3xxx Generation war. Ihre Planung dauerte 3 Jahre bis zum Release. 1 Jahr wurde über änderungen an der Architektur geredet und geplant und diese 1 Jahr implementiert, das 3. Jahr hat man getestet und Bugs bereinigt.

Bei CPUs verläuft dies sehr Ähnlich, wobei bei Intel man sich für die letzte Phase deutlich mehr zeit nehmen kann, weil kein Konkurrenzdruck herrscht.
Sandy Bridge war schon im Sommer 2010 völlig einsatzbereit und es gab auch schon Testsamples usw. Was uns auch wieder sagt, dass das ganze aber schon mindestens 1 Jahr durch diverse Probeläufe ging, um Probleme einerseits des 32nm Prozesses rauszufinden, zum anderen die Bugs ein wenig zu minimieren (ganz entfernen kann man die ja sowieso nie).
Ergo: Sandy Bridge war vor Release im Jänner schon mindestens ~1- 1.5 Jahre "final" vom Architekturiellen Design her (nicht aber Clockrates, Yieldrate usw).
Nix neues also hier. Nvidia hat auch schon ihr GTX 6xx Design genau so wie man bei AMD schon längst auf der HD 7xxx sitzt und weiß wie die HD 8xxx aussieht ;)

Hinzu kommt natürlich auch, dass sich CPUs wie die Sandy Bridge eher evolutionär entwickeln, SB hat seine klare Abstammung von Nehalem und der/die kommt auch nicht von irgendwoher ;)
 
AW: Sandy Bridge DIE-Shot im Rückblick

Nun tut mir leid dich enttäuschen zu müssen...
aber ich muss dich wohl über die Entwicklung von CPUs und GPUs aufklären.

Die Entstehung der Radeon HD 4xxx Generation, hat 3 Jahre gedauert, und das obwohl sie "nur" ein Update der HD 2/3xxx Generation war. Ihre Planung dauerte 3 Jahre bis zum Release. 1 Jahr wurde über änderungen an der Architektur geredet und geplant und diese 1 Jahr implementiert, das 3. Jahr hat man getestet und Bugs bereinigt.

Bei CPUs verläuft dies sehr Ähnlich, wobei bei Intel man sich für die letzte Phase deutlich mehr zeit nehmen kann, weil kein Konkurrenzdruck herrscht.
Sandy Bridge war schon im Sommer 2010 völlig einsatzbereit und es gab auch schon Testsamples usw. Was uns auch wieder sagt, dass das ganze aber schon mindestens 1 Jahr durch diverse Probeläufe ging, um Probleme einerseits des 32nm Prozesses rauszufinden, zum anderen die Bugs ein wenig zu minimieren (ganz entfernen kann man die ja sowieso nie).
Ergo: Sandy Bridge war vor Release im Jänner schon mindestens ~1- 1.5 Jahre "final" vom Architekturiellen Design her (nicht aber Clockrates, Yieldrate usw).
Nix neues also hier. Nvidia hat auch schon ihr GTX 6xx Design genau so wie man bei AMD schon längst auf der HD 7xxx sitzt und weiß wie die HD 8xxx aussieht ;)

Hinzu kommt natürlich auch, dass sich CPUs wie die Sandy Bridge eher evolutionär entwickeln, SB hat seine klare Abstammung von Nehalem und der/die kommt auch nicht von irgendwoher ;)

Stell dir vor, das ist mir bekannt. Genau wie das ne Maske für die Produktion zur Herstellung ca. 6-9 Monate dauert. Das war nämlich ca die Zeit die nVidia gebraucht hat um die GTX480 raus zu bringen im Vergleich zur Planung.

Und klar ist nen Chip so 3-5 Jahre von der Idee her fertig bevor er veröffentlicht wird. Sogar relativ weit fertig. Da gehts dann nur noch drum das Ding auch zum laufen zu bekommen und zwar SCHNELL.

Es ist aber schon sehr sehr sehr außergewöhnlich das man davon DIE Shots bekommt. Denn:

1. Wafer werden erst gemacht, wenn man ein funktionsfähiges Design hat, und das dauert schon ne Weile
2. Wafer werden nicht grad vom ersten Design gemacht sondern von etwas das nicht nur funktionsfähig ist sondern schon eine ganze Reihe von Optimierungen durchlaufen hat.
3. Sowas kommt normal nicht nach draußen. Ok es ist sehr stark nachbearbeitet, man kann aber den Aufbau etc. ohne größere Probleme erkennen.

Man sollte schon dabei bedenken, dass das 2009 ist, und mich würde es nicht wundern, wenns sogar der Selbe DIE ist, bzw das Selbe Bild, welches einfach nur unkenntlich gemacht wurde. Das würde das absolut Bestätigen was bisher immer gesagt wird, das Sandy auch schon 2010 hätte kommen können, evtl. sogar schon 2009...

Was die CPU angeht lässt dies absolut hoffen, das wenn AMD egal was Sie bringen Intel zeitnah ein Ass aus dem Ärmel ziehen können. Was die GPU angeht teil ich hierdurch allerdings diesen Optimismus nicht, denn trotz der Zeit die Sie hatten haben Sie keine DX11 GPU gebracht, obwohl dies ein doch gewichtiges Kaufkriterium sein kann, wenn AMD seine Fusions auf den Markt bringt, und ob Intel da dann auch so schnell nachziehen kann außer mit Ivy bezweifle ich leider.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Stell dir vor, das ist mir bekannt. Genau wie das ne Maske für die Produktion zur Herstellung ca. 6-9 Monate dauert. Das war nämlich ca die Zeit die nVidia gebraucht hat um die GTX480 raus zu bringen im Vergleich zur Planung.

Und klar ist nen Chip so 3-5 Jahre von der Idee her fertig bevor er veröffentlicht wird. Sogar relativ weit fertig. Da gehts dann nur noch drum das Ding auch zum laufen zu bekommen und zwar SCHNELL.

Es ist aber schon sehr sehr sehr außergewöhnlich das man davon DIE Shots bekommt. Denn:

1. Wafer werden erst gemacht, wenn man ein funktionsfähiges Design hat, und das dauert schon ne Weile
2. Wafer werden nicht grad vom ersten Design gemacht sondern von etwas das nicht nur funktionsfähig ist sondern schon eine ganze Reihe von Optimierungen durchlaufen hat.
3. Sowas kommt normal nicht nach draußen. Ok es ist sehr stark nachbearbeitet, man kann aber den Aufbau etc. ohne größere Probleme erkennen.

Man sollte schon dabei bedenken, dass das 2009 ist, und mich würde es nicht wundern, wenns sogar der Selbe DIE ist, bzw das Selbe Bild, welches einfach nur unkenntlich gemacht wurde. Das würde das absolut Bestätigen was bisher immer gesagt wird, das Sandy auch schon 2010 hätte kommen können, evtl. sogar schon 2009...

Was die CPU angeht lässt dies absolut hoffen, das wenn AMD egal was Sie bringen Intel zeitnah ein Ass aus dem Ärmel ziehen können. Was die GPU angeht teil ich hierdurch allerdings diesen Optimismus nicht, denn trotz der Zeit die Sie hatten haben Sie keine DX11 GPU gebracht, obwohl dies ein doch gewichtiges Kaufkriterium sein kann, wenn AMD seine Fusions auf den Markt bringt, und ob Intel da dann auch so schnell nachziehen kann außer mit Ivy bezweifle ich leider.
Achso, ich dachte, du wunderst dich über die ähnlichkeit.
Ja in der Tat hast du recht, noch verwunderlicher ist es, dass fast 2 Jahre vor Marktstart schon ein DIE Shot da ist, andererseits sieht man diese shots immer schon 1-2 Jahre vorher auf der IDF, wenn ich denn mal wieder hinkomme.

Intel hat vermutlich noch keine DX11 Chips gebracht, weil es schwer ist 2 völlig neue Designs in eines zusammenzufügen, weshalb immer ein Design bei solchen "Hybrid" oder "Fusions" Chips ein etwas älteres, schon ausgereiftes, bekanntes Design sein muss. Drum nimmt AMD beim Fusion ja auch den alten Grafikchip und den alten (Phenombasierenden) Prozessor.

Oder aber, Intel sah es bislang einfach nicht für nötig, DX11 zu integrieren. Verkaufsargument, ja da hast du recht. Aber letzten endes bringts leistungsmäßig ja doch nix, wenn der Chip DX11 kann, zumindest nicht in Spielen, da das "Ding" für "echte" DX11 Spiele eh zu langsam ist
 
AW: Sandy Bridge DIE-Shot im Rückblick

klar für games relativ uninteressant, aber grad zur Flashbeschleunigung, Videoconvertierung etc etc doch ganz nützlich. Die Möglichkeiten von OpenCL werden ja noch nicht ausgereizt, einfach weil noch zu wenig Hardware bei den Kunden vorhanden ist. Viele Entwickler bringen aber dieses Jahr Produkte mit OpenCL-Support. Ich denke Intel wird entweder knapp zu spät mit DX11 Support dran sein, oder grad so die große Welle mitnehmen.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Beschleunigung von Flash und Videoconvertierung untersützt die SB iGPU.

mfg
 
AW: Sandy Bridge DIE-Shot im Rückblick

ja, aber nicht von jedem beliebigen. Was wars h264 oder wie der codege heist?

Und dazu würd ich z.B. sehr gern ne DX11 iGPU haben, wenn ich dran denk, das MatLAB GPU dieses Jahr support bringt. Bisher zwar CUDA angekündigt, von CUDA auf OpenCL ist es aber nur ein sehr kleiner Schritt.

Und so gibts recht viele Firmen die sogar direkt was für OpenCL bringen wollen dieses Jahr, und wenn Intel auch ne DX11 GPU gebracht hätte, dann wäre das Interesse in der Wirtschaft sogar noch größer.
 
AW: Sandy Bridge DIE-Shot im Rückblick

ja, aber nicht von jedem beliebigen. Was wars h264 oder wie der codege heist?

Und dazu würd ich z.B. sehr gern ne DX11 iGPU haben, wenn ich dran denk, das MatLAB GPU dieses Jahr support bringt. Bisher zwar CUDA angekündigt, von CUDA auf OpenCL ist es aber nur ein sehr kleiner Schritt.

Und so gibts recht viele Firmen die sogar direkt was für OpenCL bringen wollen dieses Jahr, und wenn Intel auch ne DX11 GPU gebracht hätte, dann wäre das Interesse in der Wirtschaft sogar noch größer.
Tatsächlich sind das sinnvolle Dinge, aber die kann man nicht von einer IGP alles erwarten. Noch dazu sind dies so hochspezialisierte Dinge, wer so was nutzt hat auch die 50€ extra für ne kleine extra DX11 Graka.
Zur Videokonvertierung: es kommen ja noch Codecs hinzu, aber die, die Intel bislang unterstützt (bzw die Programme die auf der HD 2000/3000 damit laufen) laufen auf eben jener so schnell, dass sie eine GTX 580 nass machen und das ist ja schon mal was. Außerdem werden dabei eben NICHT die Shader der IGP belastet, sodass man theoretisch nebenbei noch wunderbar zocken könnte (halt nur auf mittleren Details (etwa SC2, Batman AA - aber immerhin).

Ich find leider gerade die Charts nicht mehr, wo ich das gesehen hab, weder auf anandtech,pcper,firingsquad usw... aber werds weiter suchen, da gabs einige schöne Tests zu reiner CPU Nutzung, IGP Nutzung Zeit zum Encoden und auch benötigte Energie
http://media.bestofmicro.com/5/N/274955/original/CyberLink%20MediaEspresso.png

bzw
http://www.tomshardware.de/sandy-bridge-core-i7-2600k-core-i5-2500k,testberichte-240702-5.html

Das ist nur eine sehr beeindruckende Grafik, wie das in Zukunft aussehen könnte wenn der chip mehr unterstützt wird
 
Zuletzt bearbeitet:
AW: Sandy Bridge DIE-Shot im Rückblick

Naja, aber AMD bringt eben DX11 mit Bobcat, und allen damit verbundenen Vorzügen.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Naja, aber AMD bringt eben DX11 mit Bobcat, und allen damit verbundenen Vorzügen.
Aber auch gleichzeitig vielen Nachteilen.
So ist das was ich am PC brauche nicht nur Grafikleistung, sondern gesamtleistung. Da Hinkt die schwache CPU so dermaßen hinterher, dass mans beim Arbeiten spüren wird, ebenso jedoch auch beim spielen, denn da is auch ein CPU Limit, man wird also kaum allzu große Sprünge machen
 
AW: Sandy Bridge DIE-Shot im Rückblick

Aha, dir langt also ein Athlon 2 nicht zum arbeiten. Ähm ja, dann machst du definitv Videobearbeitung etc. Für den 0815 User langt das Dicke und selbst zum Zocken langts gut.

Zusätzlich soll ja die iGPU von Bobcat mit einer Radeon im Crossfire funktionieren, also nicht wie bei Intel einfach abgeschaltet werden sobald ne dezidierte GraKa im System steckt. Damit haste dann auch locker für Spiele mehr als genug Leistung. Nen Athlon II bremst ja in vernünftigen Auflösungen und AA Modi ja auch nicht/kaum ein.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Auch beim Sandy Bridge (auch bei Clarkdale ging das schon) ist es möglich die iGPU und eine dezitierte GPU je nach Betriebszustand zu nutzen - aktuell wird das aber nur bei Notebooks auch umgesetzt, dort macht es auch am meisten Sinn.

mfg
 
AW: Sandy Bridge DIE-Shot im Rückblick

Meines Wissens nach kannst du bei denen aber nicht beide GPUs zusammen nutzen, und das war doch mit dem nVidia XY Konzept da von dem du da sprichst oder?
 
AW: Sandy Bridge DIE-Shot im Rückblick

Meines Wissens nach kannst du bei denen aber nicht beide GPUs zusammen nutzen, und das war doch mit dem nVidia XY Konzept da von dem du da sprichst oder?

Das soll bei Notebooks wieder gehen, dass du neben der eingebauten Grafikkarte umschalten kannst zur Onboardgrafik.
Ist aber Sache des Notebookherstellers und kein "Feature" an sich.
Das wird also eher nur bei den teuren Modellen der Fall sein, wenn überhaupt.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Jo, das natürlich dann recht kritisch zu sehen, wenns kein gut gepushtes Feature ist.

Bei Bobcat solls ja aber definitiv nen Feature sein, ist nur die Frage obs nur mit den AMD Karten geht, oder auch mit den nVidia, wobei ich nicht glaub das es mit beiden geht, selbst wenns theoretisch möglich wäre. Solche Vorteile gibt man nicht leichtfertig aus der Hand.

Also ich bin gespannt wie sies genau umsetzen. Wenn es wirklich möglich ist die dezidierte komplett ab zu schalten und ohne zutun des Users einfach wieder ein zu schalten, wenn benötigt, dann werden die Bobcat Systeme wohl oft mit ner dezidierten noch dazu daher kommen. Da kann dann Intel nicht viel gegen tun, selbst wenn das Umschalten möglich gemacht werden kann. Den Stress wird sich kaum ein Hersteller so geben, wenn er beim anderen eine bessere Technik frei Haus geliefert bekommt.

Man sieht ja auch das Bobcat wohl nicht so schlecht sein kann. Die 1,3 Mio ausgelieferten Exemplare sind ja nicht schlecht für die ersten 2-3 Monate, zumal die Produktion noch hoch gefahren wird.

@XE85:

Da sollteste aber nochmal nachschauen. War doch glaub sogar hier auf der HP, das bekannt wurde das es eben DOCH gehen soll, das man beide GPUs zusammen verwenden kann, und nicht nur einfach umschalten kann.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Da sollteste aber nochmal nachschauen. War doch glaub sogar hier auf der HP, das bekannt wurde das es eben DOCH gehen soll, das man beide GPUs zusammen verwenden kann, und nicht nur einfach umschalten kann.

Aber wie soll das gehen und was soll das bringen?
Der Grafikchip ist viel zu schwach als dass er eine Grafikkarte wirklich beschleunigen könnte und Physx kann er ja nicht, also fällt das auch weg.

Die meisten kaufen sich eh ein Notebook als Zweit- oder Drittcomputer, da ist dann die Grafikleistung ebenso sekundär wie die CPU Leistung.
 
AW: Sandy Bridge DIE-Shot im Rückblick

Ich hab nachgeschaut, Bobcat hat überhaupt kein Hybrid CF - das soll ein Feature von Llano werden, allerdings gibt es darüber bis jetzt nur Spekulationen, wie auch hier bei PCGH klick. Die Bracos Plattform hat für einen Sinnvollen einsatz eine dezitierten GPU gar nicht genug PCIe Lanes - das dürfte hier wohl gar nicht vorgesehn sein.

mfg
 
Zurück