Intel Larrabee: Referenz-Grafikkarte vorgestellt

Projekt Larrabee hatte ich schon zu Anfang zum Scheitern prophezeit und interessieren tut mich dieser Many-Integrated-Core Müll heute auch nicht. Zum einen liegt es daran, dass ich die Zukunft deutlich in der Hand der GPGPUs (General Purpose Graphic Processing Unit) sehe und zum anderen gefällt mir diese Entwicklung einer Grafikkarte, basierend auf CPU Kernen, ganz und garnicht! Es ist nunmal nicht Aufgabe einer CPU leistungstark zu sein, sondern flexibel. Selbst wenn Raytracing als Hauptaugenmerk gedient hat, so hat Nvidia mit Fermi bewiesen, dass eine GPU dennoch besser dafür geeignet ist.

Daher soll Intel ruhig bei CPUs bleiben, während Nvidia und ATI ihren Job machen. Auch von Fusion Chips halte ich nicht viel. Zucker gemischt mit Salz ist ungenießbar!
 
Mann könnte sie doch auch zweckentfremden.^^
In HTPCs z.B. Wenn der Stromverbrauch gering ist und man trotzdem eine einigermaßen gute Spiele Leistung hatte.

Wenn du bereit bist ca. 1000€ oder mehr für das Teil hinzublättern ist das kein Problem. :D Die Karten werden bestimmt verdammt Teuer...
 
Einige scheinen immernoch nicht den Unterschied zwischen High-Performance-Computing und einem Crysis-Benchmark zu verstehen...
 
Danke spawn ;)

Einige sollten sich wirklich darüber klar werden, was HPC bedeutet.

LSie könnte Larrabee-Technologie extrem weit verbreiten. Eine weit verbreitet, x86-kompatible Architektur mit hoher Leistung im Bereich parallel-Computing dürfte DER Traum aller Physik-, KI-,... Programmierer sein.

Naja, sag einfach Traum des HPC Bereichs ;)

GPGPU ist ja so interessant, weil man heute verdammt viele Gleitkommaoperationen hat, und da sind diese eben verdammt stark, wenn man parallelisieren kann, was aber hier eigentlich immer der Fall ist.

Der Vorteil von on DIE ist halt, das du die Daten ganricht zwischen CPU und GPU hin und her scheffeln musst, dazu den verdammt schnellen Cache nutzen kannst und bei Larrabee einfach auch einfach die Hardware nutzen kannst.

Für den Gamer ist das auch garnicht wirklich gedacht. :schief:

Wenn was brauchbares für den GAmer Bereich abfällt ok, aber die Intention liegt wo anders.
 
..... Könnte sehr interessant für HPC und auch für Forschung und Lehre an Hochschulen werden (Ich hatte einen Kurs für parallele Programmierung an der Uni - gearbeitet wurde auf single-core Rechnern :ugly:).

Genau hin gehört?

1.
Multi Threading hat seine Engpässe im Thread Sheduler des Betriebssystems.
(Bevor jetzt irgend ein Windows vs. Linux los geht: Unix und Windows sind beide im Moment nicht optimiert für 25 oder 50 Kerne).
Der Thread Sheduler muss mehrere ebenen der Thread Priorität kalkulieren (Niemand will dass die Start-Leiste hängt weil 4x der Taschenrechner offen ist).
Noch schlimmer ist es bei Echtzeit Betriebsssystemen.
Zum Glück bleibt uns das unter Windows, Unix (und Ablegern) erspart.
Vista hat locker über 60 Threads zu verwalten.
Egal ob auf Single Core oder Multi Core.
2.
Steigt mit der Thread Zahl der Verwaltungsaufwand.
Sowohl auf Betriebssystem Seite, wie in der Anwendung.
Manche Vorgänge lassen sich super parallelisieren (siehe WinRar Multi Core Skalierung).
Aber im "Normalen" Programmier-Alltag muss steigt der Aufwand durch die Kommunikation zwischen den Threads.
Da muss man sehr vorsichtig sein den Main-Thread nicht zu stark zu zentralisieren oder zu viel Logik in die Worker zu lagern.
Entweder sinkt die Multi-Core Skalierung oder Einzelne Threads werden zu Bedeutend, so dass andere auf sie warten.
In den tech Artikeln zu Anno1404 wird ein sehr cleverer Ansatz beschrieben.
Dabei ist jeder Thread ein Logik armer Worker und es gibt eine Art Thread Sheduler im Programm, dass gleichwertige Aufgaben auf die Worker Threads verteilt.
Google Crome ist ein ähnliches Beispiel (Thread pro TAB).
Das schließt natürlich spezielle Threads (z.B. einer für FTP einer für Datei System, einer für Cache, ...) aus.
Und es verlangt, dass alle worker-Threads mit allen Aufgaben umgehen können (weshalb Crome so viel Arbeitsspeicher verbraucht).
3.
Lernt man an der Hochschule immer nur die Grundlagen.
Zum einen fehlt die Zeit für Vertiefung, zum anderen ist dar Grundlevel der Studenten völlig unterschiedlich (was den Prof zwingt low-level zu schieben).
Nichts geht über Praxis-Erfahrung^^

PS:
Ich hab jetzt immer Threads zur Beschreibung benutzt.
Als Grundlage reicht das.
Wenn man aber tiefer in die Programmierung eintaucht muss man sich auch mit dem Unterschied zwischen Thread und Prozess sowie dem Betriebssystem (und wie der Thread Sheduler funktioniert) beschäftigen.
Dass viele Quellen die Begriffe gleich setzten (und Englische mit Deutsche mischen) macht das nicht einfacher.
 
Ich hoffe ja nur die entwickeln das Projekt noch weiter, sodass es irgendwann mal eine wirkliche alternative zu den derzeitigen Herstellern wird. Wer weiss, vielleicht verbasteln sie ja auch noch neuere CPU Kerne von C2D/i7. Ich weiss zwar nicht ob das Sinnvoll wäre, bin ja kein Hardware Architekt oder sowas aber ich könnte mir gut vorstellen das sich aus dem Konzept noch einiges raus holen lässt.
 
Ich glaube weil die Entwicklung und Herstellung der Karte so teuer ist, ist es nicht Massenmarkt geeignet. Ich vermute Intel will mit der Strategie jetzt erstmal die Entwickungskosten wieder reinholen.

Ich denke 1 Karte für 20.000 $ ist rentabler als 1 Karte für 1.000 $.
 
Immerhin hat Intel diesen Sektor nicht komplett aufgegeben.

So kann man noch hier die Entwicklung ein wenig verfolgen...
 
Da kommen Desktop Karten, die müssen jetzt nur die Kassen klingeln lassen und die Software optimieren. Wenn sich alles eingerenkt hat und Daniel Pohl sein Raytracing drauf fertig hat, wird man die Karten auf den Gamer loslassen. Das wird denk ich noch ~3 Jahre dauern, dann wird auf die Wafer eine neue Maske gesetzt und los gehts. :daumen:
 
Da kommen Desktop Karten, die müssen jetzt nur die Kassen klingeln lassen und die Software optimieren. Wenn sich alles eingerenkt hat und Daniel Pohl sein Raytracing drauf fertig hat, wird man die Karten auf den Gamer loslassen. Das wird denk ich noch ~3 Jahre dauern, dann wird auf die Wafer eine neue Maske gesetzt und los gehts. :daumen:

*Und dann sind wir alle aufgewacht*
 
Naja, sag einfach Traum des HPC Bereichs ;)

Ich sprach von Sandy Bridge Mainstream-CPUs, nicht von HPC.
Denen wäre "weitverbreitet" vollkommen egal ;)



Wenn man aber tiefer in die Programmierung eintaucht muss man sich auch mit dem Unterschied zwischen Thread und Prozess sowie dem Betriebssystem (und wie der Thread Sheduler funktioniert) beschäftigen.

Verschmelzen die Grenzen im HPC-Bereich nicht ohnehin? Da gibts kein Linux (und erst recht kein Windows und schon gar keine Taskleiste), die in die quere kommen, sondern ein an die jeweilige Anlage angepasstes Verwaltungssystem, das ganz andere Aufgaben hat, als auf einem normalen PC. Z.B. klassische I/O-Aufgaben wie Festplattenzugriffe, Benutzereingaben,... machen auf einem Blade, der drei Hierarchiestufen vom nächsten I/O-Gerät entfernt ist, einfach keinen Sinn.
 
Wofür man den Chip doch missbrauchen könnte, wäre ein Hardware Threadteiler. Müsste nicht mehr in Software geschehen und man hätte eine bessere Auslastung aktueller 8 Cores?

Beispiel: 8 Kerne, 4 laufen volle Pulle der Rest im Leerlauf. Jetzt kommt der Hardware Chip und teilt die 4 nochmal durch 2 und man hat 8 Core full auslastung? Irgendwie sowas wollte Intel noch entwickeln, vill.kommt das noch. Würde sogar Single Thread Programmen helfen.

Wenn man schon 50 Kerne nicht auslasten kann, dann kann man sie sinnvoll einsetzen.
 
Wofür man den Chip doch missbrauchen könnte, wäre ein Hardware Threadteiler. Müsste nicht mehr in Software geschehen und man hätte eine bessere Auslastung aktueller 8 Cores?

Beispiel: 8 Kerne, 4 laufen volle Pulle der Rest im Leerlauf. Jetzt kommt der Hardware Chip und teilt die 4 nochmal durch 2 und man hat 8 Core full auslastung? Irgendwie sowas wollte Intel noch entwickeln, vill.kommt das noch. Würde sogar Single Thread Programmen helfen.

Wenn man schon 50 Kerne nicht auslasten kann, dann kann man sie sinnvoll einsetzen.

Gut wäre es. Aber zwischen "theoretisch machbar" und "tatsächlich vermarktbar" ist leider ein großer Unterschied. Und der besteht da noch ziemlich deutlich.
 
Werden die Karten in einem normalen preislichen Rahmen für Spieler verfügbar sein?

Nur aus interesse, ich weiß ja auch nicht, ob die für unsereins attraktiv wäre...

Übrigens: Die GTX480 gibts jetzt 394,10€... :wow:

*Verzweifel..
 
das werden sie wahrscheinlich irgendwann werden aber zum 324598. Mal: das ist KEINE Gamerkarte und sie wird in Spielen sofern man sie dazu zwingen kann diese überhaupt darzustellen wahrscheinlich gegen aktuelle GPUs absolut kein Land sehen.
 
Hmmm Larrabee ist auf ganzer Linie gescheitert... was macht man also als kluger Verkäufer?

Wir geben dem Kind nen Neuen Namen ("MIC") und sagen "jahaaa das war ja sowieso für was ganz anderes gedacht!"
war es auch. Nur eine überinterpretation hat es immer als Ansatz zur Grafikkarte gesehen

Im Bereich von "wenigen" Kernen sind die aktuellen CPUs bereits sehr sehr schnell und vielseitig und der Trend zu mehr Kernen ist offensichtlich.
Im Bereich der riesigen Cluster mit vielen vielen Recheneinheiten und viel Gleitkommaleistung sind GPUs heute bei 1600 Kernen (Cypress) angekommen - und die sind nicht gerade langsam wenn ich an die Leistung von über 2,5 TFlops auf einer einzelnen HD5870 denke.
das ist die theoretische Rechenleistung, etwa die Hälfte wird in die Praxis umgesetzt, etwa das was auch Larrabee schaffte bei einer Präsentation, weil die Cores davon nicht so ineffizient sind, und zusätzlich noch flexibler weil x86. Also so blöd ist das Ding nicht. Nur halt nicht für den Grakamarkt ^^

Dieses MIC soll nun so wie ichs verstanden habe was in der Mitte dastellen - so grob 50-100 Kerne die jeder einzelne schneller und flexibler als ein GPU-Shader ist aber lange nicht an die Komplexität und Funktionalität eines i7 kerns reicht... ich halte das für einen verlorenen Kampf, ich kenne kaum/keine Anwendung für sowas.[/QUOTE]
absolut jede Anwendung die auf einer x86 CPU läuft, würde darauf auch theoretisch laufen. Somit fehlt ihm auf die Funktionalität des i7 nicht wirklich viel, außer spezielle Einheiten wie SSE4 usw

das werden sie wahrscheinlich irgendwann werden aber zum 324598. Mal: das ist KEINE Gamerkarte und sie wird in Spielen sofern man sie dazu zwingen kann diese überhaupt darzustellen wahrscheinlich gegen aktuelle GPUs absolut kein Land sehen.

richtig, das war allerdings auch schon immer klar, weil einfach fast alles was für Tempo benötigt wird emuliert wird und das ist nunmal crappy slow ^^

Werden die Karten in einem normalen preislichen Rahmen für Spieler verfügbar sein?

Nur aus interesse, ich weiß ja auch nicht, ob die für unsereins attraktiv wäre...

Übrigens: Die GTX480 gibts jetzt 394,10€... :wow:

*Verzweifel..
versteh das jetzt echt nicht. 1000 News kamen schon zu larrabee, schauen sich die Leute hier nur die Bilder an? Die Frage kannst du dir also gerne durch Lesen des Textes in diversen News selbst beantworten, muss ja nicht immer alles redundant in jedem 5. Post stehen

Wofür man den Chip doch missbrauchen könnte, wäre ein Hardware Threadteiler. Müsste nicht mehr in Software geschehen und man hätte eine bessere Auslastung aktueller 8 Cores?

Beispiel: 8 Kerne, 4 laufen volle Pulle der Rest im Leerlauf. Jetzt kommt der Hardware Chip und teilt die 4 nochmal durch 2 und man hat 8 Core full auslastung? Irgendwie sowas wollte Intel noch entwickeln, vill.kommt das noch. Würde sogar Single Thread Programmen helfen.

Wenn man schon 50 Kerne nicht auslasten kann, dann kann man sie sinnvoll einsetzen.
naja das wird doch eh schon zum Teil gemacht außerdem brauchts dafür nicht 50 sondern einen kern. Warum soll man das erst wieder zuerst auf 50 Teile aufteilen (die Arbeitslast/Berechnungen) um für 4 Kerne die Aufgaben zu verteilen?
 
Zuletzt bearbeitet:
Zurück