Neue Infos zum Larrabee

KTMDoki

Software-Overclocker(in)
Laut ComputerBase bzw. SemiAccurate wird auf den Larrabee-Grafikchip auch 2 HD-Decoder mitverbaut...

SemiAccurate vermutet, dass der Larrabee zuviel Strom braucht, um für eine HD-Wiedergabe einen angemessenen Verbrauch und natürlich nicht viel Lärm machen soll...

SemiAccurate behaupt/glaubt auch zu wissen, dass die 1ste Larrabee-Version ca. so schnell sein wird, wie momentan die GT200-GraKas von NVidia.
Die Geschwindigkeit der Chips musste angeblich gedrosselt werden, da sonst eine zu hohe Wärmeentwicklung entsteht...

Des weiteren gibt SemiAccurate an, dass der Larrabee einen Produktzyklus von 9 Monaten haben wird...

Was meint ihr, inwieweit diese Gerüchte stimmen?


Quelle: Computerbase, SemiAccurate
 
Das mit dem zu hohen Energieverbrauch mag ich glatt glauben. Bei AMD und Nvidia sind die langsamsten Grafikkarten oder -chips mit UVD oder ähnlichen Technologien bereits ind er Lage, Videomaterial hardwarebeschleunigt darzustellen. Hätte Intel nicht etwas ähnliches an Board, würde entweder die CPU übernehmen müssen oder aber die Grafikkarte darf die Arbeit leisten. Den "Stromverbrauch" kann man sich im Gegensatz zu erst genannten Beschleunigern denken.

Larrabee ist ja keine reine Grafikkarte, wie wir sie kennen, sondern vor allem eine CPU, denn sie kann x86-Code verarbeiten. Wenn sie dennoch die Leistung einer Nvidia GT200 hat, dann ist das als Einstiegsprodukt wohl beachtlich.
 
Warten wir es mal ab...
Da brauchen wir nicht abwarten...
Das wird 'ne Parhelia, nur eben von Intel.
Leistung aufm Niveau von der Vorgängergeneration, dazu hohe Leistungsaufnahme und richtig schlechte Treiber.
Also ich erwarte echt nichts von diesem Teil...

Larrabee ist ja keine reine Grafikkarte, wie wir sie kennen, sondern vor allem eine CPU, denn sie kann x86-Code verarbeiten. Wenn sie dennoch die Leistung einer Nvidia GT200 hat, dann ist das als Einstiegsprodukt wohl beachtlich.
Das ist reine Intel Propaganda und etwa mit dem Inselstar Eklat letztes Jahr zu vergleichen, wo die Veranstalter gesagt haben, das man ja nicht so früh anfangen kann, weil dann ja noch alle am Strand liegen (meine Interpretation: wir sind so mies, das die Leute lieber an den Strand gehen als sich unseren Mist anzutun).

Der Punkt ist doch, das der Code für den Larrabee eh umgeschrieben werden muss (In Order Design, massiv parallel usw), das heißt ich muss das Programm komplett neu schreiben.
Und warum sollte ich jetzt eine Software für ein Produkt schreiben, das keinerlei Verbreitung hat und proprietär ist, wenn ich stattdessen auch eine offene Schnittstelle (OpenCL) nutzen kann, die das gleiche auf allen erhältlichen GraKas erledigt??
Eben, macht nicht so wirklich Sinn...
 
Also wenn der Larrabee bei HD-Dekodierung zuviel Strom schluckt spricht das nicht gerade für ausgeklügelte Stromsparmechanismen.
 
Naja, wenn man jetzt endlich mal CUDA zum Raytracing in den gängigen Programmennutzen kann, das wird das aber tatsächlich etwas spannend. Aber ich glaube kaum, dass ein GT300 schon auf dem Niveau raytracen kann wie ein LArabee es können sollte.
 
Das ist reine Intel Propaganda und etwa mit dem Inselstar Eklat letztes Jahr zu vergleichen, wo die Veranstalter gesagt haben, das man ja nicht so früh anfangen kann, weil dann ja noch alle am Strand liegen (meine Interpretation: wir sind so mies, das die Leute lieber an den Strand gehen als sich unseren Mist anzutun).

Der Punkt ist doch, das der Code für den Larrabee eh umgeschrieben werden muss (In Order Design, massiv parallel usw), das heißt ich muss das Programm komplett neu schreiben.
Und warum sollte ich jetzt eine Software für ein Produkt schreiben, das keinerlei Verbreitung hat und proprietär ist, wenn ich stattdessen auch eine offene Schnittstelle (OpenCL) nutzen kann, die das gleiche auf allen erhältlichen GraKas erledigt??
Eben, macht nicht so wirklich Sinn...
Es hat niemand behauptet, dass nicht zusätzliche Entsicklungsarbeit von Nöten ist, um Programme speziell auf den vielen kleinen CPU-Kernen zum Laufen zu bringen. Aber Fakt ist - bzw. laut dem, was Intel sagt - dass Larrabee x86-Code verarbeiten kann. Es wäre also möglich, dass Programme wie Vue, Cinema4D oder andere grafische Anwendungen beim Rendering sofort an Geschwindigkeit zulegen. Vorausgesetzt, dass Windows Larrabee auch als viele CPUs verwalten kann, sonst hat das ganze wenig Sinn.

OpenCL ist für reine Grafikkarten gedacht bzw. bisher gibt es keine anderen Komponenten (z.B. Soundkarten... *gg*), die mit OpenCL etwas anfangen können, auch keine CPUs. Wenn man also von Larrabee redet, ist die Frage, ob man es in Verbindung mit OpenCL oder doch lieber normalem x86-Code bringen sollte. Wenn, wie schon beschrieben, Larrabee nativen bisher vorhanden Code direkt verarbeiten kann, sollte man logischer Weise in x86 schreiben, da LB mehr CPU als GPU ist - halt eine CPU mit Texturierungseinheiten und was ebend dazugehört. Wenn durch die Schnittstelle bei LB Programmieraufwand von Nöten ist, muss man abwägen, wie viel es ist und ob es sich rentiert.

Zudem sollte man sich fragen, ob es für Entwickler, die mehr als nur reine CPUs benötigen, von Vorteil ist, wenn sie auf OpenCL setzen und die Rechenpower GPUs nutzen oder doch lieber ihrer jetzt schon vorhandenen Code zusätzlich abwandeln und umstrukturieren, um ihn auf LB zum Laufen zu bringen. Welches der beiden Verfahren besser ist, hängt ganz stark vom Einsatzgebiet ab und nicht von der Schnittstelle selber. Denn eine GPU ist kein Allheilmittel und kann nicht alle Aufgaben der CPU übernehmen - jedenfalls nicht in annähernd vergleichbarer Geschwindigkeit. CPU und GPU haben ihre Aufgabenfelder, weshalb es sehr gut möglich ist, dass man einen Vorteil auch aus LB ziehen kann.

Was am Ende dabei herauskommt, ist natürlich eine andere Geschichte, aber darüber braucht man hier nicht zu diskutieren, da man hier das Produkt und die Reaktion der Entwickler abwarten muss.

Noch eine Frage an die Allgemeinheit: Hat man bisher überhaupt etwas dazu verlauten lassen, ob LB OpenCl und/oder DirectX10 (besser 11) beherrscht?

Edit: Laut deinen Argumenten dürften Entickler auch nicht auf Nvidias Cuda setzen und trotzdem gibt es nicht nur Physx-Spiele, sondern auch cuda-basierte Anwendungen, die daraus ihren Vorteil ziehen. Und selbst die Tatsache, dass vielleicht gerade einmal 50 % aller PCs (mit Grafikkarten) überhaupt in der Lage wären Cuda zu nutzen, wird auf diese Technologie gesetzt. Hier wurde auch nicht auf OpenCL und DirectX 11 gewartet, sondern die vorhandene Technologie genutzt. Also wird es sicherlich auch Anwendungen geben, die zukünftig und vielleicht ausschließlich auf LB setzen werden. Es hängt halt, wie schon gesagt, stark vom Einsatzgebiet ab, was sich lohnt und was nicht.
 
Zuletzt bearbeitet:
Es hat niemand behauptet, dass nicht zusätzliche Entsicklungsarbeit von Nöten ist, um Programme speziell auf den vielen kleinen CPU-Kernen zum Laufen zu bringen. Aber Fakt ist - bzw. laut dem, was Intel sagt - dass Larrabee x86-Code verarbeiten kann. Es wäre also möglich, dass Programme wie Vue, Cinema4D oder andere grafische Anwendungen beim Rendering sofort an Geschwindigkeit zulegen. Vorausgesetzt, dass Windows Larrabee auch als viele CPUs verwalten kann, sonst hat das ganze wenig Sinn.
Das kann überhaupt nicht gehen, weil so müsste Intel Windows eine virtuelle CPU unterjubeln, die dann die Daten über PEx an den Larrabee weiterleitet. Das würde ich jetzt mal ganz spontan in die Kategorie "Unmöglich" insortieren. Zumal ich noch kein Programm gesehen habe, dass es überhaupt schafft die 16 (virtuellen) Cores auf einer Nehalem-Workstation auszulasten, wie sollen die es dann mit 32 Larrabee-Cores schaffen?!

Intel erzählt ne Menge Quatsch zum Thema Larrabee, Raytracing und MP-Computing - da sollte man wenn überhaupt nur die Hälfte glauben.
 
Das kann überhaupt nicht gehen, weil so müsste Intel Windows eine virtuelle CPU unterjubeln, die dann die Daten über PEx an den Larrabee weiterleitet. Das würde ich jetzt mal ganz spontan in die Kategorie "Unmöglich" insortieren. Zumal ich noch kein Programm gesehen habe, dass es überhaupt schafft die 16 (virtuellen) Cores auf einer Nehalem-Workstation auszulasten, wie sollen die es dann mit 32 Larrabee-Cores schaffen?!

Intel erzählt ne Menge Quatsch zum Thema Larrabee, Raytracing und MP-Computing - da sollte man wenn überhaupt nur die Hälfte glauben.
Solch eine Menge an Cores können vor allem beim Rendering einen Vorsprung bringen, da hier alles parallelisiert ist. Ich rede also nicht von Anwendungenw ie Firefox, Office oder dergleichen - da reicht auch ein CPU-Core. LB könnte man wenn nur bei spezifischen Anwendungen brauchen. Bei grafischen Anwendungen wie Vue könnten Renderfarmen ausgestattet mit LB auch einen Geschwindigkeitszuwachs erfahren.

Es geht auch nicht darum, dass Windows die LB-Cores so erkennt, dass diese auf einmal im Taskmanager auftauchen. Solch eine Unterstützung meine ich von Seiten Windows nicht, sondern eher die Tatsache, dass diese Kerne ähnlich wie bei einer Grafikkarte "simple und einfach" per Treiber angesprochen werden könnten. Dementsprechend könnten Programme über eine Schnittstelle auch auf LB zugreifen - möglich ohne großen Aufwand, denn schließlich muss LB mit seinen x86-Cores ja einen Vorteil haben und hier sollte man ihn finden können, damit das Produkt einen größeren Nutzen hat. Verständlich, wie ich das meine?

...Intel glaub ich generell wenig; bin ein grüner AMDler! :) Dennoch lass ich mich überraschen, was deren LB kann und wozu es zu gebrauchen ist. Was von Intels Wahrheiten am Ende übrig ist, werden wir ja sehen.
 
Naja, wenn man jetzt endlich mal CUDA zum Raytracing in den gängigen Programmennutzen kann, das wird das aber tatsächlich etwas spannend. Aber ich glaube kaum, dass ein GT300 schon auf dem Niveau raytracen kann wie ein LArabee es können sollte.

Mit welcher Begründung sollte der Larrabee hier besser/schneller sein als es beim GT300 der Fall sein wird?
Dir ist schon klar, das der GT300 deutlich breiter sein wird und entsprechend deutlich mehr Ausführungseinheiten und damit Rechenleistung besitzt??

Kurzum: das mitm Raytracen ist einfach nur Intel Propaganda, nix weiter.
 
Es hat niemand behauptet, dass nicht zusätzliche Entsicklungsarbeit von Nöten ist, um Programme speziell auf den vielen kleinen CPU-Kernen zum Laufen zu bringen.
Doch, die ganzen Larrabee Fans, die das was Intel ihnen auftischt, ohne größere Fragen, schlucken.

Aber Fakt ist - bzw. laut dem, was Intel sagt - dass Larrabee x86-Code verarbeiten kann.
1. Fakt ist gar nichts! Nur das der Larrabee nicht so super toll wird, wie Intel uns das einreden wollte.
2. Intel sagt viel wenn der Tag lang ist, denen solltest nicht weiter trauen als sie schmeißen kannst.
3. Wenn der Larrabee so super duper toll ist, warum gibts dann noch keine Performance Werte im Netz??
Vielleicht weil Intel die nicht leaken lassen hat, weil man sich damit blamieren würde??


Es wäre also möglich, dass Programme wie Vue, Cinema4D oder andere grafische Anwendungen beim Rendering sofort an Geschwindigkeit zulegen. Vorausgesetzt, dass Windows Larrabee auch als viele CPUs verwalten kann, sonst hat das ganze wenig Sinn.
Nein, wäre es nicht!
Du solltest dir mal anschauen, wie die 'x86 CPUs' im Larrabee aufgebaut sind!
Das sind bestenfalls 486er mit modernem Befelssatz, nicht mehr.
Also gerad mal 'ne pipeline, kein Out of order Execution, Branch Prediction und ähnliche nette Dinge, also eher sowas wie der Atom.

Von daher kannst davon ausgehen, das ein Nehalem den Larrabee sowas von platt macht, das kannst dir nicht vorstellen, zumindest bei 'normalem' x86 Code...

Zumal das eine ja eine GP-CPU ist, das andere ein Stream Prozessor wie der Cell.
OpenCL ist für reine Grafikkarten gedacht bzw. bisher gibt es keine anderen Komponenten (z.B. Soundkarten... *gg*), die mit OpenCL etwas anfangen können, auch keine CPUs.
Wenn du keine Ahnung von etwas hast, solltest vorher nachschauen, wozu gibt es denn Wikipedia?!

Und hast du schon mal überlegt, warum OpenCL Open Computing Language heißt?!

Um mal Wikipedia zu zitieren:
Wikipedia.de schrieb:
OpenCL (Open Computing Language) ist eine Programmierplattform für CPUs, GPUs und DSPs
uups?!

Oder Heise:
Heise News schrieb:


Du siehst, OpenCL ist nicht nur für Grafikkarten, auch wenn es auf CUDA basiert, das ist eher was universelles, wo man jedes Stück Hardware mit nutzen kann, das rechnen kann.
Wenn man also von Larrabee redet, ist die Frage, ob man es in Verbindung mit OpenCL oder doch lieber normalem x86-Code bringen sollte.
Wenn man vom Larrabee redet, sollte man das als Grafikkarte tun, entsprechend OpenCL, zumal kein normaler Mensch auf die Idee kommen würde, ausschließlich für dieses Teil zu programmieren.
Da muss es schon 'nen dicken Scheck von Intel geben, um jemanden davon zu überzeugen.

Erwähnte ich schon, das die Möglichkeiten von OpenCL unendlich sind, die Marktdurchdringung vom Larrabee momentan 0 ist?!

Oh und Cells kann man auch mit OpenCL ansprechen - braucht nur einen Treiber von IBM...
Dazu noch die GraKas von nVidia und AMD...
Wenn, wie schon beschrieben, Larrabee nativen bisher vorhanden Code direkt verarbeiten kann, sollte man logischer Weise in x86 schreiben, da LB mehr CPU als GPU ist - halt eine CPU mit Texturierungseinheiten und was ebend dazugehört. Wenn durch die Schnittstelle bei LB Programmieraufwand von Nöten ist, muss man abwägen, wie viel es ist und ob es sich rentiert.
1. Ist der Larrabee eben nicht mehr CPU sondern GPU, das ist nur Intel Propaganda.
2. Ist das 'ne GPU und zwar sowas von.
3. Wird man, wie schon erwähnt, auf das setzen, was am weitesten verbreitet ist und das ist nun mal OpenCL.
Wenn man x86 CPU schreibt, dann setzt man hier auch 'normale' CPUs voraus, die sind weitaus schneller als das GPU Teil von Intel, was spricht jetzt dafür, ein Programm, das komplett neu geschrieben werden muss, statt in OpenCL für den Larrabee umzuschreiben??
Mir fällt da irgendwie nichts ein, siehe oben.

Zumal noch abzuwarten ist, ob die x86 Einheiten überhaupt nutzbar sind bzw wie die funktionieren und so weiter.
Weil wenn man die einfach so rein klatscht, könnts ganz blöde Auswirkungen auf den Betrieb mit WIndows haben, was zur Folge hat, das Programme entweder gar nicht mehr oder ziemlich lahm laufen...

Zudem sollte man sich fragen, ob es für Entwickler, die mehr als nur reine CPUs benötigen, von Vorteil ist, wenn sie auf OpenCL setzen und die Rechenpower GPUs nutzen oder doch lieber ihrer jetzt schon vorhandenen Code zusätzlich abwandeln und umstrukturieren, um ihn auf LB zum Laufen zu bringen. Welches der beiden Verfahren besser ist, hängt ganz stark vom Einsatzgebiet ab und nicht von der Schnittstelle selber.
Das hier ist nur Intel Propaganda, sorry.

Aber nochmal: Welchen Sinn hat es, ein Programm für etwas zu schreiben, das nicht existiert, dessen Erfolg zweifelhaft ist?
Statt für eine offene Schnittstelle zu schreiben, die von allen Herstellern von Prozessoren verwendet werden könnte?!

Richtig, keinen Sinn macht das, hier wird man auf OpenCL setzen, da kannst auch im 3eck rotieren, das wird einfach so kommen, allein schon aufgrund der Verbreitung von OpenCL kompatibler Hardware!

Denn eine GPU ist kein Allheilmittel und kann nicht alle Aufgaben der CPU übernehmen - jedenfalls nicht in annähernd vergleichbarer Geschwindigkeit. CPU und GPU haben ihre Aufgabenfelder, weshalb es sehr gut möglich ist, dass man einen Vorteil auch aus LB ziehen kann.
1. Aber der LRB ist ein Allheilmittel?!
2. Und wie kommst du jetzt auf die Idee, das eine simpelste In-Order x86 CPU auch nur ansatzweise z.B. einem Athlon das Wasser reichen kann?
Welche Fakten veranlassen dich zu dieser Annahme??

Was am Ende dabei herauskommt, ist natürlich eine andere Geschichte, aber darüber braucht man hier nicht zu diskutieren, da man hier das Produkt und die Reaktion der Entwickler abwarten muss.
Doch, muss man, oder willst jetzt erstmal die Diskussion über die Performance und andere Nachteile dieses Teils abwürgen??
Weil kommt ja von Intel, muss gut sein??

Und zu diesem Sachverhalt hab ich schon mehr als genug geschrieben, die Entwickler schauen halt, was es bringt, wie groß ist die Basis und wenn die Basis dafür nicht vorhanden ist, lässt man es halt einfach sein, PUNKT.

Außer natürlich man wird geschmiert, dann schauts anders aus...
Noch eine Frage an die Allgemeinheit: Hat man bisher überhaupt etwas dazu verlauten lassen, ob LB OpenCl und/oder DirectX10 (besser 11) beherrscht?
Natürlich wird das Teil D3D10 beherrschen, ev. gar D3D11, das ist im Netz auch bekannt.

Welchen Sinn sollte es denn haben, eine Grafikkarte zu entwickeln, die nicht elementar wichtige Funktionen beherrscht??

Edit: Laut deinen Argumenten dürften Entickler auch nicht auf Nvidias Cuda setzen und trotzdem gibt es nicht nur Physx-Spiele, sondern auch cuda-basierte Anwendungen, die daraus ihren Vorteil ziehen. Und selbst die Tatsache, dass vielleicht gerade einmal 50 % aller PCs (mit Grafikkarten) überhaupt in der Lage wären Cuda zu nutzen, wird auf diese Technologie gesetzt. Hier wurde auch nicht auf OpenCL und DirectX 11 gewartet, sondern die vorhandene Technologie genutzt. Also wird es sicherlich auch Anwendungen geben, die zukünftig und vielleicht ausschließlich auf LB setzen werden. Es hängt halt, wie schon gesagt, stark vom Einsatzgebiet ab, was sich lohnt und was nicht.
Nein, denn für Cuda Programme ist eine (nicht gerade kleine) Basis vorhanden, so ziemlich alles ab der Geforce 8 Serie kann CUDA Code ausführen, das ist schon 'ne ganze Menge!

Außerdem soll OpenCL auf Cuda basieren, so dass die Möglichkeit besteht, CUDA Code in OpenCL Code 'umzuformatieren'...
 
Au weia... -.-
Es tut mir leid, aber mit dir zu schreiben, macht einfach keinen Spaß. Du hast deinen festen Standpunkt, den du nicht bereit bist überhaupt aufzugeben. Anscheinend bist du allwissend, denn bei dir ist der LB bereits tot, bevor er auf den Markt kommt. Mich aber interessiert es, was er kann und was damit vielleicht möglich ist.
Und ja, die ganze Welt wird von Intel geschmiert...

Traurig, wenn man über 12.000 Kommentare verfasst, aber selbst nicht einmal Raum für andere Meinungen lässt!
 
Versuch doch mal mit Argumenten mich von deinem Standpunkt zu überzeugen.


Die Fakten sind doch:
  • Es gibt keinerlei halbwegs genau Infos über die Performance! Das lässt eher den Schluss zu, das die Performance nicht besonders ist.
  • es wurd mal 'beiläufig' erwähnt, das der Larrabee die Performance von nVidias letztem oder vorletztem High End Chips erreichen können wird.
  • es ist eine Grafikkarte, entsprechend gibts auch TMUs und alles was dazu gehört
  • 70-90% des Know-Hows einer Grafikkarte stecken in der dazu gehörigen Software
  • Intel ist nun nicht gerade für ausgereifte GraKa Treiber bekannt, auch schummeln sie bei der BQ gern mal, wie SIS.

Was am Ende bleibt, ist ein Stück Hardware, über das man heute wenig bis gar nichts weiß, nur irgendwelches Marketinggeschwätz von Intel, das nicht wirklich was aussagt und, wenn man die Aussagen hinterfragt den Schluss zu lässt, das man selbst nicht von dem Produkt überzeugt ist und zwanghaft, irgendwas finden muss, wo das eigene Produkt halbwegs ordentlich dasteht, weils sonst nix reißt.

Schau auch mal hier
 
Steh ich auf dem Schlauch?
Der Larrabee soll doch eine Hi End Spielegrafikkarte sein, oder? Dann wird der doch sicher DirectX und OprnGL unterstützen und ob der dann x86 Code ausführen kann oder nicht, spielt doch für Spieler kaum eine Rolle. Raytracing usw. wird mit der ersten Generation wahrscheinlich gar nicht so interessant sein schätze ich (wenn der Chip 2010 auf den markt kommt).
Und wie schnell der Chip ist und wie gut die Treiber, das werden wir ja dann sehen wenn es soweit ist.

Was die News betrifft, ich finde es seltsam das der soviel Strom brauchen soll, schliesslich sind Intel Prozessoren sehr genügsam und man sollte meinen Intel weiß, wie man sparsame Chips herstellt.

bye
Spinal
 
Der Larrabee soll doch eine Hi End Spielegrafikkarte sein, oder?
Genau das soll sie eigentlich sein...

Dann wird der doch sicher DirectX und OprnGL unterstützen und ob der dann x86 Code ausführen kann oder nicht, spielt doch für Spieler kaum eine Rolle.
Dem kann ich mich auch nur anschließen.
Und wie schnell der Chip ist und wie gut die Treiber, das werden wir ja dann sehen wenn es soweit ist.
Auch hier, aber Wunder sollte man echt nicht erwarten, ganz im Gegenteil.
Wenn die 5 Top Spiele fehlerfrei laufen, sollt man schon zufrieden sein...

Was die News betrifft, ich finde es seltsam das der soviel Strom brauchen soll, schliesslich sind Intel Prozessoren sehr genügsam und man sollte meinen Intel weiß, wie man sparsame Chips herstellt.
Liegt halt daran, das man ziemlich fette Ausführungseinheiten da drauf klatscht, die nicht nur groß sind sondern auch viel Leistung verbraten, dazu noch die Infrastruktur...

Also erstmal abwarten und Tee rauchen und nicht allzu euphorisch diesem Teil entgegen fiebern...
 
Versuch doch mal mit Argumenten mich von deinem Standpunkt zu überzeugen.


Die Fakten sind doch:
  • Es gibt keinerlei halbwegs genau Infos über die Performance! Das lässt eher den Schluss zu, das die Performance nicht besonders ist.
  • es wurd mal 'beiläufig' erwähnt, das der Larrabee die Performance von nVidias letztem oder vorletztem High End Chips erreichen können wird.
  • es ist eine Grafikkarte, entsprechend gibts auch TMUs und alles was dazu gehört
  • 70-90% des Know-Hows einer Grafikkarte stecken in der dazu gehörigen Software
  • Intel ist nun nicht gerade für ausgereifte GraKa Treiber bekannt, auch schummeln sie bei der BQ gern mal, wie SIS.

Was am Ende bleibt, ist ein Stück Hardware, über das man heute wenig bis gar nichts weiß, nur irgendwelches Marketinggeschwätz von Intel, das nicht wirklich was aussagt und, wenn man die Aussagen hinterfragt den Schluss zu lässt, das man selbst nicht von dem Produkt überzeugt ist und zwanghaft, irgendwas finden muss, wo das eigene Produkt halbwegs ordentlich dasteht, weils sonst nix reißt.

Schau auch mal hier
Sehr schön, sieht doch gleich viel angenehmen aus, du alter Miesepeter! ;)
Ganz ehrlich: Ich kann Intel nicht leiden - und schon gar nicht deren Grafik"hardware". Ich muss mich selber ständig im Studiennotebook mit der IGP umherschlagen, weil der Treiber absoluter Müll ist und dadurch das Gerät noch weniger Leistung hat als meine Radeon 9800 Pro von 2003 oder 2004 :ugly:

Dennoch interessiert mich LB an sich, da ich sehen möchte, was das Gerät zu leisten vermag oder nicht. Dass es im Grafiksegment voll versagen wird, schließe ich nicht aus,d enn daran glaube ich sogar. Aber in Sachen Grafikanwendungen interessiert es mich dennoch enorm, ob er dort etwas zu leisten im Stande ist. Sachen wie Raytracing oder Videocodierung interessieren mich herzlichst wenig. Wenn ich in dem Gebiet was brauche, warte ich lieber auf die Unterstützung von >richtigen< GPUs.

Über den GT300 von Nvidia und AMDs RV870 gibt es auch keine genauen Details und trotzdem glauben die meisten an ihre Leistungsfähigkeit. Vielleicht ist auch Intels Lösung ind er ersten Generation halbwegs akzeptabel. Next Gen lässt dann vlt grüßen.

Ja, es ist eine "Grafikkarte", da LB alle Komponenten an Board hat. Aber wer nimmt dieses Stück Hardware als Grafikkarte ernst? Du? Ich?! NÄ!:lol:Deshalb eher als Anwendungsgebiet GPGPU oder CPU dank x86.

Also worüber regen wir uns jetzt hier auf? Fakt wird wohl sein, dass LB nur für bestimmte Themengebiete zu gebrauchen sein wird - eine Grafikkarte im eigentlichen Sinne ist das DIng nun wirklich nicht... da müssten schon handfeste Benches gezeigt werden, damit ich das glaube. Dennoch sehe ich Potenzial bei Filmstudios, wenn deren Filmsequenzen gerendert werden müssen. Da schlägt ja auch die Grafikanwendersparte rein, die ich ständig anspreche. Mehr Gebrauchsmöglichkeiten als ein Ziergut an der Wand wüsste ich echt nicht... :ugly: Für beide Sachen aber durchaus zu gebrauchen.

PS: Sehr interessant, dass OpenCL wirklich bei DSPs theoretisch lauffähig wäre. Nur welche Chips sollten das denn sein? Asus und allen voran Creative stellen sich immer wieder zu dumm an Treiber zu entwickeln, also werden die für ihre Audiochips ganz sicher nichts entwickeln. Bei Creative machen das wenn wieder externe Leute... XD

PPS: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366311&highlight=Larrabee What?! 49,5 mm x 49,5 mm?! Den Chip mit einer Fläche von über 2400 mm² auf einem PCB für 300 $ will ich sehen!! :D Bin mal gespannt, wie groß der wirklich wird.
 
Zuletzt bearbeitet:
Ja, nur gibts für GP-GPUs andere, die besser sind (nVidia) bzw es gibt hier schon spezielle Streamprozessoren und dann gibts auch noch den Cell.

PS: mit DSPs sind nicht die Witzteile gemeint, die Creative Labs verbaut.
Das sind kleine bis winzige, sehr stark spezialisierte, aber auch sehr schnelle Prozessoren.
Den Cell kann man durchaus auch in die DSP Kategorie stecken.
Was es braucht, wäre ein Open CL Treiber, das ist alles.
 
Solch eine Menge an Cores können vor allem beim Rendering einen Vorsprung bringen, da hier alles parallelisiert ist. Ich rede also nicht von Anwendungenw ie Firefox, Office oder dergleichen - da reicht auch ein CPU-Core. LB könnte man wenn nur bei spezifischen Anwendungen brauchen. Bei grafischen Anwendungen wie Vue könnten Renderfarmen ausgestattet mit LB auch einen Geschwindigkeitszuwachs erfahren.
Warum sollte man sich da mit x86-Code auf den Larrabee festnageln, wenn man mit einer OpenCL-Programmierung drei Hersteller zur Auswahl hat? Zumal der Larrabee als Add-In Karte überhaupt nicht für Serverfarmen taugt, während die Konkurrenz ihre GPUs auch für Serverfarmen verkauft:

Quadro Plex 2200 S4

In 99% der Server kann man gar keine Grafikkarte einbauen.

Es geht auch nicht darum, dass Windows die LB-Cores so erkennt, dass diese auf einmal im Taskmanager auftauchen. Solch eine Unterstützung meine ich von Seiten Windows nicht, sondern eher die Tatsache, dass diese Kerne ähnlich wie bei einer Grafikkarte "simple und einfach" per Treiber angesprochen werden könnten. Dementsprechend könnten Programme über eine Schnittstelle auch auf LB zugreifen - möglich ohne großen Aufwand, denn schließlich muss LB mit seinen x86-Cores ja einen Vorteil haben und hier sollte man ihn finden können, damit das Produkt einen größeren Nutzen hat. Verständlich, wie ich das meine?
D.h. man muss die Software doch umbauen, d.h. mit nahezu gleichem Aufwand kann man auch OpenCL nehmen. Es wäre nur dann ein wirklicher Vorteil, wenn die x86-Software out-of-the-box ohne Anpassung auf dem Larrabee laufne würde - was ich bezweifele.

Man darf nicht vergessen: Bevor der Larrabee kommt, werden bereits die nächsten Generationen von ATI+Nvidia erhältlich, die wohl die doppelte Performance haben werden, mit einem (zumindest bei Nvidia) Boost durch Umstellung von SIMD zu MIMD.
 
Jetzt, wo du es sagst...

Die nV Chips haben ja 1D Einheiten, Auslastung davon ist entsprechend hoch, die AMD Chips haben aber 5D Einheiten (also ein Einheitenblock, der nicht völlig unabhängig arbeiten kann), der Larrabee soll wohl 16D Einheiten bekommen...

Im Klartext heißt das:
Die (nur) 512 Recheneinheiten des Larrabee können nicht wirklich gut ausgelastet werden, wie es ja schon bei AMD der Fall ist...
 
Zurück