Intel Larrabee: Referenz-Grafikkarte vorgestellt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel Larrabee: Referenz-Grafikkarte vorgestellt gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Intel Larrabee: Referenz-Grafikkarte vorgestellt
 
Hoffentlich bringen sie noch eine Grafikkarte für Gamer in einem anderen Projekt. Wobei solche Forschungsprojekte kosten sehr viel Geld und ich weiß nicht ob wenn sie eines abrechen, sie ein neues zum gleichen Thema (in nächster Zeit) beginnen würden.

MFG
windows
 
Hmmm Larrabee ist auf ganzer Linie gescheitert... was macht man also als kluger Verkäufer?

Wir geben dem Kind nen Neuen Namen ("MIC") und sagen "jahaaa das war ja sowieso für was ganz anderes gedacht!"

Ich weiß nicht, ich kann mich einfach nicht damit anfreunden dass da jemals was wirklich sinniges bei rumkommt.
Im Bereich von "wenigen" Kernen sind die aktuellen CPUs bereits sehr sehr schnell und vielseitig und der Trend zu mehr Kernen ist offensichtlich.
Im Bereich der riesigen Cluster mit vielen vielen Recheneinheiten und viel Gleitkommaleistung sind GPUs heute bei 1600 Kernen (Cypress) angekommen - und die sind nicht gerade langsam wenn ich an die Leistung von über 2,5 TFlops auf einer einzelnen HD5870 denke.

Dieses MIC soll nun so wie ichs verstanden habe was in der Mitte dastellen - so grob 50-100 Kerne die jeder einzelne schneller und flexibler als ein GPU-Shader ist aber lange nicht an die Komplexität und Funktionalität eines i7 kerns reicht... ich halte das für einen verlorenen Kampf, ich kenne kaum/keine Anwendung für sowas.
Einzig wenn das Ding extrem optimiert würde für einzelne Anwendungen (Raytracing zum Beispiel) würde das für mich einen Sinn ergeben, der Chip bräuchte einfach ein paar Dinge, in denen er sowohl CPUs als auch GPUs mit großem Abstand schlagen kann - wenn es das nicht gibt sehe ich da schwarz.

Aber es ist wie immer: Abwarten und Tee trinken ;-)
 
dann muß man Intel mit email bombadieren das die ne auch bei der Grafikmarkt für zocker karten rausbringen :D
 
Selbst wenn es keine Grafikkarte wird/ist - interessant ist das Ding schon. Im Gegesatz zu einer echten Grafikkarte sollten ja da alle x86 Programme drauf laufen können. Könnte sehr interessant für HPC und auch für Forschung und Lehre an Hochschulen werden (Ich hatte einen Kurs für parallele Programmierung an der Uni - gearbeitet wurde auf single-core Rechnern :ugly:).
 
Dass Larrabee kommerziellen Erfolg haben wird, daran glaubt wohl nichtmal Intel. Trotzdem bringt Larrabee nur Vorteile. Es zeigt wohin die Reise der, ich nenne es jetzt mal so, "vollwertigen" CPU's geht. Die Parallelisierung in GPU's ist in KEINSTER WEISE mit den Schwierigkeiten jener von normalen Programmcode zu vergleichen!

Entwickler haben dadurch die Möglichkeit massiv parallelisierten Code zu entwickeln und testen, somit sollte man Larrabee heute mehr als Machbarkeitsstudie sehen.

Wenn Intel sich nicht einen Nutzen von Larrabee verspricht, hätten sie das Projekt ja schon lange komplett eingestampft.
 
Auf die Karte bin ich mal gespannt. Ich denke die wird nicht grade langsam sein. Hoffentlich wird die Karte auch zum Spielen zugebrauchen sein.
 
Da wird er nicht mithalten können. Mit ner Onboardgrafik wird er aber sehr gut wohl mithalten können.

Zielgruppe sind hier wohl Serverfarmen, wo man halt so echt ne hammer FP Leistung bekommen würde, und halt das bei geringem Stromverbrauch, was echt entscheidend ist.
 
mit der Onboardgrafik mithalten zu können ist das mindeste, was das Ding leisten sollte :), wenigstens mit der von Intel selbst.
Ich hoffe allerdings, dass es sich mittelfristig zu einer ernstzunehmender Konkurrenz zu ATI und NVidia entwickelt, neben Pest und Cholera können wir Gamer locker einen Typhus gebrauchen :D
 
Mich würden mal Benchmark´s interessieren.
Am besten gegen die Fermi, GTX275/285 und denn ATI 5850/70.

Ich glaube hier hat jemand nicht verstanden was Larrabee/MIC ist :schief:
Es spielt keine Rolle wie sich Larrabee/MIC in Spielebenchmarks gegen die "Konkurenz" schlägt...
Der Sinn ist ein völlig anderer.
Beispiel:
Fahren LKW Rennen gegen Porsche?
Nein, weil sie für völlig unterschiedliche Aufgaben entwickelt und gebaut wurden!
Fux
 
Hm 32 Pentium-I Kerne mit 1,2 GHZ sollen viel schneller sein als aktuelle 8 bis 12-Kerner?


Genau, wieso sollten sie nicht!? Wenn der Code von vornerein darauf ausgelegt ist...

Ganz doof ausgedrückt... 32x1,2 GHz = :ugly: ihr wisst schon. :ugly:

Irgendwo schade, erstmal keine Konkurrenz, aber mal sehen was noch kommt.
Intel verkraftet den Rückschlag sicher relativ leicht, aber Erfolg wünsche ich ihnen trotzdem damit.
 
Lächerlich, Intel klaut das aussehen der Karte aber offensichtlich von Nvidia und Ati.

Das der Larrabee nicht gegen Nvidia/Ati antreten kann/will war ja schon am Anfang ziemlich klar, die zahlreichen Verschiebungen habe das ja angedeutet.
 
Hmmm Larrabee ist auf ganzer Linie gescheitert... was macht man also als kluger Verkäufer?

Wir geben dem Kind nen Neuen Namen ("MIC") und sagen "jahaaa das war ja sowieso für was ganz anderes gedacht!"

Larrabee wurde von Anfang an für Supercomputing lanciert, zeitweilig sogar als reiner Co-Prozessor mit CSI-Anbindung. Das ist nur über dem Larrabee-Grafik-Hype ein bißchen vergessen worden.

Im Bereich der riesigen Cluster mit vielen vielen Recheneinheiten und viel Gleitkommaleistung sind GPUs heute bei 1600 Kernen (Cypress) angekommen - und die sind nicht gerade langsam wenn ich an die Leistung von über 2,5 TFlops auf einer einzelnen HD5870 denke.

Es ist nur sehr schwer, diese Leistung auch universell für Berechnungen zu nutzen. Larrabee will das besser machen und zumindest in Sachen Kompatibilität hat man einen gigantischen Vorteil.


Hm 32 Pentium-I Kerne mit 1,2 GHZ sollen viel schneller sein als aktuelle 8 bis 12-Kerner?

32 Pentium 1 Kerne mit 1,2GHz, riesigen Caches, einem Speicherinterface, von dem die 8 Kerner nur träumen können und einer SIMD-Phalanx, gegen die die 12 Kerner alt aussehen ;)
Die größten Fortschritte seit dem Pentium 1 (viel schnellere Speicher, extrem leistungsfähige Zusatzeinheiten) sind also in einer Weise vertreten, die weit über das Niveau aktueller CPUs hinaus geht oder sie sind für das Zielgebiet irrelevant (out-of-order)


Ganz doof ausgedrückt... 32x1,2 GHz = :ugly: ihr wisst schon. :ugly:

Many-Core-Architekturen wie Larrabee oder gar Fermi sind sowieso nur für Aufgaben interessant, bei denen das gilt ;)

Irgendwo schade, erstmal keine Konkurrenz, aber mal sehen was noch kommt.
Intel verkraftet den Rückschlag sicher relativ leicht, aber Erfolg wünsche ich ihnen trotzdem damit.

Bin auch mal gespannt. Mangels Informationen kann man ja nur Mutmaßen, aber es besteht durchaus die Möglichkeit, dass Larrabee als Grafiklösung an der Software gescheitert ist. Intel-Treiber sind legendär schlecht und Rasterizing in Virtualisierung wäre trotz überlegener Fertigung nur bei perfekter Umsetzung konkurrenzfähig gewesen. Der einzige Pluspunkt von Larrabee war Raytraycing und allgemeine Aufgaben - aber wenn Intel niemanden gefunden hat, der das für Heimanwender nutzen will, dann macht auch ein Endnutzerprodukt keinen Sinn.
Auf der anderen Seite steht Sandybridge: Ein bis zwei GPU-Kerne, angebunden an einen L3-Cache mit viel x86-Power in der Nachbarschaft...
Der gedankliche Weg zu einem IGP, die bestehende CPU-Kerne nutzt und nur durch die SIMDs und Treiberlösungen von Larrabee ergänzt wird, ist wahrlich nicht weit. Und auch wenn so eine Architektur weiterhin leistungsschwach wäre:
Sie könnte Larrabee-Technologie extrem weit verbreiten. Eine weit verbreitet, x86-kompatible Architektur mit hoher Leistung im Bereich parallel-Computing dürfte DER Traum aller Physik-, KI-,... Programmierer sein.
 
Ich glaube hier hat jemand nicht verstanden was Larrabee/MIC ist :schief:
Es spielt keine Rolle wie sich Larrabee/MIC in Spielebenchmarks gegen die "Konkurenz" schlägt...
Der Sinn ist ein völlig anderer.
Beispiel:
Fahren LKW Rennen gegen Porsche?
Nein, weil sie für völlig unterschiedliche Aufgaben entwickelt und gebaut wurden!
Fux

Mann könnte sie doch auch zweckentfremden.^^
In HTPCs z.B. Wenn der Stromverbrauch gering ist und man trotzdem eine einigermaßen gute Spiele Leistung hatte.
 
Zurück