Intel zeigt Larrabee-Wafer auf dem IDF - Test-Chips bereits fertig

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel zeigt Larrabee-Wafer auf dem IDF - Test-Chips bereits fertig gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Intel zeigt Larrabee-Wafer auf dem IDF - Test-Chips bereits fertig
 
"Der Larrabee scheint also relativ komplex zu werden."Leute, nur weil ein chip groß ist,muss er noch lange nicht komplex sein. schreibt doch eure texte nicht immer so pro Intel. :schief:
 
Zuletzt bearbeitet:
Ich hab mal ne Frage da ich iwie nicht verstehe was Larrabee ist.

Ist es eine "Grafikkarte" als Prozessor oder ein Prozessor mit integriertem Grafikchip? :huh:
 
Larrabee ist der Codename für eine neue Grafikkartengeneration von Intel, die Anfang 2010 auf den Markt kommen soll. Im Gegensatz zu heute verwendeten Grafikprozessoren (GPUs) verwendet Intel hier ein Cluster von mehreren auf Pentium-Prozessoren basierenden CPUs.
Intel will mit dem Larrabee im Grafikkarten-Segment mit den GeForce- und Radeon-Grafikkarten der beiden Firmen Nvidia und AMD/(ATI) konkurrieren, verfolgt jedoch vom Aufbau des Chips her einen anderen Ansatz. Statt nur sehr viele, sehr einfache Ausführungseinheiten auf dem Chip zu platzieren, strebt Intel es an, mit dem Larrabee dutzende Pentium-P54C-Prozessoren auf einem Stück Silizium zu verbauen.
Dieser Multi-CPU-Chip soll dann sehr flexibel programmiert werden können und so unter anderem auch mit den Grafikschnittstellen DirectX und OpenGL angesprochen werden können. Von der Leistung her strebt man mit der ersten Version (Ende 2009) eine Leistung von 2 Tera-FLOPs an, was in etwa die doppelte Leistung heutiger Grafikkarten wie z. B. ATI Radeon 4870 oder Geforce GTX280 bedeutet.
Denkbar ist es etwa, die Prozessoren später auch zur Ausführung normalen Programmcodes zu nutzen. Sie würden etwa im Betriebssystem als weitere Prozessoren, ähnlich wie bei normalen Mehrkernprozessor-Systemen, eingebunden. Dies ist möglich, da die Pentium-P54C-Prozessoren zur aktuellen Intel-Architektur kompatibel sind und keine Anpassung des Programmcodes erforderlich wäre (wie dies bei RISC-Prozessoren und so auch den Grafikprozessoren von Nvidia und AMD/(ATI) der Fall ist, vergleiche CUDA).

Wikipedia hat mir grad das ausgespuckt ..... bitte um Ergänzungen
 
Lassen wir uns mal überraschen was von den hochgesteckten Zielen letzten Endes auf dem Ladentisch landet.
Wäre ja nicht das erste Mal das ein fertiges Produkt nur die Hälfte der versprochenen Features bietet.

:lol:
 
Ich hab mal ne Frage da ich iwie nicht verstehe was Larrabee ist.

Ist es eine "Grafikkarte" als Prozessor oder ein Prozessor mit integriertem Grafikchip? :huh:

Es ist ein Chip mit etwa 64 Kernen auf einer verbesserten Pentium I Basis, also prinzipiell eine Multicore CPU, die aber auch für Grafikanwendungen optimiert und geeignet ist.
 
Leute, nur weil ein chip groß ist, muss er noch lange nicht komplex sein. schreibt doch eure texte nicht immer so pro Intel. :schief:

und nur weil er komplex ist heißt das net, dass er gut ist, was das pro Intel wieder relativiert ;) Also ich persönlich bin gespannt drauf, die könnten nVidia und AMD (aber vorzugsweise nVidia :D ) damit ruhig mal eine auswischen.

gruß
 
und nur weil er komplex ist heißt das net, dass er gut ist, was das pro Intel wieder relativiert ;) Also ich persönlich bin gespannt drauf, die könnten nVidia und AMD (aber vorzugsweise nVidia :D ) damit ruhig mal eine auswischen.

gruß

Mir würde es auch gefallen wenn ein dritter oben mitmischen würde im Grafikbereich - das kann für den Markt nur gut sein.

Außerdem würde ich mich auf die Gesichter der Führungspersonen von ATI/NVidia freuen wenn intel sich denkt "och komm wir machen mal nen Grafikchip" und ein paar Jahre Entwicklungszeit später nen Chip in der Hand hält der die aktuellen um Längen schlägt :lol:
 
täusch ich mich oder müsste das nicht eigentlich eher so heißen:
Eine Produktion in 32 nm ist naheliegend, da Intel den Larrabee bereits Ende 2009 oder Anfang 2010 auf den Markt bringen will."
hätte ich jetz tzumindest gedacht
 
Mir würde es auch gefallen wenn ein dritter oben mitmischen würde im Grafikbereich - das kann für den Markt nur gut sein.

Außerdem würde ich mich auf die Gesichter der Führungspersonen von ATI/NVidia freuen wenn intel sich denkt "och komm wir machen mal nen Grafikchip" und ein paar Jahre Entwicklungszeit später nen Chip in der Hand hält der die aktuellen um Längen schlägt :lol:

Naja, mit den (!)angestrebten(!) 2-TeraFlops werden sie imho wohl nicht auskommen um die derzeitigen Platzhirsche zu schlagen, schließlich bleiben die Entwicklungsabteilungen von AMD/ATI und NV ja nicht geschlossen :what:
Aber die Vorstellung, dass ein Dritter mit mischt, find ich auch ok! :D
greetz
 
täusch ich mich oder müsste das nicht eigentlich eher so heißen:
Eine Produktion in 32 nm ist naheliegend, da Intel den Larrabee bereits Ende 2009 oder Anfang 2010 auf den Markt bringen will."
hätte ich jetz tzumindest gedacht

ja wäre eigentlich sinnvoller gewesen, aber vllt werden auf den 32nm Fertigungslinien die neuen i7 CPus gebastelt und die "alten" 45nm, die nicht für i5 (oder kommt der in 32nm???) oder so gebraucht werden, nehmense dann für den Larrabee

gruß
 
Naja, mit den (!)angestrebten(!) 2-TeraFlops werden sie imho wohl nicht auskommen um die derzeitigen Platzhirsche zu schlagen, schließlich bleiben die Entwicklungsabteilungen von AMD/ATI und NV ja nicht geschlossen :what:

Ja, du hast ja Recht - ich glaube auch nicht dass Intel da so ein Performancemonster raushaut - aber wünschen würde ich es mir schon... das würde mit Sicherheit den Erscheinungstermin von HD5870 und GTX380 erheblich beeinflussen :D

ja wäre eigentlich sinnvoller gewesen, aber vllt werden auf den 32nm Fertigungslinien die neuen i7 CPus gebastelt und die "alten" 45nm, die nicht für i5 (oder kommt der in 32nm???) oder so gebraucht werden, nehmense dann für den Larrabee

gruß

Die 45nm liegen eher nicht an den vorhandenen Kapazitäten sondern an der Ausgereiftheit des Prozesses! Immer, wenn Intel eine neue Architektur in einem Chip baut nutzen sie "alte" bewährte Fertigungsmethoden (vgl. Tick-Tock Modell). Es wäre einfach zu riskant einen komplett neuen Chip auch noch in einer neuen Fertigungstechnik herzustellen - das Risiko eines Fehlschlages ist da viel zu hoch - daher erst die Herstellung in 45nm und später dann der Shrink auf 32nm.
 
Zuletzt bearbeitet von einem Moderator:
und der kostenpunkt?

Hallo ... wir reden hier von Intel .... das was die da raushauen wollen is für den moment der Core i7 extreme unter den Grakas .....

und gegen AMD können sie vom Preis/Leistungsvergleich, wenn sie ähnlich wie bei den Prozis agieren, nicht mithalten ..... und NV ist ja auch nicht in solchen regionen wie intel als vergleich

wann NV und AMD ihre Grakas für 220 raushaun dann braucht Intel nicht mit 280 oder 300 daherkommen
 
Zurück