Larrabee: Intels Angriff auf den GPU-Markt? Versuch einer Mini-Analyse

PCGH_Carsten

Ex-Redakteur
Mit dem Projekt Larrabee wird Intel wohl sowas wie eine Multifunktions-GPU auf den Markt bringen wollen - ähnlich, wie Nvidias CUDA- oder AMDs CTM-Bemühungen, sollen dann nicht nur Grafik sondern auch Physik oder andere Dinge von der Rechenkraft der massiv-parallelen Prozessoren profitieren.

Zwar hat Intel außer bei integrierter Grafik (i740 und Derivate, zugekauft von Real3D, SGX und Derivate, zugekauft von PowerVR) kaum Erfahrungen auf dem Gebiet, aber in Sachen Compiler und Chipdesign und -fertigung sind sie ziemlich weit vorn. Außerdem können Sie selbst produzieren und so ein Glied der Wertschöpfungskette überspringen. Das würde bei ansonsten identischen Rahmenbedingungen und Preisen schon einen (kleinen) Unterschied ausmachen.

Zudem bemüht man sich seit einiger Zeit, Raytracing in Spielen zu etablieren. Kapazitäten auf diesem Gebiet werden angeheuert und forschen was das Zeug hält, Firmen (Neoptics, Project Offset) werden gekauft, Middleware (Havok-Physik) wird assimiliert. Bisher scheinbar ohne richtigen Zusammenhang.

Manpower und Know-How sind also bereits bei Intel vorhanden, aber reicht das, um die jahrelange Erfahrung von AMD und Nvidia auf dem Gebiet der Grafikkarten wettzumachen? Kann Intel wirklich aus dem Stand ein konkurrenzfähiges High-End-Produkt hinlegen? Oder wird Larrabee doch eine Raytracing-Beschleuniger- und GP-Rechenkarte?

Was meint ihr?
 

AchtBit

Software-Overclocker(in)
Ich denke fast, Intel möchte gerne einen leistungsfähigen Raytracing Algorithmus in die CPU integrieren. Sollte dieses ehrgeizige Vorhaben auch noch Erfolg haben, könnten wir uns theoretisch vom 3d Rasterizer verabschieden und wieder eine alte S3 Trio Grafikkarte in den Rechner stecken. Übertrieben gesehen würde die dann ausreichen um die berechnete 3d Grafik anzuzeigen.

Nur hat die Vergangenheit auch gezeigt, dass so etwas nicht von sofort auf gleich machbar ist. Die Algorithmen, die moderne GPUs zu dem gemacht haben was sie jetzt sind, wurden über Jahre Stück für Stück ins Silikon integriert.

Zugegeben, bei der Entwicklung von Intel würden manche Sachen, wie z.B. die Entwicklung von HL Sprachen zum ansprechen der HW, wegfallen aber trotzdem zweifle ich irgendwie, dass ein derart grosser Sprung so einfach machbar ist.

Keine Frage, ich würde es natürlich sehr begrüssen, meine Games in 3d Studio Grafik zu geniesen.:cool:
 

Stefan Payne

Kokü-Junkie (m/w)
Naja, ich denke nicht, das der 'erste Versuch' besonders erfolgreich sein wird, zumal Intel selbst ja sagt, das sie keine Ahnung haben, was man mit dem Teil machen kann/können soll, was schonmal kein gutes Zeichen ist.

Unterm Strich wüsst ich jetzt auch nicht, wozu das Teil da sein soll...
 
TE
TE
PCGH_Carsten

PCGH_Carsten

Ex-Redakteur
"As of now, we have no idea of what Larrabee is capable"

Solche Sprüche können auch bedeuten, dass man noch nichtmal begonnen hat (haben will) am Potenzial des Larrabee zu kratzen.
 

der8auer

der8auer Cooling & Systeme
Ich halte eher wenig davon. Die Teile werden garantiert nicht gerade billig da die Entwicklungskosten besimmt enorm sind. Dann muss Intel erst mal an die Leistung von Nvidia und AMD/ATI anknüpfen und mithalten, was sicherlich nicht einfach sein wird.

Kann für Intel nur hoffen, dass das ganze nicht wie die PhysiX Karten endet ;)

mfg
 

riedochs

Lötkolbengott/-göttin
Intel hat sich ja schonmal in Grafikkarten versucht, die waren ja auch nicht schlecht. Das ganze ist eben mal abzuwarten.
 

Löschzwerg

BIOS-Overclocker(in)
@der8auer: im gegensatz zu ageia (physx) ist intel megagroß und hat das nötige budget um hier den pc-markt entscheidend zu verändern ;)

raytracing wäre ganz klar der effektivere weg v.a. weil wir jetzt wirklich an grenzen mit der rasterisierung stoßen.
der erste schritt wird mit dem larrabee gemacht und mit dem zweiten dürfte hier auch die maßentauglichkeit einsetzen. problem ist halt lediglich der eingefahrene markt... sieht man ja schon bei der sache 32Bit vs 64Bit bei den betriebssystemen. spieleentwickler könnten hier natürlich komplett auf die konsolen überspringen. oder aber die technik wird in den übernächsten konsolengenerationen eingeführt.

ist noch alles sehr sehr wage... aber wenn es jemand schaffen kann dann intel ;)
 

Stefan Payne

Kokü-Junkie (m/w)
"As of now, we have no idea of what Larrabee is capable"

Solche Sprüche können auch bedeuten, dass man noch nichtmal begonnen hat (haben will) am Potenzial des Larrabee zu kratzen.

Naja, es kann auch bedeuten, das die Karte für normales Rasterizen nicht taugt und man irgendwie 'zwanghaft' andere Anwendungsgebiete suchen 'muss', damit man überhaupt irgendeinen Vorteil anpreisen könnte...

Interessant ist auf jeden Fall, das Intel kleine x86 Kerne nimmt, nur sieht man ja z.B. an aktuellen GPUs, das die Rechenleistung nicht alles ist und man noch ein paar 'alte' Fixed Function Units braucht (TMUs, ROPs z.B.)
 

der_schnitter

Freizeitschrauber(in)
Also ich prophezeie Raytracing die gleiche Zukunft wie der Onboardgrafik.Ich denke mal,es wird vorerst nur in Bürocomputern zu finden sein und dort als Intels "Spielplatz" dienen.Ich denke nicht,dass Intel den großen Grafikkartenherstellern groß Konkurrenz machen kann.Denn die würden sich bestimmt auf einen massiven Preiskampf einlassen.
Aber ich kann mir vorstellen,dass Intel da mit Nvidia/ATI zusammenarbeitet und sie eine Multi-GPU-Lösung anstreben wie es derzeit geplant ist,nämlich in 2D/Office Raytracing und zum Spielen wird eine richtige Grafikkarte aktiviert.
 

Stefan Payne

Kokü-Junkie (m/w)
raytracing wäre ganz klar der effektivere weg v.a. weil wir jetzt wirklich an grenzen mit der rasterisierung stoßen.
Raytracing ist einfach grober Unfug, braucht Leistung ohne Ende, selbst der Erfinder hat nicht gerad eine positive Meinung darüber!

Ganz ab davon: wenn Raytracing so über-hypertoll ist, warum nutzt es denn keine Sau im Reallife?!

Pixar z.B. hat z.B. Cars gerendert, nur für spezielle Spiegelungen wurde Raytracing benutzt.

Noch darüber hinaus hats üble Probleme mit dynamischer Geometrie, kurzum:
Wer Raytracing hypt, hat einfach keinen Plan, wovon er spricht, in der Praxis ists Mist, nutzt keiner wirklich...
 

der_schnitter

Freizeitschrauber(in)
Also ich weiß nicht,ob es schon draußen ist,aber ich glaube,wir reden hier von einer Raytracing-Technologie,die für den Privatanwender gemacht ist ;)
 

Löschzwerg

BIOS-Overclocker(in)
Stefan Payne schrieb:
nur für spezielle Spiegelungen wurde Raytracing benutzt

da hast du schon einen großen bonuspunkt genannt ;) licht, schatten, spiegelungen, transparente usw.

raytracing hat nen gewissen grundaufwand an rechenleistung den man mit einem speziellen chip aber ohne weiteres erfüllen könnte (siehe larrabee).

bei aktueller grafik ist alles mehr oder minder auch nur getrickse wenn man es flüssig darstellen will, ansonsten wäre der aufwand auch viel zu groß.

quake3 und quake4 mit den modifikationen waren schon ziemlich interessant.

Stefan Payne schrieb:
hat einfach keinen Plan, wovon er spricht

hat dir schonmal einer gesagt das du nicht vernünftig argumentieren kannst? gepöbel ist bei dir irgendwie immer der erste schritt... bist du wirklich so eingebildet?!
 

Löschzwerg

BIOS-Overclocker(in)
hab ich jemals behauptet das raytracing schon perfekt ohne probleme und alles richtig macht? neeeeiiiiiin ;)

ich verstehe die nachteile sehrwohl, lasse aber auch die vorzüge nicht außer acht. es braucht nunmal seine zeit bis eine technik ausgereift ist. die technik der heutigen rasterisierung hat sich auch so langsam aufgebaut und selbiges sehe ich bei raytracing.

zumindest könnte man einige teilbereiche von raytracing verwenden. es gibt so viele möglichkeiten. es muss nur mal jemand offen für innovationen sein und etwas umdenken.

gleich alles zu verteufeln (wie du es gerade machst) hat noch niemandem was gebracht ;)

niemand hat subaru dazu gezwungen nen diesel boxer zu entwickeln, aber das ding ist super :)

jetzt warten wir halt mal ab was intel da macht ;) darüber diskutieren wird man ja wohl noch dürfen :ugly:
 

Stefan Payne

Kokü-Junkie (m/w)
Man sollte Dinge lieber kritisch sehen denn immer jedem noch so kleinen/seltsamen Hype hinterherrennen!!

In der IT-Welt gibts 'nen Haufen Leute, die keine Ahnung haben und trotzdem einen auf dicke Hose machen, aber teilweise Dinge gut verkaufen können und sonst nix auf die Reihe bekommen, dieser D3D10 Wrapper für Windows XP ist ein gutes Beispiel für sowas...

Wer etwas mehr von dem Umfeld verstanden hat, hat gleich von Anfang an gesagt, das das nichts wird...


PS: Doch, die dt./eu Presse mit ihrem Dieselgehype hat Subaru dazu gezwungen...
 

Löschzwerg

BIOS-Overclocker(in)
wer rennt hier denn irgendeinem hype hinterher? lass uns doch etwas über die möglichkeiten philosopieren ;)

Stefan Payne schrieb:
Wer etwas mehr von dem Umfeld verstanden hat, hat gleich von Anfang an gesagt, das das nichts wird...

wenn man keine lösungen finden will ist das natürlich der erste gedanke ;) die rasterisierung stand mindestens vor genau so vielen problemen.

Stefan Payne schrieb:
In der IT-Welt gibts 'nen Haufen Leute, die keine Ahnung haben und trotzdem einen auf dicke Hose machen, aber teilweise Dinge gut verkaufen können und sonst nix auf die Reihe bekommen, dieser D3D10 Wrapper für Windows XP ist ein gutes Beispiel für sowas...

geb ich dir zu 100% recht :)
 

der_schnitter

Freizeitschrauber(in)
ATI und Nvidia werden den Erfolg der Raytracingtechnologie schon zu verhindern wissen.Intel mag Geld haben,aber ohne die Kooperation der Spieleentwickler bringt die beste Technologie nichts.
 

Stefan Payne

Kokü-Junkie (m/w)
Nun, wer die Threads weiter oben gelesen hätte, wüsste das Raytracing nicht sonderlich pralle ist und für Spiele denkbar ungeeignet...

Daneben dürft man auch alles was man bisher beim rendern gelernt hat, übern haufen schmeißen, auch nicht sehr toll.

Was bleibt ist eine Technik die sehr aufwändig ist und sehr viel mehr Performance denn das bestehende kostet...
 

Adrenalize

BIOS-Overclocker(in)
Raytracing mal außen vor: Dass Intel groß ins Zockergeschäft einsteigt, kann ich mir nicht so recht vorstellen. Mit den Prestige-Karten macht man ja keine Kohle, da gehts mehr ums Firmenimage zwischen Nvidia und AMD. Intel hat ja aiegentlich nie so sehr um die Gunst der Zocker gebuhlt, oder?
Aber ausschließen kann man es natürlich nicht, wer weiß was die aushecken.

Was ich mir vorstellen könnte, wäre eine Plattform für verteiltes Rechnen, Multicore-float, sowas in die Richtung wie Tesla/CUDA. Meinen Informationen nach kommt Nvidia damit gut an bei Universitäten und Forschungseinrichtungen, und ich könnte mir gut vorstellen, dass Intel da mitmischen möchte, evtl. auch im die Xeons zu pushen.
Dabei muss es dann nichtmal um "Grafik" im strengen Sinne gehen, allgemeime Vektor- Polygon- oder Gridberechnungen usw.
 
Oben Unten