Larrabee: Intels Angriff auf den GPU-Markt? Versuch einer Mini-Analyse

Stefan Payne schrieb:
Daneben dürft man auch alles was man bisher beim rendern gelernt hat, übern haufen schmeißen, auch nicht sehr toll.

aller anfang ist schwer ;) deswegen wird sich auch linux erstmal nicht gegenüber windows durchsetzen. der mensch ist halt faul. irgendwann fängt jeder an was neu zu lernen und arbeitet sich daran hoch.

Stefan Payne schrieb:
Was bleibt ist eine Technik die sehr aufwändig ist und sehr viel mehr Performance denn das bestehende kostet...

ohne geeigneten beschleuniger geht natürlich nix und die software basis könnte geschaffen werden.

es wäre/ist halt eine komplett andere art der 3d darstellung in die bei weitem noch nicht so viel energie reingesteckt wurde wie beim aktuell gängigen verfahren. was erwartest du denn?

ich stempel dich jetzt als "pflunze" ab und halt mich hier raus ;)
 
Bei Computerbase gibts Teil 2 zum Raytracing-Bericht: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_raytracing_spielen_20/

Außerdem eine Meldung, dass Intel mittlerweile bestätigt hat, dass der Larabee für Games und Multimedia gedacht sei:
http://www.computerbase.de/news/hardware/grafikkarten/2008/maerz/intel_larrabee_ende_2009_gaming/
Kann allerdings 2009 bis 2010 werden, bis das Ding marktreif ist. Angesichts der Tatsache, dass Intel neu auf dem Sektor einsteigt, wohl nicht verwunderlich...
 
Ray-tracing + Larrabee sowie der weiter entfachte Krieg zwischen Nvidia und Intel wird meiner Meinung nach Ende 2009
seinen Höhepunkt erleben.
Wird Nvidia und auch AMD bis dahin weiter an seinem Konzept festhalten, kann der lachende Dritte nur Intel heissen. Als Angriff auf den GPU-Markt
würde ich es nicht interpretieren, vielmehr als Produkt aus o. g. Punkten. Auch wenn Ray-tracing nicht wirklich neu ist, so wird
es mit Larrabee eine Platform erhalten, die diese Technik erstmals in wirklich anwendbare Bereiche rückt. Aber bis dahin ist es noch
ein langer Weg. Es wird viel Überzeugungsarbeit seitens Intel nötig sein, denn alleine kann dieser Weg nicht beschritten werden.
Entwickler gleichermaßen wie Hardware-Hersteller müssen mit ins Boot genommen werden.
Alles bis jetzt nur ein Wunschdenken meinerseits - es bleibt zu hoffen, dass sich Intel, Nvidia und AMD an einen Tisch setzen und sich
die beiden letzt genannten nicht dieser neuen Technik verschließen. Wer zu spät kommt, den ...
 
@StellaNor

Schau dir den Thread im 3DCenter an, da ist man garnicht begeistert über Raytracing, eben weils nicht so gut wie Intel uns weismachen will ist!

Ganz ab davon ist ein 3DChip nicht nur die Hardware sondern vorallendingen die Software, bei einem Neueinsteiger kann das nix werden, vorallendingen wenn man bedenkt was für ein Müll die Intel IGPs momentan sind...
 
@ Stefan Payne
Ich kenne den Thread. Persönlich kann ich auch kaum bis gar keine Fakten liefern. Auf die Problematik der Software habe
ich hingewiesen. Aber wie ich schon anmerkte: Wunschdenken ;)
Entsprechend meinem Wunschdenken hat sich zumindest vor etlichen Jahren der Markt entwickelt und Innovationen wurde hinterher
gehechtet. Insofern hat Intel mit dem Larrabee meine moralische Unterstützung, weil sich AMD und Nvidia dem verweigern.
 
Raytracing ist einfach grober Unfug, braucht Leistung ohne Ende, selbst der Erfinder hat nicht gerad eine positive Meinung darüber!

Stimmt. Aber ich glaube mal was davon gelesen zu haben, dass wenn entsprechend spezialisierte Chips zu Verfügung stünden, diese die gesamte Berechnung nur mit ein paar Mhz runterklopfen könnten.

Ein größeres Problem bei Raytracing stellen afaik Reflexionen und transparente Körper dar, da hier ein (ziemlich schmerzhafter) Kompromiss zwischen Qualität und Geschwindikeit eingegangen werden muss, um es halbwegs performant auf den Bildschirm zu bringen.

Insgesamt kann ich darüber aber net viel sagen, Raytracing scheint aber Potential zu haben. Soll Intel mal seinen Larrabee entwickeln, wenns was gutes ist, ok, ansonsten wird Intel sich sowieso net durchsetzen :D
 
ich find das interview mit tim sweeney von epic in diesem zusammenhang auch sehr interessant ;)

http://www.pcgameshardware.de/aid,6...ie_lange_wird_es_Direct_X_als_API_noch_geben/

der kann sich als entwickler sehr gut raytracing vorstellen. da der mann mit die unreal engine zu verantworten hat sollte er schon nen bisschen ahnung davon haben.

auf der anderen seite steht natürlich john carmack der hier alles viel nüchternen betrachtet: http://www.pcper.com/article.php?aid=532&type=expert&pid=1t

auch sehr interessant :)

klar hat raytracing etliche nachteile, aber schwarzmalerei hätte uns bei der rasterisierung auch nicht weitergeholfen.

ich denke mit larrabee wird einen starken beschleuniger für raytracing geben, aber ob die leistung dann letztendlich ausreichend ist oder sich der aufwand lohnt wird sich zeigen müssen.
 
Ein größeres Problem bei Raytracing stellen afaik Reflexionen und transparente Körper dar, da hier ein (ziemlich schmerzhafter) Kompromiss zwischen Qualität und Geschwindikeit eingegangen werden muss, um es halbwegs performant auf den Bildschirm zu bringen.

Insgesamt kann ich darüber aber net viel sagen, Raytracing scheint aber Potential zu haben. Soll Intel mal seinen Larrabee entwickeln, wenns was gutes ist, ok, ansonsten wird Intel sich sowieso net durchsetzen :D
1. Nein, das größte Problem ist erstmal die Performance, Rasterizierung ist einfach schneller/effizienter.
Das nächste Problem ist dynamische Geometrie, das ist auch nicht so einfach möglich, bei Raytracing.
Und LOD hat man auch nicht (das braucht man, weils sonst flimmern würde).
2. Nein, hats eben nicht.
Es hat in einigen Teilbereichen ein paar Vorteile (Spiegelungen/Reflektionen), das wars aber auch.

An dieser Stelle möcht ich mal ein Posting aus dem oben genannten 3DCenter Thread zitieren:
Das wurde hier schon unendlich oft diskutiert. Z.B. kannst du wenn du Raytracing verwendest Vertex- und Geometry-Shader grad mal vergessen. Das Konzept funktioniert da einfach nicht. Dynamische Geometrie ist allgemein ein großes Problem, auch wenn es inzwischen relativ gute In-Flight-Sortierungsalgorithmen gibt.

Außerdem ist Raytracing nur deutlich effizienter wenn du wirklich extrem viele Polygone zeichnen willst. Also deutlich mehr als Pixel auf dem Bildschirm. Das darfst du aber nicht, sonst flimmert dir es das Hirn raus. Das heißt man braucht eh wieder LOD und Rasterisierung ist wieder effizienter.

D3D11 bringt dann evtl. noch programmierbare Render-Frontends die nach Bedingungen Drawcalls rendern können, dann ist auch das Occlusion-Culling-Problem endgültig vom Tisch bei Rasterisierung.

Nur für die Bling-Bling-100%-Reflexionen und harte Schatten brauchen wir ganz sicher kein Raytracing. Sobald man dann diffuse Reflexionen und Softshadows machen will sind die Hacks mit Rasterisierung wieder billiger.

Raytracing sollte man sicher nicht aus den Augen verlieren. Aber ich wäre sehr erstaunt wenn es Rasterisierung verdrängt. Das wird sehr viel eher nebenherlaufen und man wird je nach Gebiet das Beste aus den beiden Welten einsetzen. Raytracing ist NICHT der heilige Gral des Realtime-Renderings. Es löst die Probleme die wir momentan haben auch nicht - was vor allem vollständige indirekte Echtzeit-Beleuchtung ist.

Mich regt diese Stimmungsmache seitens Intel usw. derzeit mächtig auf. Es ist nicht so als würde Raytracing die lilabunte Traumwelt jedes Grafikprogrammiers sein.

Nur mal zur Info: "Transformers" (Der Film, 2007) wurde zum größten Teil mit einem Rasteralgorithmus gerendert - auch wenn man den nicht mit dem Vergleichen kann was GPUs momentan machen. Und das Zeug was sie raytracen mussten weil sie Spiegelreflexionen haben wollten hat ewig gedauert. Vor "Cars" hat Pixar/ILM überhaupt kein Raytracing verwendet.
 
Ich denke mal,
Larabee wird nicht so toll werden, wie Intel behauptet.
Intel hat auch gemeint, der P4 könne mit 10GHz rennen; was jetzt nicht heißen soll, dass ich jede Meldung von Intel nicht glauben würde, ich will nur sagen, glaubt nicht alles, was Intel sagt.

Man kann viel spekulieren, aber der Brüller wirds doch wahrscheinlich nicht.
Ich finds schön, dass Intel sich daran versucht, aber bis das ganze ausgereift ist, vergehen schon noch ein paar Jahre.

Weil, was bringen einem realistische Spiegelungen, wenn das ganze mit 3 FPS läuft?

Mein Rat, wie so oft: Abwarten und sich dann ein Bild machen.
 
Zur Siggraph werden wir schlauer:
For Attendees: SIGGRAPH 2008

Da will Intel zumindest in PDF-Form den Larrabee wohl zeigen. Interessant:
Larrabee uses multiple in-order x86 CPU cores that are augmented by a wide vector processor unit, as well as fixed-function co-processors. This provides dramatically higher performance per watt[]
Klingt mittlerweile mehr wie ein Embedded-Design für MIDs.
 
Na bin ja mal gespannt was passiert wenn die ersten Karten dann mal auf dem Markt kommen.

Auf der einen Seite denk ich, es ist ein wackliger Weg. Intel versucht sich viele Möglichkeiten offen zu lassen wozu Larrabee fähig sein soll. Ob am Ende wirklich die gewünschte Leistung rausspringt wird man sehen.

Ein bitteren Beigeschmack dürfte dann die Sache auf jedenfall für Nvidea haben, wenns funktioniert.

Dann hat sowohl AMD als auch Intel komplette PC Systeme auf dem Markt (Prozessoren,Board´s, GraKa´s). Nvidea steht dann ziehmlich allein da. Den Spagat beide Systeme zu bediehnen und dafür zu entwickeln dürfte schwer werden, zumindest auf die Dauer.
 
Hm...ich habe da zugegebenermaßen wenig Ahnung von der Materie, aber irgendwie traue ich dem nicht so ganz. Gut, Intels ansatz ist so falsch nicht, GPUs mutieren momentan gerade zu Multi-Purpose-Units, während man auf CPUs dank Multicore auch immer mehr "Müll" abläd, um die Rechenzeit genutzt zu kriegen.

Aber eine GPU mit x86-Befehlssatz? Ist ja nicht so, dass der irgendwie für Grafik optimiert ist oder? oder können die Chips dann Grafikbefehlssätze plus x86 nebenbei?

Ich bin skeptisch, andererseits ist Intel ja auch nicht komplett unfähig, und sie werden kaum jahrelang etwas entwickeln, dass ein schlechter witz ist (ok, sie werden es nicht nochmal tun, gell Pentium 4?). Kann ich mir auch nicht vorstellen.
Es riecht so nach "eierlegender Wollmilchsau", einem Chip der irgendwie alles kann. Nur neigen solche Lösungen halt oft dazu, alles ein bisschen und nichts richtig gut zu können?!
 
Einen richtigen "Grafikbefehlssatz" gibt es so nicht. Die Shader-Anweisungen bestehen eigentlich aus den üblichen Dingen die ADD, MUL, MADD, SUB, SIN, REC, RSQ, CPM und so weiter.
 
Na hoffen wir das Beste

@Adrenalize
Du hast Dich ja schon öfter mal geirrt, siehe PhysX@G80 u. CUDA :D
Die sind schließlich nicht behindert bei Intel.
 
Öhm, siehe EPIC aka IA64 und siehe Benzium 4...
Sowie Intels '64bit Plan'...
Und wer erst gar nix macht, kann auch nie was verkehrt machen. Ich versteh echt nicht, warum du solche Postings schaltest. :(

Ich jedenfalls finde, dass Intels Vorstoß in dieser Richtung den Markt weiter beleben wird. Auch nVidia und AMD werden sich was einfallen lassen müssen und auf diese neue Technik reagieren. Auch wenn Larrabee im ersten Schritt möglicherweise noch keine Gefahr gegen das etablierte Rasterizer-Verfahren darstellen wird, so liegt dessen Potential doch zunehmend in der Zukunft.
Und ein nicht zu unterschätzender Vorteil birgt die Tatsache, dass durch den kompletten Wegfall der Fixed-Function-Hardware die Steuerung durch die einfache Allerwelts-Programmierung durch das native C/C++ Programmiermodell erfolgen wird.

Wenn Intel den Stromhunger bei Larrabee in den Griff bekommt, sehe ich keinen Aspekt, der gegen einen Erfolg sprechen würde. Denn sollte eine bestimmte Anzahl an Cores dem Wettbewerb performancemäßig unterlegen sein, wird einfach eine Schippe voll nachgelegt. :haha:
 
Zurück