Neue Informationen zu Larrabee

Als ob die Nvidia oder ATI Treiber besser wären ;) sind doch alle ******
Also zwischen den Intelgrafiktreiber und denen von Nvidia/ATI liegen jawohl Welten.

Das Problem wird auch der Larrabee haben. Wenn ich mir anschauen wieviele Bugfixes und Tweaks es wegen irgendwelcher Ecken oder Kanten in allen möglichen Spielen gibt - ich glaube nicht, dass Intel das auch in dieser Reichweite und Qualität hinkriegt. Die Top5 oder Top10 spiele vllt schon, aber ab dann wirds wohl haarig.

Und was will ich mir ner Grafikkarte, wo nur 10% der Spiele richtig laufen?
 
Also zwischen den Intelgrafiktreiber und denen von Nvidia/ATI liegen jawohl Welten.

Das Problem wird auch der Larrabee haben. Wenn ich mir anschauen wieviele Bugfixes und Tweaks es wegen irgendwelcher Ecken oder Kanten in allen möglichen Spielen gibt - ich glaube nicht, dass Intel das auch in dieser Reichweite und Qualität hinkriegt. Die Top5 oder Top10 spiele vllt schon, aber ab dann wirds wohl haarig.

Und was will ich mir ner Grafikkarte, wo nur 10% der Spiele richtig laufen?
Folding@Home. Also jetzt nicht das Programm :lol:
 
Also zwischen den Intelgrafiktreiber und denen von Nvidia/ATI liegen jawohl Welten.
ja und?
Es kommt nun einmal bei allen auf das selbe an. Sie müssen stabil sein und die Leistung der Grafikkarte möglichst effizient bereitstellen.
Nur haben die bisherigen Intelschen Grafiklösungen keine große Leistung, da reist der Treiber natürlich auch nichts mehr ;) aber stabil ist der Intel-Treiber allemal.
 
Aber es entwickeln ja schon Top Leute bei "Intel" die Prozessoren. Da geht nicht noch mehr als ihr immoment seht.
Vielleicht ist es auch einfacher Grafikkarten zu entwickeln als Prozessoren.
Ich finde das "Intel" schon eine gute Leistung abgibt, wenn ihr mal bedenkt, das es vor 10 Jahren noch Spiele gab die eine Auflösung von 300x200 hatten...:daumen:
Und außerdem wird auch bald Schluss sein, weil wenn es fotorealistische bewegte Bilder in Computerspielen gibt, kann man nicht noch irgendein logisches denken der virtuellen Personen entwickeln.
Dann bräuchte man ja unbegrenzt viel Speicher...?

Aber was wollen sie dann entwickeln ?
Und ich denke der Punkt zu wo Spiele der Realität gleicht, wird schon in ca. 10 Jahren kommen, wenn man betrachtet wie schnell sich die Spieleindustrie weiterentwickelt...
2015 sollen Grafikkarten 20 Terra Flops Leistung haben... Jetzt haben aktuelle Modelle grade mal 1 TF.
Das stand glaubich in einem PCGH Artikel
Es mag an ein wenig zu viel Bier liegen, aber ich musste fast jeden Satz zweimal lesen, um dahinter zu kommen, was du ausdrücken möchtest ....... Leute, bitte achtet etwas auf das, was ihr schreibt, so was ist ganz einfach nicht mehr angenehm zu lesen :/

Aber auch die Redis hauen manchmal lustige Sachen raus, siehe erster Satz:
CPU, Coprozessor, GPU - "Larrabee" wurde schon in viele Kategorien eingeteilt, doch richtig passt das der Multicore-Chip nirgendwo
Das rote Wörtchen hat mich beim ersten Lesen doch etwas aus der Bahn geworfen ...



Naja, schluss mit dem Gemecker und mal @ topic:

Ist ja ganz schön, dass Intel hier die Werbetrommel weiterhin mit großsprurigem Geschwafel über die Zukunft von 3D-Grafik und Sätzen wie "Demnach fallen, so wörtlich, den Entwicklern regelmäßig "die Augen aus dem Kopf", wenn man ihnen "die vollen Möglichkeiten von Larrabee präsentiert" rührt, aber bis ich was handfestes gesehen habe bin ich - zu Recht wie ich finde - ziemlich skeptisch.

Intel mag der größte Chiphersteller der Welt sein, aber um kommerziell ernsthaft erfogreich zu sein, wird der Larrabee aus dem Stand heraus die kommende GTX380/HD5800 überflügeln MÜSSEN.

Man bedenke: Es soll trotz allem ein gewisser Mehraufwand in einer vernünftigen Portierung auf Intels vermeintliche Geheimwaffe vonnöten sein, und den nimmt man in der Regel nur dann auf sich, wenn es ein schnellerer Chip ist, warum sonst macht man sich die Mühe der Portierung auf einen Chip, der in keinster Weise Verbreitung hat ?! Hinzu kommt, dass Intel einen ziemlich Kampfpreis auffahren müsste, um Spieler zu locken.

Ich orakele einfach mal, Larrabee wird zumindest langsamer als die GTX380 sein, ergo müsste sie im Preis billiger sein, was aber schon dadurch erschwert wird, das der Larrabee einen sehr großen (sprich: teuren) Die hat, und da bieten sich Kampfpreise eher weniger an, zumal keiner weiß, wie weit GTX380/HD5870 jeweils leistungs- und vor allem preis/leistungstechnisch auseinander liegen werden, da sich abzeichnet, dass AMD wieder genau wie mit der HD4870 sehr aggressiv auf dem Markt auftreten wird, aufgrund einer wohl wieder kleinen, billiger herzustellenden GPU.

Und es ist ja nicht nur die Tatsache, dass Intel gut 10 Jahre hardwaretechnischen Entwicklungsrückstand gegenüber nVidia/AMD gut machen muss, ein derart exotischer Chip schreit geradezu nach Kinderkrankheiten, vor allem in den Treibern, und besonders da hat sich Intel nicht gerade mit Ruhm bekleckert in letzter Zeit ......




Wie schon mehrfach gesagt: Einfach abwarten, was dabei rauskommt, aber so lange mir nicht jemand handfeste Benchmarks/Testberichte auf den Tisch knallt gehe ich eher von einem - salopp gesagten - Flopp gegenüber den neuen Karten von nVidia/AMD aus, zumindest in der ersten Larrabee-Generation. Einfach, weil Intel außer heißer Luft nicht viel preis gibt bin ich schon der Meinung, dass die sich bewusst sind, dass ihr Chip nicht so einschlagen wird wie erhofft, ansonsten würde Intel nämlich jetzt so langsam anfangen ernsthaft die Werbetrommel zu rühren, um zu verhindern, dass sich die potenzielle Kundschaft diesen Winter mit neuen Radeons/GeForces eindecken wird.
 
ja und?
Es kommt nun einmal bei allen auf das selbe an. Sie müssen stabil sein und die Leistung der Grafikkarte möglichst effizient bereitstellen.
Nur haben die bisherigen Intelschen Grafiklösungen keine große Leistung, da reist der Treiber natürlich auch nichts mehr ;) aber stabil ist der Intel-Treiber allemal.
Auf den Intelchipsätzen (obwohl ja angeblich DX-kompatibel) starten nichtmal 10% der Spiele - das sagt im Endeffekt alles über die Treiberqualität.
 
Auf den Intelchipsätzen (obwohl ja angeblich DX-kompatibel) starten nichtmal 10% der Spiele - das sagt im Endeffekt alles über die Treiberqualität.
Also ich bin noch nicht auf die Idee gekommen auf einem Intel Chipsatz zu zoggn :what:
Dafür haben die schlicht und einfach zu wenig Leistung. Die sind zum Arbeiten ok, aber sonst nicht wirklich brauchbar.
 
Zuletzt bearbeitet:
Ich denke mal das Spieler vorerst an der Intel Lösung keinen Spaß haben werden und auch langfristig wird sich das Teil meiner Meinung nach nicht als reine Grafiklösung für Gamer durchsetzen.
Im Profibereich aber sucht man nach Inovationen, denn gerade dort gibt es seit vielen Jahren nur Aufguß zu überhöten Preisen.
Das Monster von Intel ist sicher für sehr spezielle Berechnungen intressant, ein Server mit mehreren gekoppelten Larrabee ist sicherlich zu Dingen in der Lage die Profis aus den Socken hauen.
Jedenfalls wir die erste Generation für Spieler absolut unintressant sein, bin aber überzeugt davon das auch Spieler irgendwann von den Nachfolgern profitieren, aber keinesfalls wird Intel in den nächsten Jahren eine Grafiklösung parat haben um NV/ATI auch nur im Ansatz gefährlich zu werden. Ich denke da eher an eine Zusatzkarte die zb. Physik KI o.ä. berechnet denn dafür ist der Larrabee sehr gut geeignet und Treiber für spezielle Berechnungen sind sicherlich kein Problem.

Für mich ist es einfach spannend zu sehn was mit dem Ding hinterher gemacht wird bzw. was damit möglich ist. Es könnte z.B. die PhysX Karte werden die ich immer wollte :-)
 
Es ist dir also egal bzw interessiert dich nicht, wenn 90 (bzw eher 99%) aller erhältlichen Spiele abstürzen oder Grafikfehler aufweisen??

Es kommt nun einmal bei allen auf das selbe an.
Richtig, nur haben 'die anderen' 'nen 'kleine' Vorsprung von ein paar Jährchen.
Und sogar S3/VIA bemüht sich bei den Treibern, Intel tut das, was sie immer tun -> Kosten optimieren, wie man ja auch am Memory Remapping vom i975x sieht.
Oder welchen Sinn sollte es sonst haben, dass man einen 'High End' Chipsatz baut, der nur bis etwa 6GiB RAM ohne Loch laufen kann??

Sie müssen stabil sein und die Leistung der Grafikkarte möglichst effizient bereitstellen.
Intel und stabile Grafik Treiber?!
Träum weiter...
Das haben sie in den letzten 10 Jahren nicht hinbekommen bzw wollten es nicht.

Dazu bescheissen sie noch bei der Bildqualität, wie es bei SIS bzw XGI der Fall war...

Nur haben die bisherigen Intelschen Grafiklösungen keine große Leistung, da reist der Treiber natürlich auch nichts mehr ;) aber stabil ist der Intel-Treiber allemal.
Nein, sind sie nicht.

Oder was glaubst du, warum sich die MAC User über Bildfehler bei den verbauten GMA Teilen beschwerten?!
Wenn die Intel Grafikchipsätze und Treiber so toll sind, wie du behauptest, dann zeig mir doch ein aktuelles Apple Produkt, das auch einen Intel Grafik Chipsatz einsetzt...

Ich kann da irgendwie nichts finden, ich seh da immer nur 'NVIDIA GeForce 9400M-Grafikprozessor', hm, warum machen die das bloß??

UNd auch gibts von (AFAIR) ATi einen Vergleich zwischen dem 780G und dem ach so tollen Intel Chipsatz, sehr interessant, vorallen was der Intel Chip so alles nicht kann bzw nicht korrekt und das ist 'ne Menge, sogar bei einfacheren Dingen...
 
Stefan Payne schrieb:
Es ist dir also egal bzw interessiert dich nicht, wenn 90 (bzw eher 99%) aller erhältlichen Spiele abstürzen oder Grafikfehler aufweisen??

Jap. Genau wie es mir egal ist das 99% aller Spiele bei einer Matroxkarte abstürzen oder Grafikfehler aufweisen, weil sie genau wie die Intel nicht aufs spielen ausgelegt sind. Da kannst du wie immer Stimmung machen wie du willst. Schon weil keine Intel Onboard über eigenen Speicher verfügt käme kein normaler Mensch auf die Idee damit zu spielen - außer Stefan Payne natürlich :schief: - aber der wird eh nie einen Intel kaufen, von daher ist selbst das egal.


Stefan Payne schrieb:
Und sogar S3/VIA bemüht sich bei den Treibern, Intel tut das, was sie immer tun -> Kosten optimieren, wie man ja auch am Memory Remapping vom i975x sieht.
Oder welchen Sinn sollte es sonst haben, dass man einen 'High End' Chipsatz baut, der nur bis etwa 6GiB RAM ohne Loch laufen kann??

Bitte mehr Informationen. Im Gegensatz zu dir habe ich über 2 Jahre lang ein AW9D-Max (975X) mit 8GB DDR2-800 getrieben - ohne je ein Problem gehabt zu haben. Im Gegenteil das Board war das stabilste das ich je hatte - da kommt das jetzige P5Q Deluxe nicht im Traum ran.


Stefan Payne schrieb:
Wenn die Intel Grafikchipsätze und Treiber so toll sind, wie du behauptest, dann zeig mir doch ein aktuelles Apple Produkt, das auch einen Intel Grafik Chipsatz einsetzt...

Ich kann da irgendwie nichts finden, ich seh da immer nur 'NVIDIA GeForce 9400M-Grafikprozessor', hm, warum machen die das bloß??

Liegt meiner Meinung nach eher daran das mittlerweile selbst Apple festgestellt hat das man bei Notebooks in der Preisklasse 1000€+ keine Grafik dieser Leistungsklasse mehr verbauen kann. Die Intel Grafiklösungen waren immer für günstige Arbeitstiere gut (etwas das so gar nicht in die Philosophie von Appel passen soll). Businessnotebooks mit guter Akkuleistung zum schreiben, surfen und mal einem Film abspielen - mehr wollten sie entgegen deiner Sticheleien nie sein. Aber das wirst du wohl nie kappieren :ugly:. Sicher ist der 780G besser - das bestreitet auch keiner. Nur die Verkaufszahlen im Mobilbereich zeigen wohl das das AMD auch nichts nützt wenn die restliche Plattform für die Tonne ist...


Sooo und nun zurück zum Thema. Ich habe schon bei der letzten News gesagt das der Larabee ein großes Potential hat. Ob er das jedoch von Anfang an ausnutzen kann bezweifle ich mal. Ich denke auch das die erste Generation eher zum lernen und weiterentwickeln da sein wird. Erst die zweite oder dritte Generation wird wohl wirklich konkurrenzfähig sein. Fakt ist aber das mit Intel seit Jahren der erste Konzern den Schritt in den dedizierten Grafikmarkt der sowohl die technischen als auch die finanziellen Möglichkeiten hat das ganze nachhaltig durch zuziehen. Schon das macht die Sache so spannend ;). Man kann sich bei Intel hat auch einen Fehlschlag der ersten Generation ohne weiteres leisten.
 
Zuletzt bearbeitet:
Also ich bin noch nicht auf die Idee gekommen auf einem Intel Chipsatz zu zoggn :what:
Dafür haben die schlicht und einfach zu wenig Leistung. Die sind zum Arbeiten ok, aber sonst nicht wirklich brauchbar.
Dennoch müssten die Spiele zumindest Starten, über die Leistung rede ich ja gar net. Und das es Intel nicht mal schafft einen DX-Kompatiblen Treiber zu schreiben sagt im Endeffekt alles.

Das Monster von Intel ist sicher für sehr spezielle Berechnungen intressant, ein Server mit mehreren gekoppelten Larrabee ist sicherlich zu Dingen in der Lage die Profis aus den Socken hauen.
Die nehmen eher CUDA und/oder OpenCL und dann die entsprechenden Tesla-Server von Nvidia. Denn so ein Grafikmonster passt nichtmal in die meisten Server rein, die müssen extern angeschlossen werden.
 
Jap. Genau wie es mir egal ist das 99% aller Spiele bei einer Matroxkarte abstürzen oder Grafikfehler aufweisen, weil sie genau wie die Intel nicht aufs spielen ausgelegt sind. Da kannst du wie immer Stimmung machen wie du willst. Schon weil keine Intel Onboard über eigenen Speicher verfügt käme kein normaler Mensch auf die Idee damit zu spielen - außer Stefan Payne natürlich :schief: - aber der wird eh nie einen Intel kaufen, von daher ist selbst das egal.
Du verstehst nicht um was es uns geht. Intel schafft es nicht mal gescheite Treiber für eine simple Onboard- Lösung zur programmieren. Es bleibt die Befürchtung, dass die das erst recht nicht für einen Highend- Chip hinbekommen.
Man erinnere sich nur mal daran wie lange Intel gebraucht hat um einen gescheiten DX10- Treiber für den x3100 raus zubringen... war das 1 oder 1,5 Jahre nach Release des Chips?

Zumal: Bei HW- Design konnte Intel auf gewisse Erfahrungswerte zurückgreifen - die Architektur ist ja nicht von Grund auf neu. Außerdem steht außer Frage, dass Intel fähige Ingenieure hat was das Chipdesing anbelangt. Nur bei den Treibern dürfte es wohl etwas anders aussehen...
 
Zuletzt bearbeitet:
Du verstehst nicht um was es uns geht. Intel schafft es nicht mal gescheite Treiber für eine simple Onboard- Lösung zur programmieren. Es bleibt die Befürchtung, dass die das erst recht nicht für einen Highend- Chip hinbekommen.
Man erinnere sich nur mal daran wie lange Intel gebraucht hat um einen gescheiten DX10- Treiber für den x3100 raus zubringen... war das 1 oder 1,5 Jahre nach Release des Chips?

Zumal: Bei HW- Design konnte Intel auf gewisse Erfahrungswerte zurückgreifen - die Architektur ist ja nicht von Grund auf neu. Außerdem steht außer Frage, dass Intel fähige Ingenieure hat was das Chipdesing anbelangt. Nur bei den Treibern dürfte es wohl etwas anders aussehen...
Zumal Intel ja sogar eigenen Angaben nach mit dem Larrabee relatives Neuland betritt, und wenn man "schon" bei so simplen Dingen wie stabilen DX9/10 Treibern schlicht und ergreifend versagt lässt einen das böse Vorahnungen für Larrabee durch den Kopf schießen .....

Ich befürchte ja - wie schon ein paar Postings vorher von mir erwähnt - das Intel sich hier übernimmt, aus dem Stand heraus mit nVidia/AMD in jedweder Hinsicht leistungs- und featuremäßig mithalten können, seit Jahren erstmals stabile Treiber und gleichzeitig ein angeblich überlegener, hochflexibler GPGPU-Chip, der auf einer "relativ" neuen Kombination von massenhaft verschalteten x86-Kernen (auf P3-Basis war das glaube ich ?!) basiert .... mutig, mutig ..... zumal bei mir von den letzten paar Monaten karger Gerüchte nur Dinge wie "sehr hoher Stromverbrauch / riesiger Die / 2 Zusatzchips vonnöten (schlecht runterzutakten, daher Zusatzchips für "Billigaufgaben" nötig ?!) hängen geblieben sind .... ach ja, und Intels Durchhalteparolen, was für ein toller Chip der Larrabee doch ist, und wie sehr man die 3D-Grafik verändern wird ..... :schief:
 
P1-Basis, von Zusatzchips hab ich noch nichts gelesen - nur von zusätzlichen Einheiten, aber das handhabt z.B. AMD ja auch nicht anders. Große DIEs sind das einzige Element bei dem ganzen Projekt, mit dem Intel wirklich Erfahrung hat, da würde ich mir keine Gedanken machen.
 
P1-Basis, von Zusatzchips hab ich noch nichts gelesen - nur von zusätzlichen Einheiten, aber das handhabt z.B. AMD ja auch nicht anders. Große DIEs sind das einzige Element bei dem ganzen Projekt, mit dem Intel wirklich Erfahrung hat, da würde ich mir keine Gedanken machen.
"Chips" war zugegebenermaßen etwas schwamig, ich meinte die beiden HD-Decoder hier:
Larrabee mit zwei HD-Decodern, nächste Version schon 2010 - Golem.de

Aber danke für den P1-Hinweis, war mir da nicht mehr ganz sicher ...
 
P1-Basis, von Zusatzchips hab ich noch nichts gelesen - nur von zusätzlichen Einheiten, aber das handhabt z.B. AMD ja auch nicht anders. Große DIEs sind das einzige Element bei dem ganzen Projekt, mit dem Intel wirklich Erfahrung hat, da würde ich mir keine Gedanken machen.
Das mit der Pentium 1 Basis ist Unsinn und trifft nicht zu.
Das ist was ganz neues, mitm P1 hat das höchstens gemein, dass der Code von damals eventuell ausgeführt werden könnte...

Jap. Genau wie es mir egal ist das 99% aller Spiele bei einer Matroxkarte abstürzen oder Grafikfehler aufweisen, weil sie genau wie die Intel nicht aufs spielen ausgelegt sind.
Mir wäre neu, dass das bei Matrox der Fall wäre.
Zumindest der D3D Treiber war bei denen immer ganz ordentlich, weder mit meiner G400 noch mit der Parhelia hatte ich irgendwelche nennenswerten Probleme.

Nur mit OpenGL habens sich nicht solche Mühe gegeben...
Aber kannst gern versuchen, ich würd meinen Po drauf setzen, dass du mit dem Intel IGP Zeugs eher auf Probleme stößt, als mit einer Matrox Karte!!
Die Treiber von den Kanadiern waren eigentlich immer astrein...

Da kannst du wie immer Stimmung machen wie du willst. Schon weil keine Intel Onboard über eigenen Speicher verfügt käme kein normaler Mensch auf die Idee damit zu spielen - außer Stefan Payne natürlich :schief: - aber der wird eh nie einen Intel kaufen, von daher ist selbst das egal.
Das ist, mit verlaub, eine blöde Ausrede, sorry, aber die aktuellen IGP Lösungen sind so schnell, dass man damit locker einige 4-5 Jahre alten Spiele mit spielen kann, zum Teil sogar mit FSAA!
Spellforce 1 zum Beispiel geht ganz ordentlich auf dem 780G...
Und dann gibts auch noch einige Cheats bei Intel, siehe hier

Und hier wirds richtig heftig.
Intel kann nicht mal 'The Sims 2' fehlerfrei darstellen...

Bitte mehr Informationen. Im Gegensatz zu dir habe ich über 2 Jahre lang ein AW9D-Max (975X) mit 8GB DDR2-800 getrieben - ohne je ein Problem gehabt zu haben. Im Gegenteil das Board war das stabilste das ich je hatte - da kommt das jetzige P5Q Deluxe nicht im Traum ran.
Jo und wie viel von den 8GiB hast nicht genutzt bzw konntest nicht nutzen?!
Schon mal drauf geachtet, ob du auch wirklich 8GiB nutzen konntest und nicht nur 7,5?!

Liegt meiner Meinung nach eher daran das mittlerweile selbst Apple festgestellt hat das man bei Notebooks in der Preisklasse 1000€+ keine Grafik dieser Leistungsklasse mehr verbauen kann.
Und wieder eine 'Intel freundliche Ausrede', warum gibst du nicht einfach zu, dass die Intel Graphic Teile Mist sind und es eben nicht nur an der Leistung lag?!
das hier spricht auch für die Qualität der Intel Treiber...

Die Intel Grafiklösungen waren immer für günstige Arbeitstiere gut (etwas das so gar nicht in die Philosophie von Appel passen soll). Businessnotebooks mit guter Akkuleistung zum schreiben, surfen und mal einem Film abspielen - mehr wollten sie entgegen deiner Sticheleien nie sein. Aber das wirst du wohl nie kappieren :ugly:. Sicher ist der 780G besser - das bestreitet auch keiner. Nur die Verkaufszahlen im Mobilbereich zeigen wohl das das AMD auch nichts nützt wenn die restliche Plattform für die Tonne ist...
Au mann, noch platter kann man etwas mieses nicht schön reden...

Du verstehst nicht um was es uns geht. Intel schafft es nicht mal gescheite Treiber für eine simple Onboard- Lösung zur programmieren. Es bleibt die Befürchtung, dass die das erst recht nicht für einen Highend- Chip hinbekommen.
Man erinnere sich nur mal daran wie lange Intel gebraucht hat um einen gescheiten DX10- Treiber für den x3100 raus zubringen... war das 1 oder 1,5 Jahre nach Release des Chips?

Zumal: Bei HW- Design konnte Intel auf gewisse Erfahrungswerte zurückgreifen - die Architektur ist ja nicht von Grund auf neu. Außerdem steht außer Frage, dass Intel fähige Ingenieure hat was das Chipdesing anbelangt. Nur bei den Treibern dürfte es wohl etwas anders aussehen...
Genau, das ist der Punkt, zumal ich auch noch behaupten würde, dass die Hardware nur ein sehr kleiner Teil des ganzen ist, ein Großteil macht der Treiber aus...
Wie man ja auch an dem ziemlich kaputten R200 sehen konnte, der dennoch 'irgendwie' funktionierte, Treiber sei dank...
 
Zurück