Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum? gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum?
 
Sollte Fermi das werden was NV sich erhofft, werden sie sicher froh sein, keine Konkurent auf dem gebiet zu haben. Wenn der ausstieg von Intel aber
zum desinteresse der Kunden an Kombielösungen führt, dann hatt NV ein Problem.
So muss die Leistung am ende sowieso stimmen.
 
Nvidia sagt schon seit Monaten das der Larrabee nix wird.
Und NV sagt auch das sie 2/3 ihres Umsatzes (edit: Gewinn, nicht Umsatz) im Profibereich erwirtschaften.

Also haben die weder vor Intel angst gehabt noch kümmert sie die Gamingperformance, weil sie dort eh nur aus Prestigegründen im Markt sind.
Ausserdem 240 Cores (GT200) gegen jetzt 512 Cores (Fermi) klingt für mich erstmal nach einer Verdoppelung der Leistung.

Das einzige Problem das NV hat, ist der Fertigungsprozess ... und die höheren Kosten, aber wenn ein Singlchip Fermi so schnell werden sollte wie ein Dualchip HD5970, ja mei, warum nicht.
 
Zuletzt bearbeitet:
Tja es ist zwar schön und gut, dass ATI seine neue Generation schon "draußen" hat, aber so richtig was bringen tuts bei der lauen Produktion nichts. Noch warten sicher viele Käufer die Situation ab. Entweder bis sich die Marktlage der HD5800er stabilisiert und somit auch wieder die Preise (auf Einführungsniveau) fallen und vor allem keine Lieferengpässe mit monatelanger Wartezeit bestehen.

Bis das soweit ist, hat NVIDIA sicher noch ein bisschen Zeit. Aber ein Problem wird Fermi wohl haben, er wird einfach viel zu teuer sein und so bahnbrechend stelle ich mir die Grafikleistung im Vergleich zu ATIs Karten nun auch nicht vor, dass es den wahrscheinlich deutlichen Aufpreis wert wäre (gegenüber den Einführungspreisen nicht den gerade herrschenden Wucherpreisen). Schon die letzte Generation war ja im Produktionskosten-vergleich zur HD48xx einfach viel zu teuer, auch wenn sich die Marktpreise zumindest bei der GTX260 ja dennoch sehr an die Konkurrenz angenähert haben.

Und was Intels Larrabree angeht haben sie ja selbst quasi mit dem mittelfristigen Rückzug zugegeben, dass sie einfach noch nicht in der Lage sind mit den anderen in Konkurrenz zu treten. Mal schauen was aus dem Projekt Larrabree 2 wird.
 
Nvidia sagt schon seit Monaten das der Larrabee nix wird.
Und NV sagt auch das sie 2/3 ihres Umsatzes im Profibereich erwirtschaften.

Also haben die weder vor Intel angst gehabt noch kümmert sie die Gamingperformance, weil sie dort eh nur aus Prestigegründen im Markt sind.
Ausserdem 240 Cores (GT200) gegen jetzt 512 Cores (Fermi) klingt für mich erstmal nach einer Verdoppelung der Leistung.

Das einzige Problem das NV hat, ist der Fertigungsprozess ... und die höheren Kosten, aber wenn ein Singlchip Fermi so schnell werden sollte wie ein Dualchip HD5970, ja mei, warum nicht.

Da kann ich dir nur zustimmen. (BTW ist das ja alles noch schöne Theorie)

mfg eMMe
 
Für mich sieht das so aus, als hätte sich nVidia ziemlich armentwickelt, um Larrabee platt zu machen.
Wenn Fermi nicht die absolute Über-Graka wird, sehe ich ziemlich schwarz für nVidia, auf dem Grafikkarten-Markt gegen AMD zu punkten. Die Dinger sind nämlich auf jeden Fall günstiger (3 Milliarden Transistoren kosten!) und AMD kann beim Fermi-Release schon auf Erfahrungen mit dem Chip zurückblicken und das Gelernte umsetzen. Wenn Fermi AMD nicht mit min. 15 bis 20% Leistungsvorsprung an die Wand spielt, wird nVidia nen ziemlich schweren Stand haben. Vor allem da AMD aktuell praktisch allein auf dem Graka-Markt ist und Weihnachten voll mitnehmen kann.

Fazit: Am Markt vorbeientwickelt(?)
 
Ich würde Nvidia mit Fermi noch nicht abschreiben. Bisher ist zwar wenig über die tatsächliche Spieleperformance bekannt, umgekehrt daraus zu schließen, dass daraus nichts wird, ist aber auch übertrieben und evtl. vorschnell.

Für die Leistung vom Fermi-Chip finden sich garantiert Abnehmer. So etwas wie "zu viel Rechenleistung" gabs im PC- und Serverbereich eigentlich noch nie ;)

Im Endeffekt sind eigentlich alle Aussagen in dem Bereich momentan gleichzusetzen mit dem berühmten Blick in die Glaskugel. Welcher Chip, sei es nun Cypress oder Fermi, am Ende die Nase vorn haben wird, hängt ja nicht nur von der reinen Rechenleistung bzw. Gameperformance ab sondern auch von anderen Dingen wie Preis/Leistung, Lieferbarkeit, Lautstärke, Stromverbrauch etc... Lange wirds ja hoffentlich nicht mehr dauern, bis Nvidia mal ein paar weitere Fakten nennt, es Testmuster gibt und sich die Liefersituation und die preisliche Gestaltung der 58XX/59XX Karten bessert. Dann werden die Karten neu gemischt. Defakto sind momentan ja weder von Nvidia noch von ATI performante DX11 Karten verfügbar. Da nehmen die sich diesmal echt nichts ;) Schließlich gillt: Paperlaunch == No launche :lol:
 
über fermi ist absolut nichts hieb- und stichfestes bekannt, bis auf das er kommen wird...nur wann??

@Hugo 78

woher hast du denn die info dass fermi 512 SP 's haben wird?? wenn es so zutrifft wie du es vermutest, sprich eine verdoppelung der leistung, wäre das doch ein riesenschritt gegenüber ati!! die haben es nämlich nicht geschafft ihre leistung zu verdoppeln (auf dem papier vielleicht).nichtsdestotrotz versteh ich diese ungeduld nicht in bezug auf den gt300.es gibt noch nichteinmal eine handvoll software, die die neue generation nur ansatzweise sinnvoll nutzt und es wird dank unseren lieben "High Tech"- konsolen xbox360 & ps3 auch so schnell keine dx11-only games geben, die nur einen hauch von einem kaufargument für die neuen karten liefern.ich für meinen teil wäre nämlich nicht bereit für etwas viel geld auszugeben nur damit ich es "schon mal habe", aber effektiv ich es nicht nutzen kann.somit wird meine kaufentscheidung von der vorhandenen software und nicht der vorhandenen und überteuerten hardware beeinflusst!
 
Das INtel ohne Zukauf von KnowHow nichts brauchbares auf die Beine bringt, ist mir mehr als einleuchtend, dass beweisen schliesslich auch die Intel Onboard Dingens. Die sollen mal Matrox kaufen o.ä. dann wird das schon. Die Kombination aus CPU und GPU wird wenn überhaupt jemals in 10 Jahren zum daddeln taugen. Das sollte jedem einleuchten der eine 5870 sieht und sich diese unter dem CPU Kühler vorstellen mag.

Was mit dem Fermi is, is mir Jacke wie Hose, ich hatte gehofft das sie was gebacken bekommen und die ATI Preise unter Druck setzen, aber ich war das Warten leid, meine 4870 war schon alterschwach so lang wie ich auf der schon gedaddelt hab. Jetzt hab ich eben bissel mehr ausgegeben, bin mit der 5870 aber hochzufrieden. Mit anderen Worten sollen Sie machen was sie wollen, ein eingefleischter Nvidianer muss halt Sitzfleisch beweisen oder sich zwischenzeitlich ne 5770 holen oder so.

In der PCGH Print steht, die 5770 is in DX11 bei Battleforge schneller als eine 285er in DX10, das find ich ja mal oberscharf und die 5870 is sogar mehr als doppelt so schnell. Andere DX11 Games folgen. Das muss Fermi erstmal toppen oder eben auch nich, mich juckts nicht mehr ....
 
Das INtel ohne Zukauf von KnowHow nichts brauchbares auf die Beine bringt, ist mir mehr als einleuchtend, dass beweisen schliesslich auch die Intel Onboard Dingens. Die sollen mal Matrox kaufen o.ä. dann wird das schon. Die Kombination aus CPU und GPU wird wenn überhaupt jemals in 10 Jahren zum daddeln taugen. Das sollte jedem einleuchten der eine 5870 sieht und sich diese unter dem CPU Kühler vorstellen mag.

Was mit dem Fermi is, is mir Jacke wie Hose, ich hatte gehofft das sie was gebacken bekommen und die ATI Preise unter Druck setzen, aber ich war das Warten leid, meine 4870 war schon alterschwach so lang wie ich auf der schon gedaddelt hab. Jetzt hab ich eben bissel mehr ausgegeben, bin mit der 5870 aber hochzufrieden. Mit anderen Worten sollen Sie machen was sie wollen, ein eingefleischter Nvidianer muss halt Sitzfleisch beweisen oder sich zwischenzeitlich ne 5770 holen oder so.

In der PCGH Print steht, die 5770 is in DX11 bei Battleforge schneller als eine 285er in DX10, das find ich ja mal oberscharf und die 5870 is sogar mehr als doppelt so schnell. Andere DX11 Games folgen. Das muss Fermi erstmal toppen oder eben auch nich, mich juckts nicht mehr ....

Ich sehe das genauso! DX11 ist derzeit zwar noch nicht flächendeckend verwendbar, aber bis DX12 rauskommt sind zumindest die neuesten Spiele DX11 Kompatibel! Wenn Nvidia floppt juckts mich auch nicht. Meine HD5870 soll zumindest bis zur 6*** er Serie halten und die soll dann schneller sein als die Nvidia GF100 Serie, möge AMD noch so hohe Preise machen werde ich weiter bei AMD bleiben. Nicht das mich die Fermi Karten nicht reizen würden, ganz im Gegenteil ich fände es super so eine schnelle Karte zu haben. Die Leute aber, die mich dann mit einer Fermi auslachen werden haben keinen Grund, da ich zurzeit nur eine 8400GS habe für sage und schreibe 24€ besitze. Dadurch lohnt sich der Kauf der HD5870 für mich allemal. Und ich denke, dass bei Nvidia auch ein Paperlaunch geschehen wird!
 
Sehr Spannend auf jeden Fall im Moment auf dem Grafikmarkt.
Mit Larrabee war ja an zu nehmen dsa es nix wird xD
Zumindest habe ich es mir gedacht :D
 
Naja der Fermi ist an und für Sich schon eine Fehlentwicklung für den Spielemarkt. Viel zu viel Transistoren verschwendet die man lieber für mehr Rohleistung nutzen sollte. Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.

Und viel Gewinn im Profibereich ist auch toll, aber ohne einen Massenmarkt der die Produktion und Entwicklung erst rentabel macht, wären auch da keine Gewinne mehr zu holen.

Also von daher hätte man eher an einer effizienten Spieler-Grafikkarte basteln sollen und das Feld HPC/GPGPU etwas sekundärer betrachten.

AMD macht es ja vor. Ein gutes Produkt für den 200-300 Euro Bereich, verdoppeln für High-End und gut (+schnell) skalierbar für Mid- und LowEnd. nVidia quält sich da etwas künstlich mit Transistorenmonstern ab, die wohl wieder gefühlte Ewigkeiten brauchen um auch im LowEnd Bereich anzukommen. Und schätzungsweise wird aus Kostengründen auch ein guter Teil der Innovationen des "großen" GT300 dafür beschnitten werden müssen.


Naja kann noch werden, aber so gerne wie nVidia Sachen raus posaunt kann die Grafikleistung nicht überwältigend sein. Besonders interessant wird es dann gegen die HD 5970. EIne Dual-GPU Karte wird wohl anfangs recht schwer zu realisieren sein. Zumindest bei PCIe konformer TDP..
 
[...] Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.
Ist das nach deiner Rechnung nicht genau die selbe Effizienz? :O

Also langsam wird es echt Zeit für NV, denn sonst haben sie wortwörtlich Weihnachten verpennt und wohlmöglich noch das Nachweihnachtsgeschäft zwecks Geldgeschenke, etc. pp. Man wird immer und immer wieder vertöstet und ohne brauchbare Angaben im Regen stehen gelassen. Allerdings bin ich zu gespannt auf die Karte, als dass ich mir jetzt voreilig ein Ati Pixelbeschleuniger kaufe. Das kann ich dann immer noch machen, wenn der Fermi flopt. Und das ganze zu etwas moderateren Preisen bzw. mehr Leistung (HD5890?).
 
Zuletzt bearbeitet:
Naja der Fermi ist an und für Sich schon eine Fehlentwicklung für den Spielemarkt. Viel zu viel Transistoren verschwendet die man lieber für mehr Rohleistung nutzen sollte. Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)
 
Zurück