Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum?

Die Analysten sehen dies wohl als Chance für NVidia - deren Aktie steht grad bei mehr als +12%. Die von Intel steht mit -0,44% nur minimal im Negativbereich - da sieht man also erstmal keine negativen Auswirkungen für das Geschäft von Intel durch den Wegfall.
 
Je länger sich der Release der Fermikarten verzögert, desto zufriedener bin ich mit dem Kauf meiner 5870.

Die Leistung der neuen Nvidias ist für mich auch garnicht so ausschlaggebend. Ich bezweifle nicht, dass sie (zumindest die 5870 von) Amd schlagen werden. Alles andere wäre ein Desaster. Was mich viel mehr interessiert ist der Preis. Ich glaube die neuen Karten werden schweineteuer...
 
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)
deine 1. aussage ist schonmal falsch.
du vergleichst 55nm mit 40nm.
334 mm² beim RV870 gegen 263 mm² beim RV770 sind nicht doppelt so groß, sondern nur ~27% größer.

ein GT200 hat 576 mm².
jetzt rechne ich mal so wie du:
576mm²/334mm²= ~1,725
ein GT200 ist also etwa 72,5% größer, der RV870 ist aber trotzdem 30% schneller (hast du behauptet).

AMDs Grafiksparte fährt sehr wohl Gewinne ein.
Sie ist sogar der einzige Grund, warum AMD so "niedrigen" Verlust fährt.
 
Zuletzt bearbeitet:
Ich hätte nicht gedacht, dass Intel sowas passiert...die sind doch sonst immer so perfekt aufgestellt und durchgeplant.
Ich finde es nur richtig, dass Intel die Karte nicht rausbringt.
Die würden aktuell auf dem Markt, auf den die Karten Zielen, nichts bringen, angesichts der Gegner.
Die nächste Generation wird dann vielleicht auf den Markt gebarcht, dann aber wahrscheinlich auch nur für den den Profibereich, in dem auch ManyCore genutzt wird(Wissenschaftssektor, etc.)
Mal sehen, was sich in Zukunft so ergibt. Ist zwar schade für Nvidia, aber das Leben ist halt nicht immer fair.
Mal sehen, was die an Fermi noch drehen können.
 
Naja... wie ich schon vor Wochen hier irgendwo gepostet habe: Es hätte mich auch sehr gewundert wenn Larrabee irgendetwas hätte erreichen können gegen die 2 Großen im Grafikgeschäft mit Jahrzehnten Erfahrung.

Und was NVidia angeht: Ich glaube zwar nicht dass es so kommt aber ich würde mich totlachen wenn Fermi son richtiger Flop werden würde... nachdem NV jahrelang Chips nur leicht verändert und unter anderem Namen verkauft hat und nachdem sie ständig davon erzählen wie wahnsinnig wichtig die Anwendungsorientiertheit ihres neuen Chips ist und dass sie ja ne Softwarefirma sind würde ich es ihnen irgendwie wünschen wider auf den Boden der Tatsachen zurückgeholt zu werden...
 
Ich fand meine NV-Karten bisher immer TOP, wenn sie auch vllt. etwas "überteuert" waren,
aber bezüglich der jetzigen Erwartungen an NV seh ich das wie folgt.
Entweder NV ist ein bisschen (sorry) "großkotzig" geworden und verschmäht den Gamer-Markt nach und nach,
weil sie "es sich leisten können" da sie ihren Löwenanteil hier nicht verdienen (müssen),
oder sie haben einen richtigen "Knaller" in der Hinterhand, den keiner erwartet.
Hoffen tu ich auf letzteres, befürchten tu ich aber, dass NV nix halbes und nix ganzes auf den Markt bringt.

Letztendlich können wir doch nur abwarten und was auch immer trinken...
...und Gerüchteküchen verfolgen ;-)

greetz
 
Für Intel wie für NVidia bedeutet diese Ansage auf lange Sicht den Abschuss aus der Games-Hardware Sparte, denn es ist schlichtweg die Weigerung weiter direkt mit nVidia zu kooperieren. AMD gelang damals ein enormer Coup als sie ATI aufkauften und sich einverleibten denn nun entwickeln sie CPUs , GPUs und Chipsätze für Mainboards gemeinsam und parallel aufeinander abgestimmt. Am aussagekräftigsten ist da wohl dass die Weltrekordhalter und Top 10 im Übertakten sowie die momentan leistungsfähigste Grafikkarte und der momentan schnellste Supercomputer der Welt mit Chips aus dem Hause AMD bestückt sind. AMD hat schon lange erkannt, das die wahre Power eines PC Systems nicht aus schierer Leistung einzelner Komponenten erwächst sondern aus deren Zusammenspiel! Du kannst noch soviel Power in der Grafikkarte haben wenn dein CPU noch single-core ist wars Geld dafür grade fürn arsch! Ich persönlich empfehle jedem Kunden der zu mir kommt und sagt bau mir für gutes Geld einen Rechner mit dem ich die Spiele der nächsten Gerneration ohne Probleme zocken kann die :hail:Dragon:hail: Plattform von AMD. Denn wenn du das Gleiche Geld in nVidia und Intel steckst bekommste nichtmal nen halb so guten Rechner raus!:devil:
 
deine 1. aussage ist schonmal falsch.
du vergleichst 55nm mit 40nm.
334 mm² beim RV870 gegen 263 mm² beim RV770 sind nicht doppelt so groß, sondern nur ~27% größer.
Nein, ich vergleiche Transistoren ;)

RV770: 956.000.000
RV870: 2.100.000.000
GT200: 1.400.000.000

Wie man siehst ist der RV870 sogar mehr als doppelt so groß wie der RV770, schafft es aber nicht 100% schneller zu sein und ist nur 30% schneller als der GT200 - bei 50% mehr Transistoren.

ein GT200 hat 576 mm².
jetzt rechne ich mal so wie du:
576mm²/334mm²= ~1,725
ein GT200 ist also etwa 72,5% größer, der RV870 ist aber trotzdem 30% schneller (hast du behauptet).
Jetzt wirfst du 55nm und 40nm durcheinander.

AMDs Grafiksparte fährt sehr wohl Gewinne ein.
Sie ist sogar der einzige Grund, warum AMD so "niedrigen" Verlust fährt.
Irgendwas im ein/zweistelligen Millionenbereich. Nichts im Vergleich zu Nvidia.
 
du solltest dringen die news lesen:) das ist ein schritt gegen NV und keine aufgabe

Wenn AMD ab morgen keine CPUs mehr baut, ist das dann ein Schritt gegen Intel? :schief:

NV juckt das nicht das Larrabee nicht kommt, ganz im Gegenteil die jubeln grad, weil der einzig mögliche Konkurent für ihr Hauptgeschäft (HPC) grad in Sack haut.

Keine Ahung warum Carsten Spille in seinem Artikel einen anderen Eindruck vermitteln will, mir scheint aber er hält die kleinen Gewinnspannen im Gamingbereich für wichtiger, als die im Profisektor.
 
Nein, ich vergleiche Transistoren ;)

RV770: 956.000.000
RV870: 2.100.000.000
GT200: 1.400.000.000

Wie man siehst ist der RV870 sogar mehr als doppelt so groß wie der RV770, schafft es aber nicht 100% schneller zu sein und ist nur 30% schneller als der GT200 - bei 50% mehr Transistoren.

Meine das ATI nie behauptet hat das der RV870 zu 100% schneller ist als der GT200,
sie ist aber zu fast 100% schneller als ihr vorgänger der RV770.
Andersrum hat der GT200 knapp 33% weniger Transistoren als der RV870 und ist 30% langsamer.
 
Ich bin ein Idiot Bucklew.
Ich dachte tatsächlich, du meintest mit "Größe" die feststehende metrische Einheit und nicht eine Anzahl an Transistoren...
Aber schön, da mal drüber gesprochen zu haben.
 
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)

Ich verstehe nicht, wieso du deine Argumente immer mit den Finanzzahlen untermauerst. Kunden interessiert es nicht besonders. Die wollen Produkte auf dem Markt sehen, die sie vergleichen koennen.

Wichtig ist, was auf dem Markt ist, was genau kann das Produkt, wie teuer es ist, und wie schlaegt sich das Produkt gegen der Konkurrenz.

Ich freue mich genauso wie du auf die DX11 Grafikkarten von nVidia, aber zur Zeit kann man schwer die Leistung der kommenden Grafikkarten durch Finanzzahlen begruenden.
 
Ich verstehe nicht, wieso du deine Argumente immer mit den Finanzzahlen untermauerst. Kunden interessiert es nicht besonders. Die wollen Produkte auf dem Markt sehen, die sie vergleichen koennen.
Kunden kaufen das, was sie wollen, nach dem vergleichen und daher kann man aus den Finanzzahlen im Endeffekt 1:1 rückschließen, wie erfolgreich (oder nicht erfolgreich) die Produkte sind oder waren.
 
Ich hab mich ja in einem vorangegangenen Thread gestern dazu schon geäußert und da schon vermutet, dass Nvidia mit dem Fermi ein Griff ins Klo landen könnte. Ich hab das mal GeForce FX reloaded genannt.

Nvidia hat den Fermi ja ziehmlich vollgestopft mit Transistoren, da er ja für den HPC-Markt gedacht ist. Da dies bei Spielen aber kaum Vorteile bringen wird, könnte der Fermi-Chip für Gamer ganz schnell uninteressant werden. Nämlich dann, wenn der Fermi in der Produktion extrem teuer und kaum schneller als die HD 5800er und 5900er von ATI ist. Ich kann mir gut vorstellen, dass Nvidia für eine Fermi-Karten, nennen wir sie mal GTX 380, Preise von weit über 500€ verlangen wird oder sogar muss um die Produktionskosten zu decken.

Denn wenn man sich die Ausbeute der Produktion von TSMC anschaut, fällt auf, dass gut 60% der Produzierten Chips Ausschuss sind. Wenn da Nvidia mit dem hochkomplexen Fermi kommt, sind 40% ausbeute unwahrscheinlich.

Wenn Nvidia also eine Karte auf den Markt bringt, die vielleicht 10% schneller ist als die HD 5870, dabei aber 600€ kostet, also 200€ mehr, dann wird sich diese Karte nicht sonderlich gut verkaufen.
Zumal ATI noch einige Asse im Ärmel zu haben scheint, wenn man nur daran denkt, dass ein Refresh mehr als wahrscheinlich ist. Es hieß ja es werden XTX Karten kommen. Vielleicht auch noch 5890er usw.

Wenn der Fermi dann endlich mal draußen ist, kann ATI bequem die Preise senken, da sie momentan ja keine wirkliche Konkurenz haben und somit die Preise eben relativ hoch sind. Bis dahin könnte ATI womöglich schon die nächste Generation im 32nm Verfahren in Vorbereitung haben und diese dann bei Global Foundries fertigen lassen. Wenn Ich das Sagen bei ATI hätte, würde Ich es jedenfalls so machen, da der 40nm Prozess anscheinend mehr Probleme macht als der 32nm Prozess. Es hätte noch weitere Vorteile: noch weniger Stromverbrauch, höhere Taktraten, höhere Yield-Rate, usw. Für ATI wäre es ein riesiger Vorteil nicht auf TSMC angewiesen zu sein, so wie es Nvidia ist.

Man kann zusammenfassend also sagen, dass der Fermi-Chip viel komplexer als der RV870 ist und daher zu einer noch geringeren Yield-Rate führen wird, was sehr hohe Preise nach sich ziehen wird. Die enorm komplexe Architektur könnte zudem auch kontraproduktiv sein für die Spiele-Performance des Chips. Ein so großer Chip wird auch viel Strom fressen, sehr heiß werden und einen relativ lauten Kühler benötigen.

Alles in Allem hat der Fermi das Potential eine zweite GeForce FX zu werden für Nvidia. Aber Ich lasse mich gerne durch vom Gegenteil überzeugen!

Noch ein Wort zum Nvidia Fanboy Bucklew: Wenn AMD keine CPUs verkaufen würde, sondern nur Grafikkarten, dann hätten sie viel bessere Quartalszahlen als Nvidia. Nvidia ist für mich sowieso nur ein Branchen-Riese der auf die Quartalszahlen schaut.
Wenn man Nvidias Produkte nach rein wirtschaftlichen Kriterien beurteilt, stehen sie schlechter da, als die von AMD und ATI. Das sieht man allein an den Produktionskosten der RV770 GPUs. Aber Nvidia wird irgendwann auch noch merken, dass sie auf dem falschen Weg sind, wenn dieser größenwahnsinnige, inkompetente Huang endlich weg ist.

Apropos HPC-Geschäft. Ich würde mit IBM rechnen, die könnten Nvidia gewaltig in den Sack hauen mit deren neuer CPU.
 
Zuletzt bearbeitet:
Die Aktienkurse ist mir eigentlich sch.... egal wenn ich mir ne Grafikkarte kaufe (zumal sie selten Auskunft über reale Unternehmenswerte liefern).
Als ich mir letztes Jahr im August meine Radeon 4870 geholt hatte standen da noch die GT260 und die GT280 zur Auswahl. Meine Radeon hatte 200€ gekostet, die GT260 war vieleicht 5% schneller im Schnitt aber auch 50€ (25%) teurer und bei der GT280 war das Teuerungs/Mehrleistungsverhältnis sogar noch bescheidener. Da ist es mir nich schwer gefallen mich zu entscheiden.
Ich glaube Preis/Leistung ist mittlerweile für viele Käufer der entscheidene Faktor und da kann AMD derzeit eindeutig Punkten.
Ich habe keinen Zweifel daran das Fermi ein wahres Leistungsmonster werden wird, die Frage ist nur wie viele Leute bereit sein werden für 30% mehr Power 60% mehr Euronen auf den Tisch zu legen?
 
Die Aktienkurse ist mir eigentlich sch.... egal wenn ich mir ne Grafikkarte kaufe (zumal sie selten Auskunft über reale Unternehmenswerte liefern).
Als ich mir letztes Jahr im August meine Radeon 4870 geholt hatte standen da noch die GT260 und die GT280 zur Auswahl. Meine Radeon hatte 200€ gekostet, die GT260 war vieleicht 5% schneller im Schnitt aber auch 50€ (25%) teurer und bei der GT280 war das Teuerungs/Mehrleistungsverhältnis sogar noch bescheidener. Da ist es mir nich schwer gefallen mich zu entscheiden.
Ich glaube Preis/Leistung ist mittlerweile für viele Käufer der entscheidene Faktor und da kann AMD derzeit eindeutig Punkten.
Ich habe keinen Zweifel daran das Fermi ein wahres Leistungsmonster werden wird, die Frage ist nur wie viele Leute bereit sein werden für 30% mehr Power 60% mehr Euronen auf den Tisch zu legen?

Ich würde nicht mal davon ausgehen dass der Fermi 30% schneller ist, sonder eher 10% und dafür 60% teurer. Wer sich da eine Fermi-Karte kauft muss ein Vollidiot oder ein Fanboy sein. Die Fermi-Karten werden kaum billiger sein, als ATIs Karten. Eine HD 5970 kann 10% schneller als eine Fermi sein und ist dann immer noch 10-20% billiger. Womöglich ist der Fermi auch so überladen, dass er sein Potential gar nicht "auf die Straße" bringt, ähnlich einem Auto mit 2000 PS und null Grip. Nvidia gibt sich zwar sehr selbstbewusst, aber das sind sie ja immer und es gab schon einige Fehlschläge.
 
ich erinnere mich noch sehr gut daran, wie selbstbewusst nvidia mit der FX-Serie war und wie sehr sie gehyped wurde... (stichwort grafikdemos und zahlenprotzen)
das ende vom lied kennen die meisten hier ja.
(meine damalige radeon 9700 war in der dawn demo glaube ich trotz wrapper schneller als eine geforce FX, obwohl diese viel später kam ^^)
 
Zurück