• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum? gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Intel sagt Larrabee-Grafikkarte ab, Nividias Fermi nun im luftleeren Raum?
 

Adam West

Software-Overclocker(in)
Und spätestens dort dürfte dann jedes Prozent möglicher Spieleleistung dringend nötig sein.

naja, um nicht zu vergessen, auch ein akzeptabler preis sollte für den kunden anfallen... ist man ja nicht gerade gewöhnt von NV....
 

Sularko

Freizeitschrauber(in)
Sollte Fermi das werden was NV sich erhofft, werden sie sicher froh sein, keine Konkurent auf dem gebiet zu haben. Wenn der ausstieg von Intel aber
zum desinteresse der Kunden an Kombielösungen führt, dann hatt NV ein Problem.
So muss die Leistung am ende sowieso stimmen.
 

Hugo78

PCGH-Community-Veteran(in)
Nvidia sagt schon seit Monaten das der Larrabee nix wird.
Und NV sagt auch das sie 2/3 ihres Umsatzes (edit: Gewinn, nicht Umsatz) im Profibereich erwirtschaften.

Also haben die weder vor Intel angst gehabt noch kümmert sie die Gamingperformance, weil sie dort eh nur aus Prestigegründen im Markt sind.
Ausserdem 240 Cores (GT200) gegen jetzt 512 Cores (Fermi) klingt für mich erstmal nach einer Verdoppelung der Leistung.

Das einzige Problem das NV hat, ist der Fertigungsprozess ... und die höheren Kosten, aber wenn ein Singlchip Fermi so schnell werden sollte wie ein Dualchip HD5970, ja mei, warum nicht.
 
Zuletzt bearbeitet:

cuthbert

Software-Overclocker(in)
Tja es ist zwar schön und gut, dass ATI seine neue Generation schon "draußen" hat, aber so richtig was bringen tuts bei der lauen Produktion nichts. Noch warten sicher viele Käufer die Situation ab. Entweder bis sich die Marktlage der HD5800er stabilisiert und somit auch wieder die Preise (auf Einführungsniveau) fallen und vor allem keine Lieferengpässe mit monatelanger Wartezeit bestehen.

Bis das soweit ist, hat NVIDIA sicher noch ein bisschen Zeit. Aber ein Problem wird Fermi wohl haben, er wird einfach viel zu teuer sein und so bahnbrechend stelle ich mir die Grafikleistung im Vergleich zu ATIs Karten nun auch nicht vor, dass es den wahrscheinlich deutlichen Aufpreis wert wäre (gegenüber den Einführungspreisen nicht den gerade herrschenden Wucherpreisen). Schon die letzte Generation war ja im Produktionskosten-vergleich zur HD48xx einfach viel zu teuer, auch wenn sich die Marktpreise zumindest bei der GTX260 ja dennoch sehr an die Konkurrenz angenähert haben.

Und was Intels Larrabree angeht haben sie ja selbst quasi mit dem mittelfristigen Rückzug zugegeben, dass sie einfach noch nicht in der Lage sind mit den anderen in Konkurrenz zu treten. Mal schauen was aus dem Projekt Larrabree 2 wird.
 

eMMelol

PC-Selbstbauer(in)
Nvidia sagt schon seit Monaten das der Larrabee nix wird.
Und NV sagt auch das sie 2/3 ihres Umsatzes im Profibereich erwirtschaften.

Also haben die weder vor Intel angst gehabt noch kümmert sie die Gamingperformance, weil sie dort eh nur aus Prestigegründen im Markt sind.
Ausserdem 240 Cores (GT200) gegen jetzt 512 Cores (Fermi) klingt für mich erstmal nach einer Verdoppelung der Leistung.

Das einzige Problem das NV hat, ist der Fertigungsprozess ... und die höheren Kosten, aber wenn ein Singlchip Fermi so schnell werden sollte wie ein Dualchip HD5970, ja mei, warum nicht.

Da kann ich dir nur zustimmen. (BTW ist das ja alles noch schöne Theorie)

mfg eMMe
 

Saab-FAN

PC-Selbstbauer(in)
Für mich sieht das so aus, als hätte sich nVidia ziemlich armentwickelt, um Larrabee platt zu machen.
Wenn Fermi nicht die absolute Über-Graka wird, sehe ich ziemlich schwarz für nVidia, auf dem Grafikkarten-Markt gegen AMD zu punkten. Die Dinger sind nämlich auf jeden Fall günstiger (3 Milliarden Transistoren kosten!) und AMD kann beim Fermi-Release schon auf Erfahrungen mit dem Chip zurückblicken und das Gelernte umsetzen. Wenn Fermi AMD nicht mit min. 15 bis 20% Leistungsvorsprung an die Wand spielt, wird nVidia nen ziemlich schweren Stand haben. Vor allem da AMD aktuell praktisch allein auf dem Graka-Markt ist und Weihnachten voll mitnehmen kann.

Fazit: Am Markt vorbeientwickelt(?)
 

frEnzy

Software-Overclocker(in)
Ich würde Nvidia mit Fermi noch nicht abschreiben. Bisher ist zwar wenig über die tatsächliche Spieleperformance bekannt, umgekehrt daraus zu schließen, dass daraus nichts wird, ist aber auch übertrieben und evtl. vorschnell.

Für die Leistung vom Fermi-Chip finden sich garantiert Abnehmer. So etwas wie "zu viel Rechenleistung" gabs im PC- und Serverbereich eigentlich noch nie ;)

Im Endeffekt sind eigentlich alle Aussagen in dem Bereich momentan gleichzusetzen mit dem berühmten Blick in die Glaskugel. Welcher Chip, sei es nun Cypress oder Fermi, am Ende die Nase vorn haben wird, hängt ja nicht nur von der reinen Rechenleistung bzw. Gameperformance ab sondern auch von anderen Dingen wie Preis/Leistung, Lieferbarkeit, Lautstärke, Stromverbrauch etc... Lange wirds ja hoffentlich nicht mehr dauern, bis Nvidia mal ein paar weitere Fakten nennt, es Testmuster gibt und sich die Liefersituation und die preisliche Gestaltung der 58XX/59XX Karten bessert. Dann werden die Karten neu gemischt. Defakto sind momentan ja weder von Nvidia noch von ATI performante DX11 Karten verfügbar. Da nehmen die sich diesmal echt nichts ;) Schließlich gillt: Paperlaunch == No launche :lol:
 

didti

Kabelverknoter(in)
über fermi ist absolut nichts hieb- und stichfestes bekannt, bis auf das er kommen wird...nur wann??

@Hugo 78

woher hast du denn die info dass fermi 512 SP 's haben wird?? wenn es so zutrifft wie du es vermutest, sprich eine verdoppelung der leistung, wäre das doch ein riesenschritt gegenüber ati!! die haben es nämlich nicht geschafft ihre leistung zu verdoppeln (auf dem papier vielleicht).nichtsdestotrotz versteh ich diese ungeduld nicht in bezug auf den gt300.es gibt noch nichteinmal eine handvoll software, die die neue generation nur ansatzweise sinnvoll nutzt und es wird dank unseren lieben "High Tech"- konsolen xbox360 & ps3 auch so schnell keine dx11-only games geben, die nur einen hauch von einem kaufargument für die neuen karten liefern.ich für meinen teil wäre nämlich nicht bereit für etwas viel geld auszugeben nur damit ich es "schon mal habe", aber effektiv ich es nicht nutzen kann.somit wird meine kaufentscheidung von der vorhandenen software und nicht der vorhandenen und überteuerten hardware beeinflusst!
 

Nobbis

Software-Overclocker(in)
Das INtel ohne Zukauf von KnowHow nichts brauchbares auf die Beine bringt, ist mir mehr als einleuchtend, dass beweisen schliesslich auch die Intel Onboard Dingens. Die sollen mal Matrox kaufen o.ä. dann wird das schon. Die Kombination aus CPU und GPU wird wenn überhaupt jemals in 10 Jahren zum daddeln taugen. Das sollte jedem einleuchten der eine 5870 sieht und sich diese unter dem CPU Kühler vorstellen mag.

Was mit dem Fermi is, is mir Jacke wie Hose, ich hatte gehofft das sie was gebacken bekommen und die ATI Preise unter Druck setzen, aber ich war das Warten leid, meine 4870 war schon alterschwach so lang wie ich auf der schon gedaddelt hab. Jetzt hab ich eben bissel mehr ausgegeben, bin mit der 5870 aber hochzufrieden. Mit anderen Worten sollen Sie machen was sie wollen, ein eingefleischter Nvidianer muss halt Sitzfleisch beweisen oder sich zwischenzeitlich ne 5770 holen oder so.

In der PCGH Print steht, die 5770 is in DX11 bei Battleforge schneller als eine 285er in DX10, das find ich ja mal oberscharf und die 5870 is sogar mehr als doppelt so schnell. Andere DX11 Games folgen. Das muss Fermi erstmal toppen oder eben auch nich, mich juckts nicht mehr ....
 

Lower

PCGHX-HWbot-Member (m/w)
Das INtel ohne Zukauf von KnowHow nichts brauchbares auf die Beine bringt, ist mir mehr als einleuchtend, dass beweisen schliesslich auch die Intel Onboard Dingens. Die sollen mal Matrox kaufen o.ä. dann wird das schon. Die Kombination aus CPU und GPU wird wenn überhaupt jemals in 10 Jahren zum daddeln taugen. Das sollte jedem einleuchten der eine 5870 sieht und sich diese unter dem CPU Kühler vorstellen mag.

Was mit dem Fermi is, is mir Jacke wie Hose, ich hatte gehofft das sie was gebacken bekommen und die ATI Preise unter Druck setzen, aber ich war das Warten leid, meine 4870 war schon alterschwach so lang wie ich auf der schon gedaddelt hab. Jetzt hab ich eben bissel mehr ausgegeben, bin mit der 5870 aber hochzufrieden. Mit anderen Worten sollen Sie machen was sie wollen, ein eingefleischter Nvidianer muss halt Sitzfleisch beweisen oder sich zwischenzeitlich ne 5770 holen oder so.

In der PCGH Print steht, die 5770 is in DX11 bei Battleforge schneller als eine 285er in DX10, das find ich ja mal oberscharf und die 5870 is sogar mehr als doppelt so schnell. Andere DX11 Games folgen. Das muss Fermi erstmal toppen oder eben auch nich, mich juckts nicht mehr ....

Ich sehe das genauso! DX11 ist derzeit zwar noch nicht flächendeckend verwendbar, aber bis DX12 rauskommt sind zumindest die neuesten Spiele DX11 Kompatibel! Wenn Nvidia floppt juckts mich auch nicht. Meine HD5870 soll zumindest bis zur 6*** er Serie halten und die soll dann schneller sein als die Nvidia GF100 Serie, möge AMD noch so hohe Preise machen werde ich weiter bei AMD bleiben. Nicht das mich die Fermi Karten nicht reizen würden, ganz im Gegenteil ich fände es super so eine schnelle Karte zu haben. Die Leute aber, die mich dann mit einer Fermi auslachen werden haben keinen Grund, da ich zurzeit nur eine 8400GS habe für sage und schreibe 24€ besitze. Dadurch lohnt sich der Kauf der HD5870 für mich allemal. Und ich denke, dass bei Nvidia auch ein Paperlaunch geschehen wird!
 

D!str(+)yer

PCGHX-HWbot-Member (m/w)
Sehr Spannend auf jeden Fall im Moment auf dem Grafikmarkt.
Mit Larrabee war ja an zu nehmen dsa es nix wird xD
Zumindest habe ich es mir gedacht :D
 

N1truX

Komplett-PC-Aufrüster(in)
Naja der Fermi ist an und für Sich schon eine Fehlentwicklung für den Spielemarkt. Viel zu viel Transistoren verschwendet die man lieber für mehr Rohleistung nutzen sollte. Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.

Und viel Gewinn im Profibereich ist auch toll, aber ohne einen Massenmarkt der die Produktion und Entwicklung erst rentabel macht, wären auch da keine Gewinne mehr zu holen.

Also von daher hätte man eher an einer effizienten Spieler-Grafikkarte basteln sollen und das Feld HPC/GPGPU etwas sekundärer betrachten.

AMD macht es ja vor. Ein gutes Produkt für den 200-300 Euro Bereich, verdoppeln für High-End und gut (+schnell) skalierbar für Mid- und LowEnd. nVidia quält sich da etwas künstlich mit Transistorenmonstern ab, die wohl wieder gefühlte Ewigkeiten brauchen um auch im LowEnd Bereich anzukommen. Und schätzungsweise wird aus Kostengründen auch ein guter Teil der Innovationen des "großen" GT300 dafür beschnitten werden müssen.


Naja kann noch werden, aber so gerne wie nVidia Sachen raus posaunt kann die Grafikleistung nicht überwältigend sein. Besonders interessant wird es dann gegen die HD 5970. EIne Dual-GPU Karte wird wohl anfangs recht schwer zu realisieren sein. Zumindest bei PCIe konformer TDP..
 

wooty1337

Software-Overclocker(in)
[...] Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.
Ist das nach deiner Rechnung nicht genau die selbe Effizienz? :O

Also langsam wird es echt Zeit für NV, denn sonst haben sie wortwörtlich Weihnachten verpennt und wohlmöglich noch das Nachweihnachtsgeschäft zwecks Geldgeschenke, etc. pp. Man wird immer und immer wieder vertöstet und ohne brauchbare Angaben im Regen stehen gelassen. Allerdings bin ich zu gespannt auf die Karte, als dass ich mir jetzt voreilig ein Ati Pixelbeschleuniger kaufe. Das kann ich dann immer noch machen, wenn der Fermi flopt. Und das ganze zu etwas moderateren Preisen bzw. mehr Leistung (HD5890?).
 
Zuletzt bearbeitet:

Bucklew

Gesperrt
Naja der Fermi ist an und für Sich schon eine Fehlentwicklung für den Spielemarkt. Viel zu viel Transistoren verschwendet die man lieber für mehr Rohleistung nutzen sollte. Dazu hat man bei nVidia viel zu spät reagiert was diese "Riesigen single-DIEs" angeht. AMD packt ähnliche Leistung meist auf etwa 2/3 der Fläche mit meist auch nur etwa 2/3 der Transistoren. Da fehlt also einfach Effizienz.
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)
 

poiu

Lötkolbengott/-göttin
nix als heiße Luft also :lol: ich das teil nicht ohne Grund immer als Intel Gelabber bezeichnet ;)
 

LoopO

Schraubenverwechsler(in)
Die Analysten sehen dies wohl als Chance für NVidia - deren Aktie steht grad bei mehr als +12%. Die von Intel steht mit -0,44% nur minimal im Negativbereich - da sieht man also erstmal keine negativen Auswirkungen für das Geschäft von Intel durch den Wegfall.
 

Dr. Kucho

Software-Overclocker(in)
Je länger sich der Release der Fermikarten verzögert, desto zufriedener bin ich mit dem Kauf meiner 5870.

Die Leistung der neuen Nvidias ist für mich auch garnicht so ausschlaggebend. Ich bezweifle nicht, dass sie (zumindest die 5870 von) Amd schlagen werden. Alles andere wäre ein Desaster. Was mich viel mehr interessiert ist der Preis. Ich glaube die neuen Karten werden schweineteuer...
 

FloW^^

Freizeitschrauber(in)
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)
deine 1. aussage ist schonmal falsch.
du vergleichst 55nm mit 40nm.
334 mm² beim RV870 gegen 263 mm² beim RV770 sind nicht doppelt so groß, sondern nur ~27% größer.

ein GT200 hat 576 mm².
jetzt rechne ich mal so wie du:
576mm²/334mm²= ~1,725
ein GT200 ist also etwa 72,5% größer, der RV870 ist aber trotzdem 30% schneller (hast du behauptet).

AMDs Grafiksparte fährt sehr wohl Gewinne ein.
Sie ist sogar der einzige Grund, warum AMD so "niedrigen" Verlust fährt.
 
Zuletzt bearbeitet:

hawk89ger

Komplett-PC-Aufrüster(in)
Ich hätte nicht gedacht, dass Intel sowas passiert...die sind doch sonst immer so perfekt aufgestellt und durchgeplant.
Ich finde es nur richtig, dass Intel die Karte nicht rausbringt.
Die würden aktuell auf dem Markt, auf den die Karten Zielen, nichts bringen, angesichts der Gegner.
Die nächste Generation wird dann vielleicht auf den Markt gebarcht, dann aber wahrscheinlich auch nur für den den Profibereich, in dem auch ManyCore genutzt wird(Wissenschaftssektor, etc.)
Mal sehen, was sich in Zukunft so ergibt. Ist zwar schade für Nvidia, aber das Leben ist halt nicht immer fair.
Mal sehen, was die an Fermi noch drehen können.
 

Incredible Alk

Moderator
Teammitglied
Naja... wie ich schon vor Wochen hier irgendwo gepostet habe: Es hätte mich auch sehr gewundert wenn Larrabee irgendetwas hätte erreichen können gegen die 2 Großen im Grafikgeschäft mit Jahrzehnten Erfahrung.

Und was NVidia angeht: Ich glaube zwar nicht dass es so kommt aber ich würde mich totlachen wenn Fermi son richtiger Flop werden würde... nachdem NV jahrelang Chips nur leicht verändert und unter anderem Namen verkauft hat und nachdem sie ständig davon erzählen wie wahnsinnig wichtig die Anwendungsorientiertheit ihres neuen Chips ist und dass sie ja ne Softwarefirma sind würde ich es ihnen irgendwie wünschen wider auf den Boden der Tatsachen zurückgeholt zu werden...
 

KeiteH

Freizeitschrauber(in)
Ich fand meine NV-Karten bisher immer TOP, wenn sie auch vllt. etwas "überteuert" waren,
aber bezüglich der jetzigen Erwartungen an NV seh ich das wie folgt.
Entweder NV ist ein bisschen (sorry) "großkotzig" geworden und verschmäht den Gamer-Markt nach und nach,
weil sie "es sich leisten können" da sie ihren Löwenanteil hier nicht verdienen (müssen),
oder sie haben einen richtigen "Knaller" in der Hinterhand, den keiner erwartet.
Hoffen tu ich auf letzteres, befürchten tu ich aber, dass NV nix halbes und nix ganzes auf den Markt bringt.

Letztendlich können wir doch nur abwarten und was auch immer trinken...
...und Gerüchteküchen verfolgen ;-)

greetz
 

Drachenlied

Schraubenverwechsler(in)
Für Intel wie für NVidia bedeutet diese Ansage auf lange Sicht den Abschuss aus der Games-Hardware Sparte, denn es ist schlichtweg die Weigerung weiter direkt mit nVidia zu kooperieren. AMD gelang damals ein enormer Coup als sie ATI aufkauften und sich einverleibten denn nun entwickeln sie CPUs , GPUs und Chipsätze für Mainboards gemeinsam und parallel aufeinander abgestimmt. Am aussagekräftigsten ist da wohl dass die Weltrekordhalter und Top 10 im Übertakten sowie die momentan leistungsfähigste Grafikkarte und der momentan schnellste Supercomputer der Welt mit Chips aus dem Hause AMD bestückt sind. AMD hat schon lange erkannt, das die wahre Power eines PC Systems nicht aus schierer Leistung einzelner Komponenten erwächst sondern aus deren Zusammenspiel! Du kannst noch soviel Power in der Grafikkarte haben wenn dein CPU noch single-core ist wars Geld dafür grade fürn arsch! Ich persönlich empfehle jedem Kunden der zu mir kommt und sagt bau mir für gutes Geld einen Rechner mit dem ich die Spiele der nächsten Gerneration ohne Probleme zocken kann die :hail:Dragon:hail: Plattform von AMD. Denn wenn du das Gleiche Geld in nVidia und Intel steckst bekommste nichtmal nen halb so guten Rechner raus!:devil:
 

Bucklew

Gesperrt
deine 1. aussage ist schonmal falsch.
du vergleichst 55nm mit 40nm.
334 mm² beim RV870 gegen 263 mm² beim RV770 sind nicht doppelt so groß, sondern nur ~27% größer.
Nein, ich vergleiche Transistoren ;)

RV770: 956.000.000
RV870: 2.100.000.000
GT200: 1.400.000.000

Wie man siehst ist der RV870 sogar mehr als doppelt so groß wie der RV770, schafft es aber nicht 100% schneller zu sein und ist nur 30% schneller als der GT200 - bei 50% mehr Transistoren.

ein GT200 hat 576 mm².
jetzt rechne ich mal so wie du:
576mm²/334mm²= ~1,725
ein GT200 ist also etwa 72,5% größer, der RV870 ist aber trotzdem 30% schneller (hast du behauptet).
Jetzt wirfst du 55nm und 40nm durcheinander.

AMDs Grafiksparte fährt sehr wohl Gewinne ein.
Sie ist sogar der einzige Grund, warum AMD so "niedrigen" Verlust fährt.
Irgendwas im ein/zweistelligen Millionenbereich. Nichts im Vergleich zu Nvidia.
 

Hugo78

PCGH-Community-Veteran(in)
du solltest dringen die news lesen:) das ist ein schritt gegen NV und keine aufgabe

Wenn AMD ab morgen keine CPUs mehr baut, ist das dann ein Schritt gegen Intel? :schief:

NV juckt das nicht das Larrabee nicht kommt, ganz im Gegenteil die jubeln grad, weil der einzig mögliche Konkurent für ihr Hauptgeschäft (HPC) grad in Sack haut.

Keine Ahung warum Carsten Spille in seinem Artikel einen anderen Eindruck vermitteln will, mir scheint aber er hält die kleinen Gewinnspannen im Gamingbereich für wichtiger, als die im Profisektor.
 

Fate T.H

Software-Overclocker(in)
Nein, ich vergleiche Transistoren ;)

RV770: 956.000.000
RV870: 2.100.000.000
GT200: 1.400.000.000

Wie man siehst ist der RV870 sogar mehr als doppelt so groß wie der RV770, schafft es aber nicht 100% schneller zu sein und ist nur 30% schneller als der GT200 - bei 50% mehr Transistoren.

Meine das ATI nie behauptet hat das der RV870 zu 100% schneller ist als der GT200,
sie ist aber zu fast 100% schneller als ihr vorgänger der RV770.
Andersrum hat der GT200 knapp 33% weniger Transistoren als der RV870 und ist 30% langsamer.
 

FloW^^

Freizeitschrauber(in)
Ich bin ein Idiot Bucklew.
Ich dachte tatsächlich, du meintest mit "Größe" die feststehende metrische Einheit und nicht eine Anzahl an Transistoren...
Aber schön, da mal drüber gesprochen zu haben.
 

Sawe

Komplett-PC-Käufer(in)
Sie schaffen ja auch nur 2/3 der Leistung. Siehe RV870: Nur 30% schneller als die GT200-Karten bei (im vergleich zur RV770) doppelter Größe.

Von daher passt das Verhältnis mit riesen Vorteil für Nvidia, die Karten für teuer Geld in den Geschäftsmarkt zu pumpen. Sieht man auch an den Finanzzahlen: ATI irgendwo bei +/- 0, Nvidia letztes Quartal wieder mit (angesichts der Auswirkungen der Finanzkrise) guten Zahlen. Man beachte auch den aktuellen Nvidia-Aktienkurs ;)

Ich verstehe nicht, wieso du deine Argumente immer mit den Finanzzahlen untermauerst. Kunden interessiert es nicht besonders. Die wollen Produkte auf dem Markt sehen, die sie vergleichen koennen.

Wichtig ist, was auf dem Markt ist, was genau kann das Produkt, wie teuer es ist, und wie schlaegt sich das Produkt gegen der Konkurrenz.

Ich freue mich genauso wie du auf die DX11 Grafikkarten von nVidia, aber zur Zeit kann man schwer die Leistung der kommenden Grafikkarten durch Finanzzahlen begruenden.
 

Bucklew

Gesperrt
Ich verstehe nicht, wieso du deine Argumente immer mit den Finanzzahlen untermauerst. Kunden interessiert es nicht besonders. Die wollen Produkte auf dem Markt sehen, die sie vergleichen koennen.
Kunden kaufen das, was sie wollen, nach dem vergleichen und daher kann man aus den Finanzzahlen im Endeffekt 1:1 rückschließen, wie erfolgreich (oder nicht erfolgreich) die Produkte sind oder waren.
 

Gunny Hartman

Gesperrt
Ich hab mich ja in einem vorangegangenen Thread gestern dazu schon geäußert und da schon vermutet, dass Nvidia mit dem Fermi ein Griff ins Klo landen könnte. Ich hab das mal GeForce FX reloaded genannt.

Nvidia hat den Fermi ja ziehmlich vollgestopft mit Transistoren, da er ja für den HPC-Markt gedacht ist. Da dies bei Spielen aber kaum Vorteile bringen wird, könnte der Fermi-Chip für Gamer ganz schnell uninteressant werden. Nämlich dann, wenn der Fermi in der Produktion extrem teuer und kaum schneller als die HD 5800er und 5900er von ATI ist. Ich kann mir gut vorstellen, dass Nvidia für eine Fermi-Karten, nennen wir sie mal GTX 380, Preise von weit über 500€ verlangen wird oder sogar muss um die Produktionskosten zu decken.

Denn wenn man sich die Ausbeute der Produktion von TSMC anschaut, fällt auf, dass gut 60% der Produzierten Chips Ausschuss sind. Wenn da Nvidia mit dem hochkomplexen Fermi kommt, sind 40% ausbeute unwahrscheinlich.

Wenn Nvidia also eine Karte auf den Markt bringt, die vielleicht 10% schneller ist als die HD 5870, dabei aber 600€ kostet, also 200€ mehr, dann wird sich diese Karte nicht sonderlich gut verkaufen.
Zumal ATI noch einige Asse im Ärmel zu haben scheint, wenn man nur daran denkt, dass ein Refresh mehr als wahrscheinlich ist. Es hieß ja es werden XTX Karten kommen. Vielleicht auch noch 5890er usw.

Wenn der Fermi dann endlich mal draußen ist, kann ATI bequem die Preise senken, da sie momentan ja keine wirkliche Konkurenz haben und somit die Preise eben relativ hoch sind. Bis dahin könnte ATI womöglich schon die nächste Generation im 32nm Verfahren in Vorbereitung haben und diese dann bei Global Foundries fertigen lassen. Wenn Ich das Sagen bei ATI hätte, würde Ich es jedenfalls so machen, da der 40nm Prozess anscheinend mehr Probleme macht als der 32nm Prozess. Es hätte noch weitere Vorteile: noch weniger Stromverbrauch, höhere Taktraten, höhere Yield-Rate, usw. Für ATI wäre es ein riesiger Vorteil nicht auf TSMC angewiesen zu sein, so wie es Nvidia ist.

Man kann zusammenfassend also sagen, dass der Fermi-Chip viel komplexer als der RV870 ist und daher zu einer noch geringeren Yield-Rate führen wird, was sehr hohe Preise nach sich ziehen wird. Die enorm komplexe Architektur könnte zudem auch kontraproduktiv sein für die Spiele-Performance des Chips. Ein so großer Chip wird auch viel Strom fressen, sehr heiß werden und einen relativ lauten Kühler benötigen.

Alles in Allem hat der Fermi das Potential eine zweite GeForce FX zu werden für Nvidia. Aber Ich lasse mich gerne durch vom Gegenteil überzeugen!

Noch ein Wort zum Nvidia Fanboy Bucklew: Wenn AMD keine CPUs verkaufen würde, sondern nur Grafikkarten, dann hätten sie viel bessere Quartalszahlen als Nvidia. Nvidia ist für mich sowieso nur ein Branchen-Riese der auf die Quartalszahlen schaut.
Wenn man Nvidias Produkte nach rein wirtschaftlichen Kriterien beurteilt, stehen sie schlechter da, als die von AMD und ATI. Das sieht man allein an den Produktionskosten der RV770 GPUs. Aber Nvidia wird irgendwann auch noch merken, dass sie auf dem falschen Weg sind, wenn dieser größenwahnsinnige, inkompetente Huang endlich weg ist.

Apropos HPC-Geschäft. Ich würde mit IBM rechnen, die könnten Nvidia gewaltig in den Sack hauen mit deren neuer CPU.
 
Zuletzt bearbeitet:

MasterOhh

Komplett-PC-Aufrüster(in)
Die Aktienkurse ist mir eigentlich sch.... egal wenn ich mir ne Grafikkarte kaufe (zumal sie selten Auskunft über reale Unternehmenswerte liefern).
Als ich mir letztes Jahr im August meine Radeon 4870 geholt hatte standen da noch die GT260 und die GT280 zur Auswahl. Meine Radeon hatte 200€ gekostet, die GT260 war vieleicht 5% schneller im Schnitt aber auch 50€ (25%) teurer und bei der GT280 war das Teuerungs/Mehrleistungsverhältnis sogar noch bescheidener. Da ist es mir nich schwer gefallen mich zu entscheiden.
Ich glaube Preis/Leistung ist mittlerweile für viele Käufer der entscheidene Faktor und da kann AMD derzeit eindeutig Punkten.
Ich habe keinen Zweifel daran das Fermi ein wahres Leistungsmonster werden wird, die Frage ist nur wie viele Leute bereit sein werden für 30% mehr Power 60% mehr Euronen auf den Tisch zu legen?
 

Gunny Hartman

Gesperrt
Die Aktienkurse ist mir eigentlich sch.... egal wenn ich mir ne Grafikkarte kaufe (zumal sie selten Auskunft über reale Unternehmenswerte liefern).
Als ich mir letztes Jahr im August meine Radeon 4870 geholt hatte standen da noch die GT260 und die GT280 zur Auswahl. Meine Radeon hatte 200€ gekostet, die GT260 war vieleicht 5% schneller im Schnitt aber auch 50€ (25%) teurer und bei der GT280 war das Teuerungs/Mehrleistungsverhältnis sogar noch bescheidener. Da ist es mir nich schwer gefallen mich zu entscheiden.
Ich glaube Preis/Leistung ist mittlerweile für viele Käufer der entscheidene Faktor und da kann AMD derzeit eindeutig Punkten.
Ich habe keinen Zweifel daran das Fermi ein wahres Leistungsmonster werden wird, die Frage ist nur wie viele Leute bereit sein werden für 30% mehr Power 60% mehr Euronen auf den Tisch zu legen?

Ich würde nicht mal davon ausgehen dass der Fermi 30% schneller ist, sonder eher 10% und dafür 60% teurer. Wer sich da eine Fermi-Karte kauft muss ein Vollidiot oder ein Fanboy sein. Die Fermi-Karten werden kaum billiger sein, als ATIs Karten. Eine HD 5970 kann 10% schneller als eine Fermi sein und ist dann immer noch 10-20% billiger. Womöglich ist der Fermi auch so überladen, dass er sein Potential gar nicht "auf die Straße" bringt, ähnlich einem Auto mit 2000 PS und null Grip. Nvidia gibt sich zwar sehr selbstbewusst, aber das sind sie ja immer und es gab schon einige Fehlschläge.
 

FloW^^

Freizeitschrauber(in)
ich erinnere mich noch sehr gut daran, wie selbstbewusst nvidia mit der FX-Serie war und wie sehr sie gehyped wurde... (stichwort grafikdemos und zahlenprotzen)
das ende vom lied kennen die meisten hier ja.
(meine damalige radeon 9700 war in der dawn demo glaube ich trotz wrapper schneller als eine geforce FX, obwohl diese viel später kam ^^)
 
Oben Unten