Mainstream-Chips auf Fermi-Basis sollen ab Mitte des Jahres folgen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Mainstream-Chips auf Fermi-Basis sollen ab Mitte des Jahres folgen gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Mainstream-Chips auf Fermi-Basis sollen ab Mitte des Jahres folgen
 
Mainstream-Chips?????
Die sollten mal zuerst eine Grafikkarte mit Fermiarchitektur rausbringen.
Seid ca. sechs Monaten hört man nur balbla von nVidia!!!
"Fermi wird die Beste Grafikkarte", "Fermi wird schneller sein wie ATI", Fermi kommt zum Jahreswechsel", usw.!!!!!!
Und was bringen die Raus: GT140, GT240, GT340 (gleicher m**t/GPU, neuer Name).
Ein fettes :daumen2: an nVidia!!!
 
Am 26. März wird es hoffentlich soweit sein. Wobei... es wurde nie gesagt, dass Fermi angekündigt wird :ugly:
 
Mainstream-Chips?????
Die sollten mal zuerst eine Grafikkarte mit Fermiarchitektur rausbringen.
Seid ca. sechs Monaten hört man nur balbla von nVidia!!!
"Fermi wird die Beste Grafikkarte", "Fermi wird schneller sein wie ATI", Fermi kommt zum Jahreswechsel", usw.!!!!!!
Und was bringen die Raus: GT140, GT240, GT340 (gleicher m**t/GPU, neuer Name).
Ein fettes :daumen2: an nVidia!!!


OH Mann, immer dieses gemeckere.
Warte halt mal ab, was der Fermi bringt.
Ich kann warten, auch wenn es noch 6 Monate dauern würde.
Mit den jetzigen ATI Karten ist DX11 gar nicht flüssig darstellbar, also warte ich lieber, bis der Fermi kommt.
Ich hab Zeit.
 
OH Mann, immer dieses gemeckere.
Warte halt mal ab, was der Fermi bringt.
Ich kann warten, auch wenn es noch 6 Monate dauern würde.
Mit den jetzigen ATI Karten ist DX11 gar nicht flüssig darstellbar, also warte ich lieber, bis der Fermi kommt.
Ich hab Zeit.
und mit der, vermutlich, nur 5% schnelleren fermi kann man das? :schief:
 
Man Man. Selbst die Ankündigung einer Ankündigung, wird hier schon als New's verwurstet. Jede Ankündigung einer GK wird als Anlass genommen um die Werbetrommel zu rühren. Es geht mir erlich gesagt auf den Keks, sich keine News mehr durchlesen zu könne ohne von NV zu lesen und neue Gerüchte zu hören (diese hier mal ausgenommen).

@ Top: ist mir erlich gesagt Wurst wann die Mainstreamkarten kommen. Ich will überhaupt mal eine Karte sehen von NV und Tests lesen, denen man Vertrauen kann. Dann und erst dann interesiert mich Mainstream. Das einziege neue an der Meldung ist das selbst der Mainstreammarkt erst nach der Pro Serie bediehnt wird. Das heist, das es mitte des Jahres keine Mainstreamkarten (für Gamer) geben wird, sondern später (Hammer, 1 Jahr Verspätung für DX11 in der Mittelklasse). Da wird auch die Erhöhung des Chipausstoßes nichts mehr retten könne. :daumen2:
 
Echt nicht? Hab ich noch garnicht gemerkt dass es hier bei mir ruckelt...
Aber das wirst du von dir aus sicher besser beurteilen können mit deiner GeForce...


Lies dir mal den Treat zu Metro mal durch ! Ich habe eine 5870 und behaubte auch, das die jetzige Generation von DX11 Karten zu schwach sein wird DX11 voll zu nutzen. Ein paar Effekte vielleicht, aber ein komletten DX11 Titel mit allem drum und drann... niemals. Bei Metro geht die gute 5870 schon in die Knie.
 
OH Mann, immer dieses gemeckere.
Warte halt mal ab, was der Fermi bringt.
Ich kann warten, auch wenn es noch 6 Monate dauern würde.
Mit den jetzigen ATI Karten ist DX11 gar nicht flüssig darstellbar, also warte ich lieber, bis der Fermi kommt.
Ich hab Zeit.
warum soll DX11 nicht flüssig darstellbar sein? Selten so einen Blödsinn gehört/gelesen

Lies dir mal den Treat zu Metro mal durch ! Ich habe eine 5870 und behaubte auch, das die jetzige Generation von DX11 Karten zu schwach sein wird DX11 voll zu nutzen. Ein paar Effekte vielleicht, aber ein komletten DX11 Titel mit allem drum und drann... niemals. Bei Metro geht die gute 5870 schon in die Knie.

was heißt denn bitte "voll zu nutzen"? Immer dieses rumgejammere. Da kann man gleich behaupten heutige Karten sind zu langsam für Direct X 7, weil selbst da kann man nicht alle Effekte "voll nutzen".
Also was heißt das jetzt, dieses "voll nutzen".
Ich sag mal meine Grafikkarte kann ALLE Direct X11 Effekte voll nutzen. Beweis mir das Gegenteil? Wo ist die Grenze, ab wie vielen Effekten gilt es denn als "voll nutzen"? Was soll meine Grafikkarte (5850) nicht können? Ne Idee?
Richtig: nämlich im prinzip kein Feature. Und doch alle. Wenn man genug Texturen einsetzt, kann nämlich JEDE Grafikkarte nichtmal ein DX6 oder was auch immer Spiel flüssig darstellen. Also ist die Behauptung eine Grafikkarte sei für eine Gewisse API zu schwach einfach Blödsinn, außer wir sprechen von Ultra-Lowendkarten, die nichtmal aktuelle Spiele darstellen können, aber das hat auch nix mit der API zu tun

Und dann lese ich immer von "Direct X 11 Effekten". Was soll das eigentlich genau sein? Tesselation? Gabs vorher schon. Multithreading ok, aber ist kein "Effekt", "weichere Schatten" kann meine Karte schon bei vollen Details, also bin ich gespannt was meine Karte eben nicht schaffen soll
 
Zuletzt bearbeitet:
Lies dir mal den Treat zu Metro mal durch ! Ich habe eine 5870 und behaubte auch, das die jetzige Generation von DX11 Karten zu schwach sein wird DX11 voll zu nutzen. Ein paar Effekte vielleicht, aber ein komletten DX11 Titel mit allem drum und drann... niemals. Bei Metro geht die gute 5870 schon in die Knie.

Nur weil Metro evtl! nicht so super auf ner ATI läuft heisst das ja nicht, dass die generell zu schwach sind. Im Metro Fred haben wir ja schon festgestellt woran das liegen wird, wenn die jetzige DX11 Graka Generation, und das sind ja nur ATI Karten, auf nem NVidia powered Spiel nicht so super läuft.
 
Hier geht es um die Mainstream-Fermis und nicht um die Leistung einer HD5870 in Metro :schief:.

BTT:

War ja nicht anders zu erwarten, dass die Mainstream-Grafikkarten später folgen. Die Kollegen von XBITlabs haben das vorraus gesagt.

Nvidias CEO Jen-Hsun Huang (gekürzt) schrieb:
“All of that just depends on 40 nm supply and we are trying to finesse it the best we possibly can. For the entry-level products, the truth is that the new architectures […] are probably not extremely well appreciated anyhow. People, who buy the new architectures, tend to be early adopters and they tend to be the game enthusiasts, workstation designers or creative artists or – there are very specific reasons why it really enhances their experience. Our current-generation GPUs are fabulous and all the things that mainstream consumers would use their computer for. […] I think the mainstream GPUs are really fabulous and has been enhanced recently with some really great features and so my sense is that they are going to continue to do quite nicely in the marketplace. Then we will just transition as fast as we can.”

Heißt so viel, dass Nvidias CEO Jen-Hsun Huang meint, dass die Käufer diese Features noch nicht brauchen :ugly:. Auch der 40nm-Prozess soll noch nicht so weit sein. Auf Tomshardware spinnt man das noch etwas weiter und sagt jetzt schon eine weitere Neubenennung der aktuellen GPU-Familien (GTX 260/275/285 -> GTX 360/370/380 voraus) bzw. wurden die GT 210/220/240 -> GT 310/320/340 schon umgelabelt .

Ich bin mal gespannt, ob im Sommer überhaupt hohe Absätze möglich sind, der Zeitraum ist jedenfalls schlecht gewählt, da die meisten lieber ihr Geld für den Urlaub ausgeben.

Gruß Explosiv
 
Zuletzt bearbeitet:
*g* naja der Ursprüngliche Fahrplan hat die Highendmodelle im Oktober gesehen und die Mainstreammodelle im Februar. Ich würd mal sagen sie haben den Fahrplan nicht gehalten ;)

Stimmt. Aber noch ist es ja nicht zu spät. Na ja, ander kann bis zum 27.03 ja noch viel schief gehen. :ugly: Und bis mitte des Jahres sowieso.
 
Hier geht es um die Mainstream-Fermis und nicht um die Leistung einer HD5870 in Metro :schief:.

BTT:

War ja nicht anders zu erwarten, dass die Mainstream-Grafikkarten später folgen. Die Kollegen von XBITlabs haben das vorraus gesagt.



Heißt so viel, dass Nvidias CEO Jen-Hsun Huang meint, dass die Käufer diese Features noch nicht brauchen :ugly:. Auch der 40nm-Prozess soll noch nicht so weit sein. Auf Tomshardware spinnt man das noch etwas weiter und sagt jetzt schon eine weitere Neubenennung der aktuellen GPU-Familien (GTX 260/275/285 -> GTX 360/370/380 voraus) bzw. wurden die GT 210/220/240 -> GT 310/320/340 schon umgelabelt .

Ich bin mal gespannt, ob im Sommer überhaupt hohe Absätze möglich sind, der Zeitraum ist jedenfalls schlecht gewählt, da die meisten lieber ihr Geld für den Urlaub ausgeben.

Gruß Explosiv
Ja, das war klar. Fermi ist eine Architektur, die halt extrem viel Transistorbudged für die neuen Features hat.
Ein LOWEND Direct X11 Chip auf Fermi Basis würde immer noch sehr viele Transistoren haben, weil einfach die Grundarchitektur des Fermi auf einen Großen Chip ausgelegt ist.
Somit ist ein kleiner Chip der auf der Fermi Architektur basiert und in das Lowendsegment kommt, in nächster Zeit einfach unrealistisch, zu viel müsste aus der Fermi Architektur weggeschnitten werden um günstig herzustellen zu sein und dann in den Lowendbereich zu kommen um mit ATI zu konkurrieren. Die haben ihren Chip dort aber schon, für die war das ja auch einfach weil die Basis dafür ein viel kleinerer Chip ist.

Ergo-> die Fähigkeiten des Highendfermi werden noch LANGE nicht in Mainstream oder Entry Level zu finden sein, weil sie einfach zu viele Transistoren "fressen" und nicht leistbar zu produzieren/verkaufen sind. Da zahlt sich die ATI Methode aus, von vorneherein auf kleinere Chips zu setzen, auch wenn man dadurch um die Performancekrone zu bekommen, auf ein Multichipdesign setzen muss (und somit Microlags und viele weitere Probleme nach sich zieht).
 
Ja, das war klar. Fermi ist eine Architektur, die halt extrem viel Transistorbudged für die neuen Features hat.
Ein LOWEND Direct X11 Chip auf Fermi Basis würde immer noch sehr viele Transistoren haben, weil einfach die Grundarchitektur des Fermi auf einen Großen Chip ausgelegt ist.
Somit ist ein kleiner Chip der auf der Fermi Architektur basiert und in das Lowendsegment kommt, in nächster Zeit einfach unrealistisch, zu viel müsste aus der Fermi Architektur weggeschnitten werden um günstig herzustellen zu sein und dann in den Lowendbereich zu kommen um mit ATI zu konkurrieren. Die haben ihren Chip dort aber schon, für die war das ja auch einfach weil die Basis dafür ein viel kleinerer Chip ist.

Ergo-> die Fähigkeiten des Highendfermi werden noch LANGE nicht in Mainstream oder Entry Level zu finden sein, weil sie einfach zu viele Transistoren "fressen" und nicht leistbar zu produzieren/verkaufen sind. Da zahlt sich die ATI Methode aus, von vorneherein auf kleinere Chips zu setzen, auch wenn man dadurch um die Performancekrone zu bekommen, auf ein Multichipdesign setzen muss (und somit Microlags und viele weitere Probleme nach sich zieht).

Das ist deine Vermutung, die würde ich nicht in Stein meisseln, warum soll die Architektur für kleinere Chips untauglich sein ?
Aber grundsätzlich ist es doch zu begrüssen das AMD/ATI mit der 5000er Serie gute Abverkäufe hat, weil die gute Zahlen brauchen können. 2 Firmen mit gesundem Wettbewerb sind gut für den Konsumenten und seinen Geldbeutel.
Das die Einführung einer neuen Architektur ihre Schwierigkeiten mit sich bringt, für alle die es vergessen haben, das hat AMD/ATI mit der HD2900 auch schon leidvoll erfahren müssen.
 
und mit der, vermutlich, nur 5% schnelleren fermi kann man das? :schief:


Das habe ich mit den ersten DX10 Karten gemerkt.
ATI 3850 gekauft, aber DX10 war nicht flüssig darstellbar.Dann eine 4850 gekauft und DX10 war immer noch nicht richtig flüssig.
Dann habe ich mir ne GTX260 gekauft und DX10 lief dann flüssig und sauber.
Ich kauf mir nie gleich eine neue Karte, sondern warte erstmal ab, was noch kommt.
Die HD5800er hat mich nie interessiert, weil wenn ich mal DX11 zocken möchte (falls mal ein paar Games kommen sollten) soll es auch flüssig laufen.
Für momentan DX10 brauch ich keine neue, darum kann es von mir aus noch ein halbes Jahr dauern, bis Fermi kommt, dann werden auch mehr DX11 Spiele auf dem Markt sein ( hoffe ich). Solange reicht mir meine GTX260 noch dicke.
 
Das ist deine Vermutung, die würde ich nicht in Stein meisseln, warum soll die Architektur für kleinere Chips untauglich sein ?
Aber grundsätzlich ist es doch zu begrüssen das AMD/ATI mit der 5000er Serie gute Abverkäufe hat, weil die gute Zahlen brauchen können. 2 Firmen mit gesundem Wettbewerb sind gut für den Konsumenten und seinen Geldbeutel.
Das die Einführung einer neuen Architektur ihre Schwierigkeiten mit sich bringt, für alle die es vergessen haben, das hat AMD/ATI mit der HD2900 auch schon leidvoll erfahren müssen.
das ist eine Rechnung basierend auf den Offiziellen Folien von Nvidia:
3 Milliarden Transistoren für die volle Leistung und alle Features.
Jetzt kannst dir einfach überlegen wie viel man weglassen muss von den Features und der Leistung um in die Nähe des Lowendmarktes zu kommen.

Vorallem sind beim Fermi viele Features einfach Fixed Function Units. das ist dann nicht so wie bei den Shadern, wo man schnell welche wegnehmen kann, dann ist die Grafik einfach langsamer, sondern wenn man die wegnimmt sind die Features auch weg. ->Also: entweder man lässt das Feature komplett drin -> sehr viele Transistoren, etwa bei Cache den der Fermi ja hat. Oder man nimmt es raus, was bedeutet, dass die kleinere Version von dem Chip dann eben über dieses Feature nicht verfügt.
Somit stimmt die Annahme, dass esr in den nächsten 9 Monaten keinen Chip geben wird der gleichzeitig alle Features (wie gesagt, ich spreche NICHT von reduzierten Shadern) hat und Lowend-Midrange ist, weil der schlichtweg zu groß wäre. Ist doch klar.

Wie gesagt man kann shader Reduzieren oder Textureinheiten. Dadurch wird der Chip kleiner. Aber ein paar gewisse Grundfunktionen kann man nicht einfach so reduzieren (etwa Tesselation und andere DX11 Zusätze) und davon scheint der Fermi genug zu haben, sonst hätte er nicht 50% mehr Transistoren als der RV 870 bei wahrscheinlich nicht 50% mehr Tempo.

Oder anders ausgedrückt: die "Zusatzfeatures" wiegen beim RV 870 etwa 200-300 Mio Transistoren. Man hat rein von den Recheneinheiten 2 RV770 beim RV870, aber trotzdem noch 200-300 Mio zusätzliche Transistoren. Warum? Tja das sind eben diese Zusätzlichen Funktionen von denen ich spreche. Kann eine bessere AA Einheit oder Crossfirebrücke sein, oder Powermanagement,DX11 Effekte etc. Aber das alles muss man auch in die kleinen Chips einbauen weshalb die Einsteigerchips bei der RV8XX Generation auch größer Ausfielen also noch beim RV770. Bei ATI ist das egal, weil wie gesagt, das Grunddesign des Chips schon nicht SOOO groß ist wie beim Fermi, aber es Zeigt, dass es beim Fermi deutlich schwieriger wird, ihn "klein zu kriegen" ;)

Wäre der Fermi außerdem nur minimal schneller als ATIs HD 5870 bei 2Mrd Transistoren so lässt sich dadurch auch gut schließen, dass es bei Nvidia ca 1.5 Mrd Transistoren ( sogar mehr, weil mehr als die Hälfte der Einheiten bestehen müssen, eben wegen dieser "Grundfeatures") sein müssen um es mit ATIs Mittelklasse aufnehmen zu können, bzw um alle Features in die Mittelklasse zu bringen. Wenn sie Pech haben sogar 1.8 Mrd Transistoren, womit der Chip Flächenmäßig dem ATI Higehndchip entspricht (weil ATI eine größere Transistorendichte hat, laut einem PCGH Artikel)

Das habe ich mit den ersten DX10 Karten gemerkt.
ATI 3850 gekauft, aber DX10 war nicht flüssig darstellbar.Dann eine 4850 gekauft und DX10 war immer noch nicht richtig flüssig.
Dann habe ich mir ne GTX260 gekauft und DX10 lief dann flüssig und sauber.
Ich kauf mir nie gleich eine neue Karte, sondern warte erstmal ab, was noch kommt.
Die HD5800er hat mich nie interessiert, weil wenn ich mal DX11 zocken möchte (falls mal ein paar Games kommen sollten) soll es auch flüssig laufen.
Für momentan DX10 brauch ich keine neue, darum kann es von mir aus noch ein halbes Jahr dauern, bis Fermi kommt, dann werden auch mehr DX11 Spiele auf dem Markt sein ( hoffe ich). Solange reicht mir meine GTX260 noch dicke.

nochmal, du scheinst es nicht zu verstehen: die Karten SIND schnell genug für DX11, die Frage ist einfach wie intensiv Grafik benutzt wird, das hat aber nichts mit erster, zweiter, dritter sonstwas Generation zu tun, sondern einfach wie viel ein Spiel verlangt. Man kann auch ein Direct X 7 Spiel einen Level Basteln, der deine Grafikkarte an die Grenzen bringt, dann geht deine Rechnung aber nicht auf, weil dann kannst auch 11 Jahre nach Direct X7 noch keine Grafikkarte kaufen

Es gibt außerdem schon DX11 Spiele, die auf der Radeon 5xxx Serie völlig flüssig laufen, und zwar schon mit der 5770 (Dirt 2, AvP).

Deine Annahme basiert auf einem 10 Jahre alten Fakt, wo die erste Generation von Grafikkarten eine neue API nur als "nice to have" unterstützen, diese Effekte aber nicht voll auskosten konnten, weil sie dann doch zu langsam waren. Aber Überlegen wir mal (es stehen die jeweils erst erschienenen Karten zur API):
Direct X6/Glide : Voodoo 2-Völlig ausreichend für diese API
DX 7- Geforce 256: ausreichend
DX8- Geforce 3: völlig ausreichend
DX9- Radeon 9700PRO - Völlig ausreichend, selbst 2-3 Jahre später noch stämmte sie alle Spiele
DX 10 Geforce 8800GTX "reicht" bis heute auf "High" bei Crysis
DX 11: Radeon HD 5870 völlig Spielbare FPS bei allen Spielen
 
Zuletzt bearbeitet:
Zurück