Grafikkartenhersteller besorgt wegen Kepler

30% bei 170 Watt und 250/70 Euro :huh: Also dein Traum ist jedenfalls mal ein machbarer :D


Könnte nicht. Beide werden möglichst versuchen mit einem Refreshes für 28nm aus zu kommen. Das wird wohl Q1 2013 passieren und nicht schon im September/Oktober. Jedenfalls nichts mit CI.
Die Situation ist auch nicht die gleiche wie 3870 zu 4870. 3870 war ein speed Refresh der 2900XT. Cayman hat sich übrigens 15 Monate Zeit gelassen und Barts war bei 13 Monaten?

Da gibt es doch jede menge Gründe? :huh:
Cayman kam deswegen so spät, weil a) Nvidia mehr Chips für sich beansprucht hat und AMD daher zu kurz kam und b) weil 40nm immer noch nicht perfekt war und c) weil Northern Islands ursprünglich für 32nm geplant wurde und AMD wegen der Streichung Northern Islands komplett umgestalten musste.
Alle Meldungen bisher besagen, dass 28nm viel besser läuft als 40nm. Daher kann ich mir gut vorstellen dass der Nachfolger (ich gehe jetzt davon aus, dass Canary Islands und HD8K das Gleiche ist da Charlie schon viele Monate früher gesagt hat, dass CI bereits 2012 erscheinen würde) kurz nach Southern Islands bzw. nach dem High-End Chip von Nvidia erscheint. (das Kürzel CI ist schon länger im Umlauf)
 
Cayman kam deswegen so spät, weil a) Nvidia mehr Chips für sich beansprucht hat und AMD daher zu kurz kam und b) weil 40nm immer noch nicht perfekt war und c) weil Northern Islands ursprünglich für 32nm geplant wurde und AMD wegen der Streichung Northern Islands komplett umgestalten musste.
Alle Meldungen bisher besagen, dass 28nm viel besser läuft als 40nm. Daher kann ich mir gut vorstellen dass der Nachfolger (ich gehe jetzt davon aus, dass Canary Islands und HD8K das Gleiche ist da Charlie schon viele Monate früher gesagt hat, dass CI bereits 2012 erscheinen würde) kurz nach Southern Islands bzw. nach dem High-End Chip von Nvidia erscheint. (das Kürzel CI ist schon länger im Umlauf)

a) Das kann Nvidia 15 Monate nach Prozessdurchlauf für High-End Produkte gar nicht schaffen.
b) Müsste es Nvidia ebenfalls treffen, aber 15 Monate sind ja wohl genug Zeit gewesen.
c) Sagt wer verlässlich? Das der 32nm Node gestrichen wird, wusste AMD schon 1 Jahr davor und geschäftsintern hat das TSMC viel früher überliefert, als es in die Rumors kam. Was hätte AMD da maximal beim Port verloren? 4-6 Monate?
d) Ich bin ja dafür, dass AMD ihren Praktikanten genug Zeit lassen musste, bei jedem einzelnen PCB die Versorgungsspannung ab zu feilen :ugly:

Charlie labert genau so viel Dreck wie unser lieber OBR. Außer paar Insider-Leaks von ihnen kann man nichts handfestes entnehmen. Die Roh-Daten sind manchmal brauchbar, das Geschwätz drum herum nicht.
Was würde so ein früher Refresh AMD bringen? Das man dann 1 und halb jahre ohne irgend etwas in der Hand steht? Ein dritter Refresh kommt sicher nicht.
 
Cayman kam deswegen so spät, weil ... c) weil Northern Islands ursprünglich für 32nm geplant wurde und AMD wegen der Streichung Northern Islands komplett umgestalten musste.
Alle Meldungen bisher besagen, dass 28nm viel besser läuft als 40nm. Daher kann ich mir gut vorstellen dass der Nachfolger ... kurz nach Southern Islands bzw. nach dem High-End Chip von Nvidia erscheint.

Du sagst es ja selbst: War in 32 nm geplant.
28 nm: HD 7000
32 nm (geplant): HD 6000
40 nm: HD 5000
55 nm: HD 4000
-Ausnahme von der Regel: 55 nm: HD 3000 -
65 nm: Grund für die Ausnahme - in der Oberklasse nie verwendet
80 nm: HD 2000
90 nm: Großteil der x1000
110 nm: Refresh-Teil der x000
130 nm: x000
150 nm: 9000

Das ist eine VERDAMMT lange Produktgeschichte, bei der im Oberklassensegment (die Unter- und Mittelklasse hinkte z.T. eine Generation hinterher, zum Teil wurde sie als Probenummer für kommendes verwendet) eine neue Generation immer auch eine neue Fertigung bedeutete. Einmal gab es in der Mitte ein Aussetzer, bei dem ein Schritt übersprungen und dafür der folgende doppelt verwendet wurde. Die HD 6000 war das erste mal, dass es einen kompletten Refresh im gleichen Prozess gab - und das war auch nur wegen äußerer Umstände.
Eine zweite Oberklasse/High-End Auflage in 28 nm ist somit definitiv keine Selbstverständlichkeit (am unteren Ende muss man erstmal abwarten, ob da überhaupt 28 nm oder nur relabels kommen, die dann tatsächlich noch abgelöst werden) und es ist erst recht nicht gesichert, dass dieser in kurzem zeitlichen Abstand folgt. Wesentlich naheliegender wäre eigentlich, dass die HD8000 erst mit 22 nm oder 18 nm (was immer TSMC auf die Reihe bekommt) erscheint und da über AMD Produkte leider immer sehr viele Fanboy-Hoffnungen kursieren (siehe den Sandy Bridge E Konkurrenten Bulldozer, die seit November kaufbaren Radeon 7000 mit XDR2, diverse AMD-basierte Apple-Produkte und die AMD-Tablet-CPUs mit 80% Marktanteil ;) ), würde ich aus gegenläufige Andeutungen aus ungenannten Quellen erstmal keine gegenläufigen Schlüsse ziehen.
 
...
Eine zweite Oberklasse/High-End Auflage in 28 nm ist somit definitiv keine Selbstverständlichkeit (am unteren Ende muss man erstmal abwarten, ob da überhaupt 28 nm oder nur relabels kommen, die dann tatsächlich noch abgelöst werden) und es ist erst recht nicht gesichert, dass dieser in kurzem zeitlichen Abstand folgt. Wesentlich naheliegender wäre eigentlich, dass die HD8000 erst mit 22 nm oder 18 nm (was immer TSMC auf die Reihe bekommt) erscheint und da über AMD Produkte leider immer sehr viele Fanboy-Hoffnungen kursieren (siehe den Sandy Bridge E Konkurrenten Bulldozer, die seit November kaufbaren Radeon 7000 mit XDR2, diverse AMD-basierte Apple-Produkte und die AMD-Tablet-CPUs mit 80% Marktanteil ;) ), würde ich aus gegenläufige Andeutungen aus ungenannten Quellen erstmal keine gegenläufigen Schlüsse ziehen.

Und ich würde als Moderator auch moderat sein. Cheers
 
Also von mir aus dürften alle 6 Monate neue Modelle auf den Markt kommen... Mir gefiel eigentlich das Modell mit den 48xx und dann etwas später 49xx, ebenso wie bei Nvidei die 260 und die 275 gtx, auch wenn ich mir höchstens alle 2 Jahre eine neue Grafikkarte kaufe. Reicht ja auch vollkommen aus, denn dank der Konsolen ist die Grafik nicht viel weiter als noch vor 2 Jahren...

Wenn man immer soo lange warten müsste, bis die aktuelle High-End Grafikkarte durch eine neue ersetzt wird, die dann trotz neuer Fertigungsgröße "nur" bei 10-15% Leistungszuwachs liegt, dann wäre das ziemlich schwach... Ich meine, dass die 4970 5-10% mehr Leistung hatte, als die 4870, da sollte ein neuer Fertigungsprozess und ne neue Struktur doch wohl mindestens 20% bringen...

Zwar ist der Sprung im internen Vergleich doch recht gut, doch leider bin ich etwas enttäuscht von der 7970... Ich hatte mir mehr Leistung erhofft... So wird meine 260GTX wohl erst durch Kepler ersetzt... schade.
 
Also ich mache mir keine Sorgen wegen Nvidias nächsten Chip, den die jetzige Generation ist bei meinem Lieblingsspiel sowieso klar besser als die HD7970.
 
Das einzige was von Anfang an klar ist, Kepler wird schneller. Ist wieder nur die Frage um wieviel. Es gab bei der HD7k schon gerüchte das die so schnell wird wie die 6990, aber ist nun mal nicht. Jetzt bei Kepler das gleiche, aber war bei Fermi auch schon so, dass die geträumt haben von was weiß ich für Leistung und am Ende waren es ein paar Prozent zu einem Preis von mehr als 50% mehr Verbrauch.

Kann man nur hoffen das Kepler nicht so ein Fail wird.
 
Warten wir mal den Herbst ab, wenn kepler erscheint. Bis dahin kann man noch viel :kaffee: trinken ^^

Oder hatte hier schon irgendwer ein Erscheinungsdatum gehört ? ;-)
 
Is ja nich schwer das zu googlen ;-)

War darauf bezogen, dass ich seine Vorahnung beneide, schon zu wissen, wie schnell die Karte in "seinem Spiel" sein wird :D
Präkognition ist kein deutsches Wort!? ;)

e: jahaa, da hat ers gefunden :-P
 
Er redet doch von der jetzigen Generation, die in seinem Spiel schneller ist, als die 7970 in seinem Spiel.

Ich geh mal davon aus, er meint die 500er generation.

Dafür braucht er keine Vorahnung.

P.s.: Benchmarks zur 7970 gibt es ja schon, falls Du jetzt wieder meine Vorahnungskünste bewundern möchtest ;-)

Edit : Entschuldigung .... ich meinte natürlich Präkognition . :P :lol:
Edit 2: Schätze er spielt auf den battlefield3 Bench an.Um mal weiter meine Vora..... Prägnotzikatzifikation zu bemühen.
Edit3: Oder war´s doch Skyrim ? http://www.pcgameshardware.de/aid,8...xpress-30-und-28-nm/Grafikkarte/Test/?page=15
 
Zuletzt bearbeitet:
OMG. Du hast recht, da hab ich ja sowas von falsch gelesen. Sowas passiert mir immer so früh am Morgen :ugly: Damn it! :lol:
Jeder Hersteller hat seine Vor- und Nachteile. Je nach Spiel und Software. :-)

Dein "Praekognition" war schon richtig (ae oder ä - wayne^^), ich dachte nur ich hatte mich verschrieben, weil du den Duden verlinkt hattest :ugly:
 
Nee , nee ..... hattest schon richtig geschrieben. War nur als Hilfe für diejenigen, die nur deutsch können und im latein nicht so bewandert sind ;-)

Und is noch früh .... erstmal noch n :kaffee: ;)
 
Leute Nvidia wird sicher schneller, allerdings werden wir sehen was passiert.

Es kann ein Wunderchip alla G80 mit 70-100 % mehr Leistung werden als eine 580, allerdings auch ein Thermi-Chip, mit 10 % mehr als eine 7970 durch 300 Watt.

Aber wahrscheinlich liegt es dazwischen, gut 25 % mehr Leistung als eine 7970, bei bisschen mehr Stromverbrauch, eine 770 ca. auf der höhe von einer 7970 und die 760 konkuriert mit der 7950 auf 580 Niveau (bei verdammt guter Effizienz beider Seiten).

Allerdings würde ich mir echt wünschen dass AMD noch versteckte Cores hat und die Tatktschraube dreht, um der 780 das Fürchten zu lehren. Einfach damit AMD bisschen stärker im High-End Segment wäre.

Persönlich sind mit AMD GPUs (nicht CPUs) sympathischer als Nvidias, allerdings wird die schnellste Single GPU gekauft und wenns Nvidia wird auch egal :)
 
Leute Nvidia wird sicher schneller, allerdings werden wir sehen was passiert.

Es kann ein Wunderchip alla G80 mit 70-100 % mehr Leistung werden als eine 580, allerdings auch ein Thermi-Chip, mit 10 % mehr als eine 7970 durch 300 Watt.

...

Es wurde schon öfter geschrieben, aber jetzt nochmal. Der G80 war super, aber der nostalgische Blick verklärt bei den Leuten auch immer etwas die Tatsache, dass das Ding ~50% mehr Strom für diese Performancesteigerung im Verhältnis zum Vorgänger geschluckt hat.

Wenn also die GTX 780 70-100% mehr Leistung als eine 580 bringt und man den G80 als Referenz hernimmt, dann würde dabei der Stromverbrauch auch um etwa 50% ansteigen im Verhältnis zur 580. Ht4u beziffert die Leistungsaufnahme in Spielen für die GTX 580 bei ~250 Watt. Das würde bedeuten die GTX 780 würde ~ 375 Watt unter Spielelast schlucken. In Extremsituationen würde man dann das Budget deutlich sprengen, wobei man ja dafür schon mit der Fermigeneration die Hardwaresperren eingebaut hat, die bei Furmark etc. greifen. Auch unter Berücksichtigung der Tatsache, dass Architekturen effizienter werden usw. wäre eine solche Leistungssteigerung (und wir reden hier immer von Durchschnittsleistung und nicht einzelnen Ausreißern) nicht ohne deutliche Stromerhöhung zu schaffen und es wären vlt. nur 25% mehr Stromverbrauch ~312 Watt bei ca. 70% mehr Leistung, was aber eben immer noch viel ist und womit man immer noch 50% über der 7970 läge im Stromverbrauch und somit ungefähr bei der gleichen Effizienz aufschlaggen würde, wie die 7970.

Ich denke einfach nicht, dass solche Steigerungen noch realistisch sind, solange man nicht mit dem Stromverbrauch deutlich nach oben fährt. Man siehts ja auch bei den CPUs wo Intel sich auch zunehmend im +10%-20% Leistung von Generation zu Generation bewegt.
 
Zuletzt bearbeitet:
Es wurde schon öfter geschrieben, aber jetzt nochmal. Der G80 war super, aber der nostalgische Blick verklärt bei den Leuten auch immer etwas die Tatsache, dass das Ding ~50% mehr Strom für diese Performancesteigerung im Verhältnis zum Vorgänger geschluckt hat.

Wenn also die GTX 780 70-100% mehr Leistung als eine 580 bringt und man den G80 als Referenz hernimmt, dann würde dabei der Stromverbrauch auch um etwa 50% ansteigen im Verhältnis zur 580. Ht4u beziffert die Leistungsaufnahme in Spielen für die GTX 580 bei ~250 Watt. Das würde bedeuten die GTX 780 würde ~ 375 Watt unter Spielelast schlucken. In Extremsituationen würde man dann das Budget deutlich sprengen, wobei man ja dafür schon mit der Fermigeneration die Hardwaresperren eingebaut hat, die bei Furmark etc. greifen. Auch unter Berücksichtigung der Tatsache, dass Architekturen effizienter werden usw. wäre eine solche Leistungssteigerung (und wir reden hier immer von Durchschnittsleistung und nicht einzelnen Ausreißern) nicht ohne deutliche Stromerhöhung zu schaffen und es wären vlt. nur 25% mehr Stromverbrauch ~312 Watt bei ca. 70% mehr Leistung, was aber eben immer noch viel ist und womit man immer noch 50% über der 7970 läge im Stromverbrauch und somit ungefähr bei der gleichen Effizienz aufschlaggen würde, wie die 7970.

Ich denke einfach nicht, dass solche Steigerungen noch realistisch sind, solange man nicht mit dem Stromverbrauch deutlich nach oben fährt. Man siehts ja auch bei den CPUs wo Intel sich auch zunehmend im +10%-20% Leistung von Generation zu Generation bewegt.

Ich schätze mal dass du sehr Recht hast. Das leuchtet alles ein :)

Edit: Nivida schafft als laut deinen (sehr realistischen Berechnungen) maximal 50 % mehr Leistung bei ungefähr gleich hohen Stromverbrauch einer 580 (250 Watt).

Sinnvoller wäre allerdings für Nvidia mal bei 200-220 Watt zu bleiben und nur so 30 % zuzulegen ;)
 
Zuletzt bearbeitet:
ich würde gerne Battelfield 3 auf maximalen einstellungen spielen. die amd 7990 schreckt mich ab, wegen den microrucklern.
wenn ich kein flüssiges spielgefühl habe, dann kann mir die enorme rohleistung auch nicht weiterhelfen.
hinzu kommt der hohe preis von 850 euro der amd 7990 bei release.

die gtx 780 könnte schon reichen, für max details unter full HD in battelfield 3. irgendwie ist ja von nvidia nichts bekannt.
hoffe nur das kepler nicht bis august braucht und im ersten quartal erscheint oder anfang 2 quartal.
 
Zurück