TSMC Fail, Nvidia kann Maxwell nicht mit 20nm Chips austatten.

Ja mehr Kerne (günstig) wären super.
Ebenso wäre grade für AMD als Prozessorbauer auch gut, wenn Spiele endlich KI und Physik auf OpenCL und somit die iGPU auslagern könnten.
Die bräuchten den Spielen nur eine anständige Mehrkernoptimierung verpflanzen und schon hätte man einen deutlichen Performancewachstum. Sieht man ja an Titeln wie BF4 relativ gut, dass man auch mit AMD CPUs diese problemlos zocken kann.

Somit würden AMD APUs endlich mal bei Spielen wieder glänzen, da der Prozessor alles außer Grafik machen würde, aber halt diverse Dinge auf den Grafikkern auslagert.
Das tun sie auch jetzt schon, wenn das Spiel nicht lausig programmiert ist. Siehe ersten Punkt.

mfg

Bärenmarke
 
Einfach mal abwarten wann AMD 20nm anbietet. 20nm ist halt eben kein direkter Nachfolger von 28HP sondern eben ~ 28HPM und damit deutlich näher an den Low-Power Lösungen wie 28nm HPL. Der Prozess nennt sich ja nicht ganz umsonst 20nm SOC. Abgesehen davon steht bei TSMC in diesem Prozess ein neuer dicker Elefant im Raum - Apple. Die saugen sicherlich ziemlich viele Wafer für ihre Produktion auf.
 
Wieso ist gleich wieder NV im Titel aber AMD nicht? Beide beziehen Chips von TSMC, die Fragei st dann nur wer zuerst geordert hat kriegt dann auch 20nm Grafik- (High End)- Chips. Kann jedem Chipfertiger und überall passieren, selbst bei Intel.
Was würde da geschrieben wenn es Intel passieren würde?
 
Intel sollte einfach noch ein paar Kröten in die Hand nehmen, und ne neue Finfet Fab aus dem Boden stampfen


Das Know How haben sie ja, und könnten so bei etlichen Partnern fett absahnen, u das Drama mit TSMC hätte endlich erstmal vorerst ein Ende:devil:

Aber die sind wohl eher froh das die Mitbewerber abfallen, und das geht vor Kapitalanhäufung, sonst hätte es da sicher schon mal erfolgreiche Joint Ventures gegeben


TSMC ist zwar auch keine Hinterhofbude mit schwachen Kapitalrücklagen ,aber irgendwie fallen sie immer mehr zurück, und Intel macht relativ problemlos einen Schritt nach dem anderen
 
Zuletzt bearbeitet:
Eher als Intel könnte Samsung eine Alternative sein da Samsungs 20nm HKMG Prozess jenem von TSMC stark ähneln dürfte. Und wo Apple (angeblich) Kapazitäten bei TSMC frisst werden sie bei Samsung frei.

Wie viel weiter Samsung im Vergleich zu TSMC bei 20nm ist sei dahingestellt. Ähnliches gilt für GF.
 
Warum sollte Intel das machen?
Einerseits würde man so zwar Kapazitäten voll bekommen, anderseits hat es aber auch einige Nachteile, nicht nur für Intel:

Für Intel:
-Man muss einen/mehrere "neue" Prozess entwickeln, ist ja nicht so als könnte man einfach mal ne neue Maske machen und die durch irgendeinen Prozess laufen lassen und man hat am Ende gute Yield Raten und gute Grafikchips.
-Vergebene Kapazitäten stehen einem selbst nicht mehr zur Verfügung. Ob nun Fertigungsanlagen oder Man-Power.
-Was aber denke ich mit am wichtigsten wiegt: Man kann seine IGP ohne Fremdfertigung für AMD/Nvidia besser positionieren. Schließlich würde ein 20nm Prozess für AMD/Nvidia bedeuten das die Iris Pro(und auch andere IGPs) schlechter dastehen. Aktuell kann man hier ja recht viel rausholen an Leistung durch den guten Prozess. Dieser Vorteil wäre dann weg.

Aber es hat auch für Nvidia und wohl vor allem AMD Folgen:
-Man gibt die Architekturen an die Konkurrenz. Grade wenn AMD auch APUs dort fertigen ließe um beispielsweise Chips für PS4/Xbone herstellen zu lassen.
-Man benötigt Manpower und Geld um den neuen Prozess mit Intel abzustimmen.

Ist denke ich nichts, was von Heute auf Morgen geht. Da wäre es realistischer, wenn man das von langer Hand vorbereitet, beispielsweise für den 14nm Prozess.
 
Die bräuchten den Spielen nur eine anständige Mehrkernoptimierung verpflanzen und schon hätte man einen deutlichen Performancewachstum. Sieht man ja an Titeln wie BF4 relativ gut, dass man auch mit AMD CPUs diese problemlos zocken kann.


Das tun sie auch jetzt schon, wenn das Spiel nicht lausig programmiert ist. Siehe ersten Punkt.

mfg

Bärenmarke
du hast genau null verstanden worums mir ging. "das tun sie auch jetzt schon". Wo hat denn ein Spiel annähernd die Prozessorleistung genutzt für bessere KI oder Physik? Wir laufen immer noch mit Spielphysik rum, die vor 10 Jahren im Singlecore auch schon möglich war.

Außerdem ist das Auslagern von Berechnungen von Physik und KI auf die GPU teilweise nötig, weil du Teile dieser Berechnungen dort nunmal zig mal schneller erledigen kannst als mit einer CPU.
Und zu guter letzt lässt sich nicht alles auf mehr Kerne skalieren. Das ist eine Milchmädchenrechnung: Doppelt Kerne, doppelt Power.
Wieso ist gleich wieder NV im Titel aber AMD nicht? Beide beziehen Chips von TSMC, die Fragei st dann nur wer zuerst geordert hat kriegt dann auch 20nm Grafik- (High End)- Chips. Kann jedem Chipfertiger und überall passieren, selbst bei Intel.
Was würde da geschrieben wenn es Intel passieren würde?
gibt bezüglich Verzögerungen bei Intel ja eh immer wieder News. Die meisten Verzögerungen basieren aber nicht aufgrund technischer Fails, sondern weil man keinen Druck hat Produkte vorzeitig zu releasen: zwar hätte man kleine Vorteile durch neue Prozesse (geringere Leistungsaufnahme, mehr Trainsistorbudget) aber auch höhere Kosten am Anfang (Stichwort Yieldrate).
Wenn es denn mal zu Verzögerungen kommt, die aufgrund der Technik entstehen, ist dies auch jedesmal breitgetreten worden. Gab dazu auch hier Usernews
 
du hast genau null verstanden worums mir ging. "das tun sie auch jetzt schon". Wo hat denn ein Spiel annähernd die Prozessorleistung genutzt für bessere KI oder Physik? Wir laufen immer noch mit Spielphysik rum, die vor 10 Jahren im Singlecore auch schon möglich war.

Was ich verstanden habe und was nicht, dass kannst du null beurteilen. Dir ging es mal wieder nur mit deinem intel ist so geil geflame, wie in jedem Thread halt, nur dass es rein gar nicht um intel geht. :schief:
Dann vergleiche doch einfach mal die KI von vor 10 Jahren mit heute und ich bin mir sicher, sogar du wirst einen Unterschied feststellen. ;)
Das heutige Games auf einem Singlecore so funktionieren, wie sie es heute tun, wage ich doch sehr zu bezweifeln. Und ja BF4 ist was die Kernauslastung betrifft schon relativ gut wie ich finde, aufjedenfall ist es ein Schritt in die richtige Richtung.
Schließlich hat jeder Rechner heutzutage mehr Kerne als vor 10 Jahren und wieso sollte man das auch vergeuden?
Zumal ich auch nicht alles unbedingt auf die Graka auslagern würde, da der Trend zu 4k mittelfristig geht ist auch erstmal abzuwarten, wie gut die neuen Karten in 20nm performen.
Wobei es schon ziemlich schlecht ist, dass TSMC a) wenig Kapazitäten und b) den Prozess noch nicht zufriedenstellend im Griff hat. Ist schon toll, dass durch die Patentstreitigkeiten Apple nun auch bei TSMC fertigen lässt.:(

Im übrigen könntest du schon längst PhysX in vielen Games haben, nur dreimal darfst du raten, wer da was dagegen hatte und lieber Havoc für die CPU gefördert hat. Richtig, intel...

Außerdem ist das Auslagern von Berechnungen von Physik und KI auf die GPU teilweise nötig, weil du Teile dieser Berechnungen dort nunmal zig mal schneller erledigen kannst als mit einer CPU.
Und zu guter letzt lässt sich nicht alles auf mehr Kerne skalieren. Das ist eine Milchmädchenrechnung: Doppelt Kerne, doppelt Power.

Die GPU kann es zwar schneller tun, jedoch ist die Frage, ist es immer zwingend nötig oder würde es nicht ausreichen, wenn man die Last auf mehrere Kerne verteilt? Bringt ja nichts, wenn Ergebsnis a nach 1s berechnet ist, aber erst nach 10s gebraucht wird und ein weiterer Kern es aber auch unter 10s schaffen würde. Wobei das alles sehr anwendungsspezifisch ist und das die einzelnen Programmierer entscheiden müssen, was bei ihrem "Tool" mehr Sinn macht. Zumal die Konsolen ja auch mehr Kerne haben, wäre es schon günstig, wenn man diese im PC Bereich auch nützt.
Das Huma Konzept lasse ich mal außen vor, da es mit Sicherheit noch einige Jahre dauern wird und es prinzipiell die Gleiche Idee ist, wie die Last auf mehrere Kerne zu verteilen. Es bleibt immer die Frage, lohnt sich die schnellere Berechnung?
Weil ob ich jetzt meine Graka das berechnen lasse oder meine 8 Threads entsprechend beanspruche ist mir egal. Nur so Singlecoregames ala wot sind ein ziemlicher Rückschritt.

Ich bin eher darauf gespannt, was Nvidia und AMD mit dem 28m Prozess noch für Leistung aus ihrer nächsten Generation quetschen und wie sich die Performance dann zu 20nm verhält. Aber das wird leider noch bis 2015 dauern :(

Im übrigen, von deiner Milchmädchenrechnung hat außer dir niemand gesprochen. Das zum Thema mal wieder null verstanden. :schief:
 
Was ich verstanden habe und was nicht, dass kannst du null beurteilen. Dir ging es mal wieder nur mit deinem intel ist so geil geflame
1) aha, wenn ich sage "das ist gut für AMD" ist das also eine "Intel ist Geil geflame"
2)ein flame ist eine Beschimpfung. Ich beschimpfe Intel also als Geil?
wie in jedem Thread halt, nur dass es rein gar nicht um intel geht. :schief:
So wie hier, gell? http://extreme.pcgameshardware.de/u...rozess-altera-wechselt-von-intel-zu-tsmc.html

Das einzige was sich durch jeden Thread zieht, sind deine Unterstellungen
Dann vergleiche doch einfach mal die KI von vor 10 Jahren mit heute und ich bin mir sicher, sogar du wirst einen Unterschied feststellen. ;)
Vor 10 Jahren kamen Egoshooter wie Far Cry raus, da wo Gegner einen gespottet und umzingelt/flankiert usw haben. Das war ein riesen Schritt nach vorne, davon ist in den letzten 10 Jahren wenig zu sehen, grade bei den großen Spieleserien (COD, BF) wurde die KI von Mal zu Mal dümmer im Vergleich
Das heutige Games auf einem Singlecore so funktionieren,
hab' ich auch nirgends geschrieben, oder? Du legst mir schon wieder Worte in den Mund und stellst mich dann als Lügner hin
Zumal ich auch nicht alles unbedingt auf die Graka auslagern würde, da der Trend zu 4k mittelfristig geht ist auch erstmal abzuwarten, wie gut die neuen Karten in 20nm performen.
Ich sprach ja von der integrierten GPU, die in 90% der heute verkauften Prozessoren drin ist und die sowieso brach liegt... somit wäre sie mal sinnvoll genutzt. Du hast also doch bewiesen, dass du null verstanden hast worum es mir ging.
Wobei es schon ziemlich schlecht ist, dass TSMC a) wenig Kapazitäten und b) den Prozess noch nicht zufriedenstellend im Griff hat. Ist schon toll, dass durch die Patentstreitigkeiten Apple nun auch bei TSMC fertigen lässt.:(
was es jetzt mit Apple zu tun hat weiß ich nicht, bzw warum du das erwähnst. Die aber kümmert das wenig, die wissen ja auch wie sie Ramsch schweineteuer verkaufen können
Im übrigen könntest du schon längst PhysX in vielen Games haben, nur dreimal darfst du raten, wer da was dagegen hatte und lieber Havoc für die CPU gefördert hat. Richtig, intel...
Physik in Spielen oder PhysX?
Es gibt Havok aber kein Havoc. Und ja, das läuft super auf der CPU, zeigt oft sogar wie obsolet PhysX eigentlich ist, wenn man sich die Techdemos ansehen will. Gibt außerdem andere Physikengines. Bleibt dank OpenCL ja den Entwicklern über, wo sie es einsetzen, vorzugsweise auf der brach liegenden iGPU für gewisse Physikberechnungen (nicht Effekte). Die dedizierte Grafkikkarte soll von mir aus nur Grafik berechnen und die CPU den Rest.
AMD setzt ja seit Jahren auf Bullet... aber da kommt und kommt nichts :(
Außerdem sind Spiele seit zig Jahren extrem anspruchslos was die CPU betrifft, wäre eh mal an der Zeit die richtig zu fordern. Ob mit KI oder Physik ist mir egal, die Pest sind proprietäre Standards wie PhysX

Die GPU kann es zwar schneller tun, jedoch ist die Frage, ist es immer zwingend nötig oder würde es nicht ausreichen, wenn man die Last auf mehrere Kerne verteilt?
Die GPU kann nicht jede Berechnung schneller als eine CPU, diese Aufgaben müssten geteilt werden
Bringt ja nichts, wenn Ergebsnis a nach 1s berechnet ist, aber erst nach 10s gebraucht wird und ein weiterer Kern es aber auch unter 10s schaffen würde.
Klar bringt das was...
Wobei das alles sehr anwendungsspezifisch ist und das die einzelnen Programmierer entscheiden müssen, was bei ihrem "Tool" mehr Sinn macht. Zumal die Konsolen ja auch mehr Kerne haben, wäre es schon günstig, wenn man diese im PC Bereich auch nützt.
Ob recht viele CPU intensive anwendungen für die Konsolen kommen ist fragwürdig, die Rohpower der CPUs der PS4 und Xbox One ist unterhalb des 8 Kern CELL Prozessors der PS3, letztere hatte außerdem nicht nebenbei ein OS mit viel Firlefanz zu stämmen.

Das Huma Konzept lasse ich mal außen vor, da es mit Sicherheit noch einige Jahre dauern wird und es prinzipiell die Gleiche Idee ist, wie die Last auf mehrere Kerne zu verteilen.
Öh nein, ist es nicht. Da steckt viel mehr dahinter.

Es bleibt immer die Frage, lohnt sich die schnellere Berechnung?
IMMER. sind ja Ressourcen die frei werden für andere Dinge.
Weil ob ich jetzt meine Graka das berechnen lasse oder meine 8 Threads entsprechend beanspruche ist mir egal.
Wenn der Prozessor "seine" Dinge macht, bleibt halt bei der GPU mehr "Raum", dass sie sich um ihre Dinge kümmert. Physik, Weltenberechnung, KI sind derzeit Prozessordinge. Grafikkarte soll halt hauptsächlich Grafik berechnen. Die Grenzen werden hier aber in Zukunft verwischt werden (aber nicht verschwinden).

Ich bin eher darauf gespannt, was Nvidia und AMD mit dem 28m Prozess noch für Leistung aus ihrer nächsten Generation quetschen und wie sich die Performance dann zu 20nm verhält. Aber das wird leider noch bis 2015 dauern :(
Maxwell hat gezeigt, wieviel man aus einem optimierten Design noch rausholen kann (effizienz heißt ja auch bessere Skalierbarkeit über alle Chips hinweg). Aber ein "großer" Schritt ist natürlich nur mit neuem Prozess möglich.
Blöd ist halt, dass man sich seit Einführung von 28nm wenig bewegt, und das war eben 2011 mit AMDs CGN Architektur. Seither bewegt sich bei GPUs zwar noch was, aber im Vergleich zu früher sind es Minischritte wie es derzeit im CPU Bereich ist

Im übrigen, von deiner Milchmädchenrechnung hat außer dir niemand gesprochen. Das zum Thema mal wieder null verstanden. :schief:
Da du einfach IRGENDWAS quatschst, und dann andere Lügner schimpfst, offensichtlich meine Posts eh nicht verstehst und falsch auslegst und auch nicht verstehst was mit der Milchmädchenrechnung gemeint ist, außer, dass du es für persönliche Angriffe verwendest, ist mir schon klar wer hier wieder null versteht ;)
 
- Intel ist absoluter Technologieführer, deswegen kann ich auch nur bis zu einem gewissen Grad den Vorwurf "Intel ist geil geflame" verstehen.
Sie schweben halt in ihrer eigenen Liga und dementsprechend sind auch ihre Produkte ausgestattet, es ist kein Wunder wieso die meisten natürlich Intel kaufen und AMD im Vergleich schlecht dasteht.
Die FX-Linie ist praktisch tot und mit 2 Modulen kommt AMD bei absoluter Performance nicht weit und darauf stehen hier die meisten.

- AMD fördert Bulletphysics aber ich weiß nicht ob darauf setzen der richtige Ausdruck dafür ist.
"Bald", also seit wohl einem Jahr, sollte Bullet 3.0 kommen und wenigstens eine Festkörperphysik für GPUs implantiert haben.
Von Nvidias Softwarepaket leider dennoch weit entfernt und ich denke wir sehen eher Studio eigene Lösungen oder sonst etwas, bevor wir von Bullet in Games wirklich profitieren würden. (GPU-Compute)

- Die PS3 hat auch ein SPE für das System abgeben müssen und die CPU, besser gesagt APU, durfte sich auch mit Zeug beschäftigen was wir laienhaft als GPU-Aufgaben ansehen.
Der theoretische FP-Durchsatz war natürlich schön und ich denke auch nicht das Jaguar da wirklich drauf legt, aber Sprünge brechen der CPU nicht mehr das Genick, Entwickler müssen nicht mehr alles selber managen und die IPC sollte stellenweise deutlich höher sein, gut man muss auch die Hälfte des Taktes kompensieren.

- GCN - Graphics Core Next - G_C_N - G C N
 
- Intel ist absoluter Technologieführer, deswegen kann ich auch nur bis zu einem gewissen Grad den Vorwurf "Intel ist geil geflame" verstehen.
Sie schweben halt in ihrer eigenen Liga und dementsprechend sind auch ihre Produkte ausgestattet, es ist kein Wunder wieso die meisten natürlich Intel kaufen und AMD im Vergleich schlecht dasteht.
Dagegen ist ja nix einzuwenden, ich selbst benutze Intel Prozessoren, denn Intel hat "geile" Produkte und "geile" Technologien, aber er tut als würde ich sie ständig glorifizieren und das in jedem Thread, was nicht stimmt, ich habe mich Jahrelang auch über deren Fehler aufgeregt, etwa zu Pentium 4 Zeiten vs Athlon 64. Ich selbst habe zu Hause 3 AMD und 2 Intel PCs, habe also genug "Liebe" für beide Übrig und kenne die Probleme und Vorteile beider Systeme.
Ich schrieb hier auch schon einige Pro AMD News, und einige Contra Intel News (ebenso umgekehrt). Dass man, im Moment mehr Lob für Intel hat als für AMD ist einfach klar - aus den Punkten die du schon sagst.



- GCN - Graphics Core Next - G_C_N - G C N
immer wieder passierts mir. Das ist keine Legasthenie, das ist leider Freud' der mir einen Strich durch die Rechnung macht, wenn ich arbeite und nebenbei poste :D
 
Zurück