News 16-nm-Chips: TSMC hat die Massenproduktion gestartet

Die Argumentation, dass Sa/GF bei 14LPP schneller ist als TSMC mit 16FF+ ist also nicht so weit hergeholt.

Es ist mir egal, ob das weit her geholt ist oder nicht. Ich würde es einfach gerne selber nachlesen.
In einem anderen Thread hat er behauptet, dass GF ein ganzes Jahr Vorsprung hat. Und eben das hätte ich gerne belegt.
 
das will er aber nicht wahrhaben, deswegen sehe ich seine postings auch nicht mehr:)

Er versteht es einfach nicht. Behaupten kann man Vieles, aber konkrete Aussagen sollte man schon belegen können. Es ist aber bezeichnend, dass ich bei ihm scheinbar auf der Ignore Liste stehe, nur weil ich ihn bereits in einem anderen Thread nach seinen Quellen gefragt habe.

Hier bitte, google is your friend(at least this time).
Ist leider nur wccftech :(

No1

No2

Danke für die Links:daumen:
 
In der Größenordnung um (echte, nicht Marketing!) 10 nm sollten die Quanteneffekte so groß sein dass ein Chip nicht mehr funktioniert. Bis wir da ankommen vergehen noch Jahrzehnte (die aktuelle "14nm" Generation ist an den fins noch über 40 nm dick, die "14nm" sind ein reiner Marketingwert und haben mit realen Größen in der CPU nichts zu tun).

Wie bitte? Jahrzehnte? O.o
Weswegen hat sich 22nm, 28 nm oder 32nm dann nicht so lang gehalten?

Mir kam es nach 45 nm ratzfatz fix vor bis zur nächsten Fertigungsgröße.
 
Der Aufwand um kleiner zu werden wird mit jedem Schritt immer größer. Also von 130 auf 90nm zu springen war sehr sehr viel einfacher als von 22 auf 14.
Bis wir real an einem Punkt sind wos aufgrund anderer Effekte nicht mehr kleiner geht stehen noch mindestens 5 volle Sprünge an von denen jeder länger dauern wird als der vorherige.
Die 28nm Generation gibts jetzt seit etwa 4 Jahren, die nächste Generation kommt erst mitte/Ende nächstes Jahr. Das sind 5 Jahre für einen Sprung und es wird bei den kommenden noch länger dauern.

Deswegen hat Intel ja auch ganz offiziell sein Tick-Tock-Modell angepasst und tickt sozusagen jetzt langsamer.

Es kann durchaus auch passieren, dass in der Richtung obwohl technisch machbar nicht mehr weitergemacht wird weils unwirtschaftlich ist. Es hat keinen Sinn, 50 Milliarden in eine technik zu investieren mit dem man am Ende nur 30 Milliarden Umsatz macht. :ka:
 
Heißt also, es könnte auch irgendwann einmal zum völligen Stillstand kommen oder zumindest für eine gewisse Zeit.
Das Alternativen allerdings jetzt schon vorhanden sind, war mir aber bisher noch nicht bekannt.

Vielen Dank für die Aufklärung! :daumen:
 
Heißt also, es könnte auch irgendwann einmal zum völligen Stillstand kommen oder zumindest für eine gewisse Zeit.

Natürlich, der Trend ist doch seit Ewigkeiten zu sehen. Die Leistungssprünge werden über die Generationen immer kleiner, der Aufwand für Shrinks immer größer.
Vor 20 Jahren hat eine neue CPU-Generation ihren Vorgänger locker ums Doppelte weggehauen, aktuell machen wir 10%-Schritte.

Bei Grafikkarten gehts architekturbedingt noch weil man hier einfach massiv parallelisieren kann (kleinere Strukturbreite --> "einfach" ein paar Tausend Shadereinheiten dazuballern und das Ding ist deutlich schneller), bei CPUs hilft das nicht weiter ab einem gewissen Punkt, zumindest für normale Heimuser (es ist kein Problem 20 Kerne in ne CPU zu packen nur macht das den Normalo-PC nicht schneller).

Aber letzterer hat damit auch kein Problem, weil jede moderne CPU viel mehr Leistung hat als die allermeisten Anwender jemals brauchen werden. Nur die paar Leute die zu Hause mit dem PC rechenintensive Dinge tun oder zocken brauchen immer mehr Power. Weil der Markt verhältnismäßig klein ist ist da auch nicht so die Bewegung drin - die große Bewegung ist ein anderes Feld, nämlich im ARM-Bereich mit möglichst wenig Milliwatt viel Leistung rauszuholen. Die Leute kaufen ja heute keine Desktop-PCs mehr sondern Smartphones, Tablets oder sonstige Gadgets.
 
Er versteht es einfach nicht. Behaupten kann man Vieles, aber konkrete Aussagen sollte man schon belegen können. Es ist aber bezeichnend, dass ich bei ihm scheinbar auf der Ignore Liste stehe, nur weil ich ihn bereits in einem anderen Thread nach seinen Quellen gefragt habe.

Wilkommen im Club, er scheint seine Thesen nicht belegen zu können/wollen, auf Gegenargumente geht er auchnicht ein und meinen Tip das man keine Diskusionen vom Zaun brechen sollte, wenn man sie nicht führen kann, hat er auch nicht sonderlich gut aufgenommen (falls ich da nicht schon auf seiner Ignoreliste stand). Das witzige ist das man sich Diskusionstechnisch damit selbst ins Knie schießt, ein nicht widerlegtes Argument gilt als richtiges Argument.

In der Größenordnung um (echte, nicht Marketing!) 10 nm sollten die Quanteneffekte so groß sein dass ein Chip nicht mehr funktioniert. Bis wir da ankommen vergehen noch Jahrzehnte (die aktuelle "14nm" Generation ist an den fins noch über 40 nm dick, die "14nm" sind ein reiner Marketingwert und haben mit realen Größen in der CPU nichts zu tun).

Es ist angeblich nurnoch eines, je nachdem wie schnell es vorangeht.

Heißt also, es könnte auch irgendwann einmal zum völligen Stillstand kommen oder zumindest für eine gewisse Zeit.
Das Alternativen allerdings jetzt schon vorhanden sind, war mir aber bisher noch nicht bekannt.

Das ist die Frage, wobei die Nanoröhrchen auch nur eine Variante das jetzigen ist. Ein heißer Kandidat ist der Quantencomputer, damit könnte man nach heutigen Maßstäben endlose Rechenleistung bereitstellen, falls man es je meistert. Alternativen wären noch der DNS Computer oder Systeme die auf Licht basieren, damit käme man auchnoch relativ weit.

Wenn sich nichts davon durchsetzen kann ist es mehr als möglich das es der IT geht wie der Raumfahrt, da geht es ja in den letzten Jahrzehnten auch gemächlich voran (allerdings aus Politischen Gründen). Dann können wir uns Träume wie eine Starke KI auf Menschenniveau endgültig abschminken.
 
Bei AMD das gleiche Spiel, es ist zu erwarten dass eine R9 490X in 14/16nm bei gleichem Verbrauch 40-50% schneller ist als ihr Vorgänger.
Bei AMD würde ich sogar etwas mehr erwarten. Sicher kommt jetzt bald mal ein völlig überarbeitetes GCN Konzept, welches mehr Leistung pro Transistor hat bzw Effizienter ist oder wie man es auch immer sagen möchte, ähnlich wie Maxwell zu Kepler muss hier ein kleiner Sprung her. Zusätzlich dazu ist der Sprung von 28 auf 14nm doch etwas größer als der "übliche" Sprung in einen neuen Herstellungsprozess - auch wenns nur Namen sind.
HBM2 kommt zumindest bei den größeren Varianten auch dazu... also ich freu' mich auf die kommende Generation. Gut von 2011 (GCN Einführung) bis dahin (immerhin schon 5 Jahre oder ein halbes Jahrzehnt) hat sich beim Tempo eh zu wenig getan für meinen Geschmack... wenn man die 5 Jahre davor hernimmt. Und das lag halt am Prozess. Endlich tut sich wieder was :)
 
na da freut sich der enteusiast :D
endlich gibts mal gute nachrichten was di neuen fertigungen betrift...
dann kan ich mitbpasal ja endlich aufrüsten :D
weil wi ich schon mermals sagte, werde ich in das aktuele bzw ausgelitsche fertigungsferfahren nicht mer investieren... mehr power wäre aber trotzdem nice :D
also gogogo tsmc macht hine das ihr zu dem schrit kommt das auch grafikchips möglich sind :D
 
Bin auch gespannt auf die neuen Karten im neuen Fertigungsverfahren. Dauert aber leider noch etwas und ich würde mich schon mal auf Preiserhöhungen einstellen. Ich vermute z.B. eine 500 € Pascal Karte wird auch nicht wesentlich schneller werden als eine 500 € Maxwell Karte...
 
naja eig hies es ja mal das es aufgrund weniger material biliger werden müste... jedoch darf man nicht vegesen das beide unternemen geld wollen und sich die neue rechnik der graka sowi der fertigung fett bezahlen lassen werden^^
aber da heist ma wider abwarten... leider
 
na da freut sich der enteusiast :D
endlich gibts mal gute nachrichten was di neuen fertigungen betrift...
dann kan ich mitbpasal ja endlich aufrüsten :D
weil wi ich schon mermals sagte, werde ich in das aktuele bzw ausgelitsche fertigungsferfahren nicht mer investieren... mehr power wäre aber trotzdem nice :D
also gogogo tsmc macht hine das ihr zu dem schrit kommt das auch grafikchips möglich sind :D

Mein Gerede;). Warte auch noch mit dem aufrüsten. Man kann den Grafikkartenherstellern ja nicht ständig Geld in den Rachen schmeißen. Ich hoffe nur, dass mit Pascal/ äquivalentes AMD-Produkt vernünftiges Spielen in 4K möglich wird :).
 
naja deine ti geht ja auch noch... nur di 3gb vram sind ev etwas mager... bin da aber mit 4gb ned viel beser dran :D
naja ich denke bis für mich 4k in greifbare nähe rückt dauerds noch... bin ser empflindlich un brauch min 80 beser noch 90fps +... die monitore di das schaffen sind rar... und vor allem die grafikarte exisitert aktuel nichma im ansatz :D
naja solange muss eben fhd reichen :D aber naja... und dauernd geld in den rachen werfen? darum get es mir nichtmal^^ mir geht es darum das ich es absolut nicht einsehe noch imer in diesen stillstand bei der fertigung zu investieren... ich bezale erst was wenn mich das produkt zufriden stellt... und da mit ner kleienren fertigung die energikosten geringer werden (für mich absolut vernachläsigbar) kann man bei gleichem tdp mehr power unterbringen... auch bringt die neue fertigung gleiche power bei weit weniger energie... sowas will ich :D
und amds xter refresh überzeugt da absolut nicht... auch wen mit den furys endlich mal n neuer schrit bzw n guter schritt gemacht wurde.... aber nuja... ich hofe das die neue fertigung wenigstens schonmal vorab benches dieses jahr noch gibt... kla kan man den vorabbenches von irgendwelches seiten nicht unbedingt trauen... aber beser als nix :D
 
Zurück