Intel: 10-nm-Verzug aufgrund der aggressiven Herangehensweise an Moores Law

Ich vermute mal, dass Intel einfach zu hoch gepokert hat,
das wird vermutlich in folgende Richtung gegangen sein:

Von AMD haben wir eh länger keine ernsthafte Konkurrenz zu erwarten, somit sparen wir uns einen Zwischenschritt und gehen direkt auf die 10nm, "samt Faktor 2,7", darf auch bissi länger dauern
Durch den fehlenden Zwischenschritt gab's aber vermutlich unerwartete Probleme, welche viel hinauszögern.
Der 10nm Raum: "Ja wir sind kurz davor". CEO: "Yey 10nm is am Start!". 10nm Raum: "Kagge, neues Problem...."
Leider hat man die 10nm schon zu früh "gefeiert" und nicht nur dafür geworben, sondern auch auf ne Roadmap gepackt. ***
Dann macht auf einmal AMD mit ZEN unerwartet mächtig Druck und man hat dafür, dank übersprungenem Zwischenschritt, nix in der Schublade.
Da kam wohl ein unerwartetes Fettnäpfchen nach dem anderen.

Wer pokert muss mit sowas eben rechnen, nur vermutlich war nicht abzusehen, wie hoch man eigentlich pokerte.
Lernen durch Schmerz, das kennt jeder, nächstes mal klappt's dann wieder ;)

***
Marketing/Werbung und Co. sind wohl nicht immer mit der Entwicklung, Leistung usw. im Einklang, man bedenke wie groß diese Firmen mittlerweile sind.
Weiß da B 100% genau was A so macht und hat A überhaupt alle relevanten und vor allem praxisnahe Infos weitergeleitet/notiert?
Da kann auch mal was Falsches , was Übertriebenes oder was viel zu früh angekündigt werden, kennen wir auch vom AMD.
Dazu kommt noch Presse, Aktien usw. welche man ständig mit neuen Infos, eher Ankündigungen bei Laune halten muss, das drängt sicherlich auch dazu verfrüht was anzukündigen.

 
Zuletzt bearbeitet:
Moores Law kann man doch ganz einfach aushebeln, indem man zwei Schichten Transistoren übereinander stapelt. Wie beim SSD Speicher. Sind die dafür zu blöd bei Intel?

"einfach 2 Schichten übereinander stapeln" hast du überhaupt eine Ahnung wie CPUs aufgebaut sind? AMD hatte schon vor etwa 10 Jahren 9 Schichten übereinander. Intel war meistens bei 4-6. Weiß nicht wieviel Schichten sie derzeit verwenden.

Bei Moore's Law geht es um die Dichte, stapeln erhöht nicht wirklich die Dichte, nur die Gesamtanzahl. Moore's Law ist auch kein Gesetz wie man sich das so in der Physik z.b. vorstellt, sondern einfach nur eine Vorhersage, eine Feststellung, dass es sich in etwa so verhält. Irgendwann kommen wir an eine Grenze und es geht nicht mehr weiter, dann fallen wir zurück. Irgendwann wechseln wir dann auf einen anderen Werkstoff, z.B. Kohlenstoff anstatt Silizium, und dann wären wir dieser Vorhersage weit vorraus.
 
Intels mangelnde Bereitschaft sich nach vorne zu bewegen wird gerne AMD zugeschrieben, aber das würde die Dinge zu sehr vereinfachen.

Nehmen wir einmal an es hätte diesen mystischen Intel Sprung gegeben und die CPUs heute wären um den Faktor drei schneller. Das einzige Resultat wäre, dass Intel weniger Stückzahl verkauft hätte. Weder auf dem Massenmarkt für Server, noch auf dem Massenmarkt für Office hätte Intel mehr Geld verdient mit schnelleren Prozessoren.

Beispiel Servermarkt, wo ein großes Rechenzentrum ja nicht einfach hergeht und so viel CPU verbaut wie geht, sondern eher nur so viel CPU verbaut wie benötigt wird. Welchen Vorteil hätte da eine CPU die doppelt so schnell ist? Man braucht jetzt nur den halben Platz im Rechenzentrum, der Rest steht leer? Gleichzeitig hat man höhere Anforderungen an das Netzwerk, weil die gleiche Datenmenge jetzt durch halb so viele Nodes muss. Serverzentren waren zudem dominiert von Begriffen wie BigData und Cloud. Das allein sollte einem schon sagen, dass CPU nicht wirklich die zentrale Größe ist auf die es ankommt, sondern Speicherplatz. Also wenn wir von Packungsdichte im Rechenzentrum sprechen, dann nicht von der CPU Leistung.

Beispiel Officebereich, hier ist in den letzten 10 Jahren die CPU komplett nebensächlich geworden. Computerarbeitsplätze werden dominiert von einfachen Office-Programmen nicht rechenintensiven Prozessen. Wenn die CPU wirklich zu klamm ist, kommen spezialisierte PCIe Karten zum Einsatz, weil auch das wirtschaftlicher ist, allen voran CAD Karten. Wenn ein Office PC 10% Auslastung hat, dann ist das viel und "langsam" ist der nur weil die Leute inzwischen ein Smartphone haben und merken wie langsam Programme laden, wenn der PC keine SSD hat. Das ist doch jetzt schon Intels Problem, wenn die IT Abteilungen einen 5 Jahre alten PC nicht ausmustern weil er "zu langsam" ist, sondern einfach eine SSD einbauen und die Leute wieder happy sind bis wirklich das Mainboard stirbt. Und dann kauft die Firma einen neuen PC, aber nicht weil das am meisten Sinn macht, sondern weil Intels Mainboard Strategie dazu geführt hat, dass man für nichts ein Ersatzboard bekommt, das älter als 3 Jahre ist. Deswegen bekommt man ja die ganzen i5 CPUs und XEONs auf Ebay für 5€. Das sind schon die Methoden mit denen Intel den Absatz ankurbeln musste und da spielt es keine Rolle, ob AMD da etwas kompetitives auf dem Markt hat oder nicht.


Intel will keine Long Term Support Plattform bei der man Ersatzboards für 10 Jahre lang bekommt, die haben den Core-i und die Xeons dazu genau so gebaut wie sie das wollten. Keine Sprünge in der Leistung außer 10% Alibi und immer so, dass man bei einem Defekt auch gleich das ganze System tauschen kann, weil Reparatur sich nicht rechnet. Da ist der Kommentar vom CEO nur eine Nebelkerze, die besonders absurd wirkt im Hinblick auf Intels Konkurrenz die bei 7nm angekommen ist und den Sprung auf 5nm vorbereitet.
 
"einfach 2 Schichten übereinander stapeln" hast du überhaupt eine Ahnung wie CPUs aufgebaut sind? AMD hatte schon vor etwa 10 Jahren 9 Schichten übereinander. Intel war meistens bei 4-6. Weiß nicht wieviel Schichten sie derzeit verwenden.
Du redest über die Anzahl der Metallisierungslagen auf einer CPU, er redet über mehrere Logikschichten übereinander.

Bei Moore's Law geht es um die Dichte, stapeln erhöht nicht wirklich die Dichte, nur die Gesamtanzahl. Moore's Law ist auch kein Gesetz wie man sich das so in der Physik z.b. vorstellt, sondern einfach nur eine Vorhersage, eine Feststellung, dass es sich in etwa so verhält. Irgendwann kommen wir an eine Grenze und es geht nicht mehr weiter, dann fallen wir zurück. Irgendwann wechseln wir dann auf einen anderen Werkstoff, z.B. Kohlenstoff anstatt Silizium, und dann wären wir dieser Vorhersage weit vorraus.
Moore's Law ist eigentlich keine Voraussage, sondern einfach nur eine Extrapolation aus den 60ern: bisher haben sich Chips so entwickelt, warum sollte das in Zukunft anders sein? Und wenn sich daraus wirtschaftliches Wachstum ergibt, dann versucht man halt, daran festzuhalten. Nur sind wir schon lange hinter dem traditionellen Moore'schen Wachstum zurückgefallen. Du hast aber Recht, indem du sagst, dass es kein Naturgesetz ist. Es ist eine Feststellung, die zur selffullfilling prophecy geworden ist.
gRU?; cAPS
 
Ein paar Bits and Pieces:

1.) Intel hatte IIRC eine ganze Produktpalette mit Cannon Lake auf der Roadmap, auch mit mehr als 4-Kernen für den Client-Market.
Die Probleme mit 10nm haben letztendlich aber dafür gesorgt, dass Intel Cannon Lake nahezu vollständig canceln musste.
Nach einer Serie von Verschiebungen und der öffentlichen Hinhaltetaktik kam Cannon-Lake als teildeaktivierter Chip (ohne iGPU) auf den Markt, mit einem sehr eingeschränkten Produktionsvolumen, hauptsächlich um das 10nm Versprechen einzulösen.

2.) Auch Ice Lake war ursprünglich mit einer breiten Produktpalette geplant.
Sowie es aktuell aussieht wird es einen Quadcore primär für den mobilen Bereich geben und 2020 ein Server-Produkt mit bis zu 26-Kernen.

3.) Die Aussage das man mit dem 10nm Zielen zu aggressiv war stimmt ja.
Intel hat einige sehr Innovative Sachen mit ihren 10nm Prozess eingeführt bzw. eine ganze Packung unter gewissen Parametern zusammengestellt (Contact Over Active Gate, Single Dummy Gate, Cobalt in Metal 1 and more), welche in der Praxis aber für eine massive Verzögerung gesorgt haben, da man die Situation zu optimistisch eingeschätzt hat.
 
Zuletzt bearbeitet:
Im übrigen: Moore's Law kann man dadurch nicht wirklich aushebeln, da dennoch die Fertigungskosten nach oben gehen und die elektrische Leistungsaufnahme linear mit der Dicke des Stapels zunehmen würde.
Bei Moore's Law geht es um die Dichte, stapeln erhöht nicht wirklich die Dichte, nur die Gesamtanzahl.

Moore's Law besagt nur, dass sich die Anzahl von Transistoren in integrierten Schaltkreisen erhöht, sonst nichts.

"einfach 2 Schichten übereinander stapeln" hast du überhaupt eine Ahnung wie CPUs aufgebaut sind? AMD hatte schon vor etwa 10 Jahren 9 Schichten übereinander. Intel war meistens bei 4-6. Weiß nicht wieviel Schichten sie derzeit verwenden.

Das sind aber Verbindungsebenen, da gibt es keine Schaltungen.
 
Zuletzt bearbeitet:
„Data Center first!“ war schon die Ausrichtung von Intel in 2016, unter dem alten CEO, und davor „Mobile first!“.
Investor Meeting: In Zukunft heisst es bei Intel „Data Center first!“ - ComputerBase
Intel will weg vom stagnierenden PC-Markt, und sich mehr auf andere Bereiche konzentrieren.

Das ist durchaus eine verständliche Ausrichtung, im B2B-Bereich liegt das große Geld, nicht im B2C-Bereich. Bei riesigen Server-Anbietern und Unternehmen geht es nun einmal ganz andere Summen. Verglichen dazu ist an einem CPU-Upgrade eines Konsumenten recht wenig verdient. Jedes Unternehmen richtet sich in erster Linie auf die profitabelste Kundschaft aus.
 
Moore's Law besagt nur, dass sich die Anzahl von Transistoren in integrierten Schaltkreisen erhöht, sonst nichts.[...]

Jein. Oberflächlich gesehen stimmt das, aber da hängen halt weitere Sachen dran. Wenn der Inhalt von Moore's Gesetz ausschließlich gewesen wäre "wir bekommen immer mehr Transistoren unter" hätte sich kein Schwein für Moore interessiert. Da spielen noch ein paar Dinge rein, die ganz fundamental damit zusammen hängen - elektrische Verlustleistung, potentielle Rechenleistung, Fertigungskosten, Profit.
gRU?; cAPS
 
Nicht, dass ich Intels Niedergang nicht mit großer Freude zur Kenntnis nehme,
schließlich wette ich seit 3 Jahren an der Börse auf den Aufstieg AMDs.

Na dann hoffe ich für dich, dass die Börse dich zu einem reichen Mann macht, denn wenn es Intel irgendwann gar nicht mehr gibt wird AMD sein quasi-Monopol aufbauen und Preise verlangen die jenseits von gut und böse sind. AMD ist nun mal kein Samariterverein, sondern auch nur ein gewinnorientiertes Unternehmen.
 
Nun Intel hatte einfach zu hohe Ambitionen.... Ich sehe da keine Märchen bei dem was der CEO von sich gibt. Man überlege sich mal was passiert wäre wenn Intel den 10nm Prozess auf anhieb hinbekommen hätte. Nur zur Erinnerung man geht davon aus das der Intel 10nm Prozess ähnlich performt wie TSMC‘s 7nm Prozess. Diese Technologie im Jahr 15/16 hätte AMD wohl noch mehr in die defensive gedrängt.
Aber wie wir alle jetzt wissen kam es ja völlig anders ;)

"Zu hoch" ist relativ. Intels 10-nm-Prozess führt 3-4 unabhängige Technologien gleichzeitig ein (oder auch nicht) und erreicht damit einen Skalierungsfaktor, der etwas als bei einem normalen Fullnode ist. Das war ambitioniert, aber nicht übermäßig. Wenn man einen Sprung, der 3 Jahren normalen Fortschritts entspricht, in 2 Jahren absolvieren möchte, dann aber 5 Jahre braucht, dann liegt das Problem nicht nur bei den Innovationen.


Ich glaube durchaus, dass die Aussage korrekt (bzw. "nicht falsch") ist. Soweit ich weiß, war der Hauptgrund, dass der Yield des 10 nm Prozesses bisher schlicht katastrophal war. Letztes Jahr hat Intel eine Kleinserie an 10 nm CPUs für chinesische Notebooks produziert, und Gerüchten zufolge war der Yield im einstelligen Prozentbereich. Zu dem Zeitpunkt, als die Entwicklung an 10 nm begonnen hat, stand eben noch keine EUV-Lithografie in Aussicht. Ich vermute, Intel hat gepokert, dass man 10 nm auch ohne EUV irgendwie noch hinbekommt (was jetzt ja, nach Jahren der Entwicklung, zu stimmen scheint). Aber man hat halt viel mehr Arbeit benötigt, als man ursprünglich veranschlagt hat.
Jetzt hat Intel mehrere Probleme. Ein Problem ist, dass 10 nm jetzt erst hochgefahren wird - 3 Jahre, nachdem es bereits hätte laufen sollen. Ein weiteres Problem ist, dass 10 nm vermutlich noch nicht die Taktraten mitmacht, die man mit 14 nm mittlerweile erreichen kann - laut mehreren Stimmen aus der Industrie ist es auch unsicher, ob eine zukünftige Technologienode jemals wieder derartige Taktraten erreichen können wird. Intel kann die Singlecore-Leistung von 10 nm also nicht mehr so über den Takt nach oben prügeln, wie man es bisher getan hat. 2016 wäre das kein Problem gewesen, da war man auch mit 14 nm bei knapp 4 GHz, das schafft der 10 nm Prozess auch. Daher wird Intel den 10 nm Prozess vorerst da verwenden, wo hohe Taktraten bisher nicht so eine große Rolle spielen - in Servern und bei ihren GPUs.
gRU?; cAPS

Intel hat 10 nm von Anfang an ohne EUV geplant. 7 nm war der Node, bei dem man lange Zeit beide Optionen in Betracht zog und sich erst mit fortschreitender Verzögerung auf EUV festgelegt hat.


Moores Law kann man doch ganz einfach aushebeln, indem man zwei Schichten Transistoren übereinander stapelt. Wie beim SSD Speicher. Sind die dafür zu blöd bei Intel?

Wenn du "schlau" genug bist, ganz "einfach" Hochleistungstransistoren in Polykristalinem Silizium zu implementieren, dann solltest du diese Technik schnell zum Patent anmelden und selbiges dann für eine mindestens 11 stellige Summe verkaufen. Dreidimensionale Logik gilt seit Jahrzehnten als DIE Zukunft der Halbleitertechnik, ist bislang aber noch niemanden gelungen. Auch in 3D-Flash sind nur die Speicherzellen gestapelt, bei ct-Flash werden einfach mehrere Abschnitte eines aufrecht stehenden Zylinders als unabhängige Speicherbereiche genutzt. Die Logikschaltungen (von denen Flash eher wenig braucht) liegen aber alle in einer Ebene unter den Speicherzellen. (Siehe u.a. PCGH 12/15)
 
Hm ich finde es schon lustig das zwischen CPU und GPU so ein unterschiedliches Mass genommen wird. Beispiel: Navi ist 7NM Turing ist 12NM und jeder reitet darauf herum wie ******* Navi doch ist weil sie NUR auf Turing aufgeschlossen haben. Nvidia wird mit 7NM dann voll zurückschlagen. Bei den CPU jedoch redet man nur davon wie schlecht Intel ist und nix weiter bringt während AMD mit Zen2 in 7Nm SOOO guuut ist, dabei wird aber voll vergessen das die Intel Prozessoren nach wie vor in 12 NM hergestellt werden und nicht wirklich schlechter sind als die AMD. Hier wird wirklich mit zweierlei Maß gemessen.

Ich will hier weder die eine Firma noch die andere Firma schlechtreden. ich Möchte nur auf diese Kuriosität hinweisen. Amds GPU in 7nm ist ******* weil sie "nur" gleich stark wie Nvidias 12nm ist. Amds CPU in 7NM ist saugeil weil sie gleich stark wie Intels 12NM sind. Finde das Paradoxon.
 
Beispiel Officebereich, hier ist in den letzten 10 Jahren die CPU komplett nebensächlich geworden. Computerarbeitsplätze werden dominiert von einfachen Office-Programmen nicht rechenintensiven Prozessen. Wenn die CPU wirklich zu klamm ist, kommen spezialisierte PCIe Karten zum Einsatz, weil auch das wirtschaftlicher ist, allen voran CAD Karten. Wenn ein Office PC 10% Auslastung hat, dann ist das viel und "langsam" ist der nur weil die Leute inzwischen ein Smartphone haben und merken wie langsam Programme laden, wenn der PC keine SSD hat. Das ist doch jetzt schon Intels Problem, wenn die IT Abteilungen einen 5 Jahre alten PC nicht ausmustern weil er "zu langsam" ist, sondern einfach eine SSD einbauen und die Leute wieder happy sind bis wirklich das Mainboard stirbt. Und dann kauft die Firma einen neuen PC, aber nicht weil das am meisten Sinn macht, sondern weil Intels Mainboard Strategie dazu geführt hat, dass man für nichts ein Ersatzboard bekommt, das älter als 3 Jahre ist. Deswegen bekommt man ja die ganzen i5 CPUs und XEONs auf Ebay für 5€. Das sind schon die Methoden mit denen Intel den Absatz ankurbeln musste und da spielt es keine Rolle, ob AMD da etwas kompetitives auf dem Markt hat oder nicht.

So ist es, wenn es nur fünf Jahre wären. :D
Ich spreche da aus eigener Erfahrung, da ich selber in einer IT Abteilung arbeite.
Wir haben noch einige Fujitsu Rechner aus den Jahrgängen 2011-2012. Meist mit i5 2400.

Die Dinger sind einfach nicht kaputt zu bekommen.
Da muss ich Intel / Fujitsu wirklich für loben.

In den letzten Jahren haben die Rechner lediglich eine SSD und ein Update auf Windows 10 bekommen.
Für Office und unser ERP System ist das immer noch mehr als ausreichend bzw. richtig flott.
Und ich denke nicht das die Anforderungen in Zukunft drastisch steigen werden. Denn, wenn die Rechner nicht kaputt gehen machen die auch noch locker fünf weitere Jahre.
Ihren 10. Geburtstag werden die Rechner sicher noch erleben.

Für Intel, die Verkaufen wollen ist das natürlich ein absolutes Horrorszenario. :ugly:
 
Jein. Oberflächlich gesehen stimmt das, aber da hängen halt weitere Sachen dran. Wenn der Inhalt von Moore's Gesetz ausschließlich gewesen wäre "wir bekommen immer mehr Transistoren unter" hätte sich kein Schwein für Moore interessiert. Da spielen noch ein paar Dinge rein, die ganz fundamental damit zusammen hängen - elektrische Verlustleistung, potentielle Rechenleistung, Fertigungskosten, Profit.
gRU?; cAPS

Andere Einschränkungen implizieren diese Dinge natürlich, das Stapeln z.B. bringt ja auch mehr als nur mehr Transistoren pro Schaltkreis unterzubringen, weil es Fläche spart, aber halt nicht so viel wie kleinere Transistoren, weil es keine Energie spart. Dennoch ist die Aussage von Moore's Law erstmal, dass sich die Anzahl der Transistoren erhöht. Der Rest hängt da implizit dran.

Na dann hoffe ich für dich, dass die Börse dich zu einem reichen Mann macht, denn wenn es Intel irgendwann gar nicht mehr gibt wird AMD sein quasi-Monopol aufbauen und Preise verlangen die jenseits von gut und böse sind.

Du meinst, wenn das US-amerikanische Kartellamt AMDs CPU-Sparte zerlegt?
 
Datacenter First?
Ein Datencenter speichert Daten, es berechnet herzlich wenige davon. Und wenn wir davon reden eine massive Datenbankstruktur aufzubauen bei der wir eine massive Metadaten -Analyse fahren, dann ist CPU nicht unser Engpass, sondern Speicherbandbreite.

Computecenter First also?
Außer dass hier Supercomputer die CPU nicht brauchen um auszurechnen, sondern um hochspezialisierte Karten füttern die nicht 8 Prozesse gleichzeitig machen, sondern 8000. Hier ist eher Vorteil Nvidia als etwas anderes.

Mobile First?
Ich sehe jetzt kein Intel Smartphone irgendwo, ist also eher ein fail-first.

Das andere Mobile first?
Laptops? Ok, statt 200€ für einen leicht schnellere CPU auszugeben, gibt man da lieber 200€ mehr für eine 1050 im Laptop aus. Da kann man argumentieren, dass das wenigstens einen neuen Anwendungsbereich eröffnet. Hyperthreading und 200Mhz mehr im Boost machen das nicht. Intel kann dieses erste aller sinnvollen Upgrades nicht anbieten, das ist schlecht. Niemand verlangt von denen einem Mobile 2080Ti, aber mehr wie Not und Elend ist bitter nötig.

Nein, das andere andere Mobile First! Tablet First?
Hier ist zu bedenken, dass die Bestrebung dahin geht jedem 5. Klässler ein Tablet von Apple in die Hand zu drücken. Das ist die tiefgreifendste und massivste Auswirkung auf den Markt, die wir je erleben werden. Gesellschaftlich gesteuertes Ausrüsten von Schulkindern mit Tech und das mit einer hohen Deckungsrate, nicht nur als Pilotprojekt hier und da. Auch hier ist Intel ein No-Show und nur dank Surface Light noch im Gespräch. Ein harter Kampf gegen Apple steht bevor.

Gaming Center First?
Ich bin nicht zuversichtlich, ob Google Stadia wirklich was wird, aber die Produktkategorie existiert nunmal und Intel spielt keine Rolle.

Console First?
Hat niemand gesagt, geb ich zu, nur der Vollständigkeit halber. Das hat Intel mal gründlich verschalfen und erwähnt diesen Markt sicherheitshalber nicht.

Autonome Fahrzeugkontrolle first?
Autos, Schiffe, Laster, Flugzeuge, Drohnen, alles was kreucht und fleucht wird mindestens semi-automatisiert. Nvidia zeigt Präsenz.

Office First?
Da kann man sagen liegt Intel noch vorne.

Gaming First?
Da sprechen wir eher wieder über Grafikkarten mit so viel CPU wie nötig, nicht von jeder Gamer kauft immer so viel CPU wie irgend möglich. Das ist kein Markt, solange in ausrangierter 4th Gen Office i5 gebraucht gekauft, mit Graka und Netzteil frisiert wird und dann die Graka voll abrufen kann.



Immerhin, die Tech-Welt wird von Linux und Windows zusammengehalten, solange sich das nicht ändert ist Intel der Pfad der größtmöglichen Kompatibilität. Aber Intels Hauptprodukt CPU ist drauf und dran, dass es bei Systemen der Zukunft weitaus weniger "zentral" ist, als der Name es unterstellt. Wir blicken hier auf einen Chip dessen Hauptaufgabe der Zukunft nur noch das Organisieren der Datenbusse ist und der selber nichts mehr berechnet. Ein glorifizierter Memorycontroller der nur in Ausnahmefällen Berechnungen durchführt. So wie Gamer das halt jetzt schon kennen, wenn das Spiel 60fps und V-Sync abliefert, aber die CPU bei 25% gammelt, weil einfach niemand die CPU mehr braucht.
 
Na dann hoffe ich für dich, dass die Börse dich zu einem reichen Mann macht, denn wenn es Intel irgendwann gar nicht mehr gibt wird AMD sein quasi-Monopol aufbauen und Preise verlangen die jenseits von gut und böse sind. AMD ist nun mal kein Samariterverein, sondern auch nur ein gewinnorientiertes Unternehmen.

Das ist ja wieder so eine Form hysterischer Überdramatisierung.

Noch immer ist ja Intel der Böse, der mit Mini-Updates den Markt schröpft.

Aber das Geschäftsmodell kommt jetzt - dank AMD - an seine Grenzen.
 
Wir blicken hier auf einen Chip dessen Hauptaufgabe der Zukunft nur noch das Organisieren der Datenbusse ist und der selber nichts mehr berechnet. Ein glorifizierter Memorycontroller der nur in Ausnahmefällen Berechnungen durchführt.

Naja, abwarten, ich sehe das so schnell nicht kommen, weil man dann für alle mögliche Software auch wieder spezielle Hardware (und umgekehrt) braucht. Solange das Ausführen von Programmcode, der möglichst überall laufen können soll, ein zentraler Bestandteil eines Computers ist, wird die CPU als solche wohl nicht aussterben.
 
Hm ich finde es schon lustig das zwischen CPU und GPU so ein unterschiedliches Mass genommen wird. Beispiel: Navi ist 7NM Turing ist 12NM und jeder reitet darauf herum wie ******* Navi doch ist weil sie NUR auf Turing aufgeschlossen haben. Nvidia wird mit 7NM dann voll zurückschlagen. Bei den CPU jedoch redet man nur davon wie schlecht Intel ist und nix weiter bringt während AMD mit Zen2 in 7Nm SOOO guuut ist, dabei wird aber voll vergessen das die Intel Prozessoren nach wie vor in 12 NM hergestellt werden und nicht wirklich schlechter sind als die AMD. Hier wird wirklich mit zweierlei Maß gemessen.

Ich will hier weder die eine Firma noch die andere Firma schlechtreden. ich Möchte nur auf diese Kuriosität hinweisen. Amds GPU in 7nm ist ******* weil sie "nur" gleich stark wie Nvidias 12nm ist. Amds CPU in 7NM ist saugeil weil sie gleich stark wie Intels 12NM sind. Finde das Paradoxon.

Zu Nvidia, wenn die auch in 7nm fertigen sind ihre Konkurrenzprodukte genauso groß wie AMDs haben aber Vlt. einen besseren Verbrauch mehr ist von Turing in 7nm auch nicht zu erwarten. Das sind Wunschkonzerte einiger Fans außerdem ist der 12nm TSMC Prozess speziell auf Nvidia Turing angepasst und umgekehrt 7 nm ist nicht extra für Nvidia gemacht.

Zu Intel: AMD ist deswegen gut. Weil Intel auch mit 7nm von TSMC nicht an AMD vorbeikommen würden es sei den sie schafften damit im Standard 5,5 ghz. Der einzige Vorteil wäre Vlt Geringerer Verbrauch bei vermutlich auch weniger Takt und deren 10nm kann auch nicht mit AMDs Produkt konkurrieren.
Intels 14nm ++++ ... Fertigung ist in Sachen Takt unerreicht jeder Änderung hin zu 10 oder 7 TSMC wäre wohl im Ergebnis ein langsameres Produkt
 
Zurück