Via gegen AMD: Prozessor KX-7000 soll so schnell sein wie Zen

Shanghai ist die größte Stadt in China mit nur über 15 Mio Einwohner, und Industriespionage macht jeder, aber jedes mal die Klischeekeule rausholen, ist ja auch zu einfach, Ein Land das vor 30 Jahren noch ein Bauerstaat war und heute eine der größte Wirtschaftsmacht ist, muss man erst mal erreichen.

Zum Thema, wie geht das, die müssen ja viele Lizenzen einkaufen wie den 64bit Chipsatz, und die ganzen Befehlssätze.

Ja aber wenn dann so wie in Sued Korea, die haben das mit einer Demokratie geschafft ohne das eigene Volk zu versklaven !
Dazu weis ich nicht ob ich das was die da in China haben noch Kommunismus nennen wuerde , k.a was das ist aber das ist mehr Korruption als Kommunismus ...
Oder hab ich da jetzt auch aus der Klische Schublade gezogen ? :)
 
...
Dazu weis ich nicht ob ich das was die da in China haben noch Kommunismus nennen wuerde , k.a was das ist aber das ist mehr Korruption als Kommunismus ...
Oder hab ich da jetzt auch aus der Klische Schublade gezogen ? :)
Ja, schon. Müßte auch Dir auffallen wie viele Chinesen bei uns Urlaub machen, dort ist eine breite Mittelschicht entstanden die bei uns immer mehr schwindet.
China profitiert halt gravierend von der Globalisierung, die Machtverhältnisse haben sich in den letzen Jahrzehnten stark verschoben:
Year 2018 to see China position itself as major superpower - Oneindia
China wird allerdings von der CPC (Communist Party of China) regiert.
Making China Great Again | The New Yorker
 
Zuletzt bearbeitet:
Versteh nicht, warum man auf das tote Pferd x86 setzt. Dessen Zeiten sind sicherlich gezählt, der Markt ist verteilt, wächst praktisch nicht mehr (gut vlt. in Südostasien noch ein bißle, aber da ist auch ARM wesentlich schneller wachsend) und die finanzielle Einstiegshürde ist enorm hoch.

Mag sein, dass die Chinesen das vor allem tun um keine fremde Backdoors in ihren Rechnern zu haben, aber ansonsten erschließt sich mir das nicht wirklich.
 
Ja aber wenn dann so wie in Sued Korea, die haben das mit einer Demokratie geschafft ohne das eigene Volk zu versklaven !

Ach schaue dich doch mal bei uns um, wo es immer mehr Leiharbeiter aus den Boden gestampft werden die für einen "Hungerslohn" arbeiten sollen im Gegensatz zu den normal Verdienern oder das immer mehr Leute abhängig sind von mehr als einen Job, und das Problem wächst immer weiter, aber immer schön mit dem Fingerzeig auf andere.
 
Wenn es für Intel richtig blöd lauft, werden sie nicht nur von AMD sondern auch noch von Via überholt. Die Zukunft für Intel sieht überhaupt nicht rosig aus.

Cannon Lake: Die erste 10-nm-CPU wird fur Intel zum Albtraum - ComputerBase
Diese Alptraumberichtchen sind halt etwas übertrieben, die Zahlen von Intel stellen sich ja aus mehr zusammen als dem alleinigen verschieben eines Produkts.

Einzig die Aussagen von Intel selbst zu den Erwartungen 2018 sind hier eigentlich ein Maßstab, alles andere ist "Glaskugelschauen" aufgrund von viel zu wenigen Fakten.
Intels Quartalszahlen und Ausblicke zeigen, dass man alles andere als Angst haben muss. Der 10nm Prozess hat einfach das Problem mit niedrigen Yields. Das wird auch AMD haben in ihrem sogenannten (aber zum 10nm vergleichbaren) 7nm Prozess. Nur hat Intel den Vorteil, dass man den Prozess halt erst einführt, wenn die Yields hoch sind, der Prozess halbwegs gereift ist, AMD und andere Hersteller können nicht so lange warten. Tatsächlich läuft 10nm schon längst, aber halt nicht gut genug um 80% Marktanteil zu versorgen.

Bzw vielleicht schon, aber vermutlich ist der derzeitige 14nm Prozess einfach günstiger und somit wär man blöd den 10nm Überhastet einzuführen
 
Du meinst die ach so tollen nForce Chipsätze? Die nicht mal SATA2 ordentlich hinbekamen, und man SATA2 Festplatten mittels Jumper (!) zu SATA1 konfigurieren musste, damit sie überhaupt erkannt wurden? Ja war eine tolle Zeit, ich erinnere mich gerne daran zurück.
NICHT
:wall:

Via hatte auch mal interessante Chipsätze, der PT880 zB hat AGP auf Sockel 775 Mainboard unterstützt, und damit bei Umrüstungen geholfen. Leider war auch da die Software nicht wirklich toll.

Abgesehen davon das nicht jeder das Problem hatte was war daran in der Praxis schlimm?
HDs hatten damals gearde die 100MB/s geknackt => war also noch viel Platz nach oben frei.

Via war so ne Sache. Hatte auch hier immer Glück aber da gab es doch auch was mit dem KT133-A Chipsatz...?
Erinner mich nur man sollte immer die "Update" Version kaufen sollte also nicht den 133 sondern den 133-A.
War aber auch ~die Zeit wo es lustige MoBos von AsRock gab. Adapterkarten für verschiedene Sockel, mehrere Ramgenerationen auf einem Board, AGP+PCI_E.... *seufts*
 
Hatte auch so ein AsRock Board mit AGP und PCIe, hatte nen nForce Chipsatz lief Bombe. Kaufte bewußt dieses Board zwecks Umstieg bei derGraka auf PCIe. Hatte damals noch eine XFX 6800GT mit 8xAGP, meine letzte Graka dieser Art, dann kam die GT8600 mit G92 Chip in PCIe Ausführung. Dafür waren solche Mischboards sehr prädestiniert. Andererseits hatte ich ein Board davor mit Via Chipsatz nach zwei mal ASUS nForce und nForce2 und ehrlich gesagt wurde ich mit dem Via Chipsatz nicht warm, hatte komischerweise nur Probleme. Mag sein das ich ein Montagsmodel erwischt habe. Ach ja gute alte Zeit.
 
Ach schaue dich doch mal bei uns um, wo es immer mehr Leiharbeiter aus den Boden gestampft werden die für einen "Hungerslohn" arbeiten sollen im Gegensatz zu den normal Verdienern oder das immer mehr Leute abhängig sind von mehr als einen Job, und das Problem wächst immer weiter, aber immer schön mit dem Fingerzeig auf andere.
ja ne ist klar im vergleich zu denn Einwohnern gehts denen ich China trotzdem beschiesen ! fuer jeden der bei uns Urlaub macht juhu , schuften 1000 fuer 1 Eu am Tag 18 h am tag , Super Tolles System und bei uns ist ja alles ******** schon klar !
Wenn dann vergleich das mal mit Korea und zwar dem guten , gegen die stehen wir wirklich da wie Loser , aber ganz sicher nicht mit dem Schrott System in China das sich die Taschen voll macht auf kosten der meisten Buerger .
 
Ach schaue dich doch mal bei uns um, wo es immer mehr Leiharbeiter aus den Boden gestampft werden die für einen "Hungerslohn" arbeiten sollen im Gegensatz zu den normal Verdienern oder das immer mehr Leute abhängig sind von mehr als einen Job, und das Problem wächst immer weiter, aber immer schön mit dem Fingerzeig auf andere.
Gegen Lohndumping (bei uns) und Jobs mit Hungerslohn hilft Bildung. Das war schon immer so.

@News: Wäre interessant welche Ingenieure die da so einstellen die angeblich aus dem Nichts plötzlich so konkurrenzfähige Produkte fertigen wollen. Natürlich ist VIA kein Unbeschriebenes Blatt, mit X86 hat man schon genug Erfahrung, aber niemals hat man auf hohem Niveau konkurrieren können, ergo frage ich mich woher diese Ingenieursleistung jetzt plötzlich kommen soll
 
ja ne ist klar im vergleich zu denn Einwohnern gehts denen ich China trotzdem beschiesen ! fuer jeden der bei uns Urlaub macht juhu , schuften 1000 fuer 1 Eu am Tag 18 h am tag , Super Tolles System und bei uns ist ja alles ******** schon klar !
Wenn dann vergleich das mal mit Korea und zwar dem guten , gegen die stehen wir wirklich da wie Loser , aber ganz sicher nicht mit dem Schrott System in China das sich die Taschen voll macht auf kosten der meisten Buerger .

Also nochmal, was interessiert mich was irgendwo passiert, Menschen wurden und werden immer ausgebeutet und, außer das diskutiert wird, wird eh nichts unternommen wird, als Wayne!

Gegen Lohndumping (bei uns) und Jobs mit Hungerslohn hilft Bildung. Das war schon immer so.

Welche Bildung, meinst du die 16 Bildungssysteme wo man Glück haben muss in einen Bundesland zu wohnen wo man am Besten gefördert wird, oder meinst du die Bildung die Allgemein immer weiter abgebaut wird aufgrund steigender Kosten(Wo der Staat lieber die Schwarze Null haben will als in Bildung zu investieren) oder schlichtem Lehrermangel, oder meinst du einfach wenn man vermögende Förderer hat das man in einer Privatschule unterkommt?
 
Welche Bildung, meinst du die 16 Bildungssysteme wo man Glück haben muss in einen Bundesland zu wohnen wo man am Besten gefördert wird, oder meinst du die Bildung die Allgemein immer weiter abgebaut wird aufgrund steigender Kosten(Wo der Staat lieber die Schwarze Null haben will als in Bildung zu investieren) oder schlichtem Lehrermangel, oder meinst du einfach wenn man vermögende Förderer hat das man in einer Privatschule unterkommt?
Jap, an mangelnder Bildung sind nur äußere, nicht beeinflussbarbare Faktoren schuld. Denn diese Dinge machens aus ob man gebildet ist, nicht ob man selbst gewillt ist sich zu bilden... omg. Kaum geht man in so ne Privatschule, weiß man automatisch 5x so viel. Allein wenn man über die Türschwelle tritt, nicht wahr?
Lernen tut man immer noch selbst.

Glück, das ich nicht lache. Hatte ich wohl bloßes Glück mit meinen Studien... oder Sprachen. Oder Leute die ich kennengelernt habe, die mich weitergebracht haben... alles in den Schoß gefallen, hat nix mit Eigeninitiative, Ehrgeiz o.Ä. zu tun
 
Icelake, Cannonlake, Whiskeylake, Apollolake, häääää ich hab total den Überblick verloren. Angefangen hat es mit Broadwell.

Intels ursprüngliche Roadmap(2014 glaub ich) sah anderst aus:

-Sandybridge 32nm->2011
-Ivybridge 22nm->2012
-Haswell 22nm->2013
-Broadwell 14nm->2014
-Skylake 14nm->2015
-Cannonlake 10nm->2016

Mir ist bewusst dass Intels TickTock-Strategie nicht mehr so ganz funktioniert. Intel hätte bei der Monopolstellung sich die Refreshs ala Devilscanyon, Kabylake und XXX-Lake sparen können.
2015 hätte Intel dann Broadwell komplett für den Desktop bringen können, und besser erst 2017 Skylake. So hätte man in aller Ruhe 2019 dann Cannonlake in 10nm gebracht.
Die Zeiten sind vorbei dass man alle 12 Monate was neues auf den Markt wirft. Nvidia ist da meiner Meinung nach sehr gut, es genügt mittlerweile alle 2 Jahre und ohne Refresh was auf den Markt zu werfen. Den einzigen Refresh gabs nur mit Kepler. Fermi war mehr als ein Refresh, es gab ein Shrink und kleine Verbesserungen an der Architektur.

Bei Intel sieht man vor lauter Seen das Wasser nicht mehr, da hast schon recht. Coffee Lake, Cannon Lake, Ice Lake, Cascade Lake, Tiger Lake, hääh :what: Tick-Tock war einmal. Was Intel da macht ist mehr sowas wie Tick-Tick-Tock, jeden Falls sind sie aus dem Takt gekommen.
 
Bei Intel sieht man vor lauter Seen das Wasser nicht mehr, da hast schon recht. Coffee Lake, Cannon Lake, Ice Lake, Cascade Lake, Tiger Lake, hääh :what: Tick-Tock war einmal. Was Intel da macht ist mehr sowas wie Tick-Tick-Tock, jeden Falls sind sie aus dem Takt gekommen.
Haben sie aber auch selber so gesagt.
Liegt halt zum einen am mangelnden Druck von AMD (geht ja jetzt wieder los) und zum anderen an den Prozesstechnologien die sich nicht mehr im gewohnten Maße weiterentwickeln. Man ist wohl auch hier an einem Punkt angekommen, wo ein Level erreicht ist, das sich nicht mehr so schnell steigern lässt wie früher. Ist ja überall so, jüngst auch bei Smartphone-Prozessoren
 
Haben sie aber auch selber so gesagt.
Liegt halt zum einen am mangelnden Druck von AMD (geht ja jetzt wieder los) und zum anderen an den Prozesstechnologien die sich nicht mehr im gewohnten Maße weiterentwickeln. Man ist wohl auch hier an einem Punkt angekommen, wo ein Level erreicht ist, das sich nicht mehr so schnell steigern lässt wie früher. Ist ja überall so, jüngst auch bei Smartphone-Prozessoren

Der "10 nm"-Prozess macht bei Intel ja scheinbar Probleme. Ich bin gespannt wie es den anderen Fertigern geht, wenn es mal auf 10 bzw. 7 nm zugeht. Wobei man sich diese Bezeichnungen eigentlich auch grad sparen könnte, da es ja doch keine "echten" 10 nm sind.
Es ist zwar möglich immer mehr Kerne auf die Fläche zu quetschen, nur sind eben 8, 12 oder 16 Kerne auch nur begrenzt sinnvoll einzusetzen und beim Takt gibt es auch Grenzen. Vielleicht erleben wir auch in den nächsten fünf oder zehn Jahren das Ende von x86 und die Ablösung durch ARM. Es hieß ja schon öfter, dass x86 kaum noch zu optimieren sei. Interessant wird auch die Einführung von EUV. Ich bin mir ziehmlich sicher, dass in diesem Jahr mit der Massenproduktion begonnen wird. Man wird sehen wie es weiter geht. Letztlich entscheidet die Wirtschaftlichkeit, welcher Weg gegangen wird.
 
Ist ARM überhaupt dafür geschaffen? Ich meine mal gelesen zu haben, dass ARM einfach für den Low Power Bereich konzipiert wurde und dort unglaublich effizient arbeiten kann. Eine Skalierung auf das Niveau von x86 muss aber nicht genau so effizient sein, im Gegenteil
 
Läuft bei TSMC nicht mit dem iPhone 8 / Plus / X (Apple A11) schon 10nm FinFET in Massenproduktion vom Band?
Dürfte wohl schon vergleichbar zu Intels 14NM++ sein oder etwas besser.
 
Der "10 nm"-Prozess macht bei Intel ja scheinbar Probleme. Ich bin gespannt wie es den anderen Fertigern geht, wenn es mal auf 10 bzw. 7 nm zugeht. Wobei man sich diese Bezeichnungen eigentlich auch grad sparen könnte, da es ja doch keine "echten" 10 nm sind.
Es ist zwar möglich immer mehr Kerne auf die Fläche zu quetschen, nur sind eben 8, 12 oder 16 Kerne auch nur begrenzt sinnvoll einzusetzen und beim Takt gibt es auch Grenzen. Vielleicht erleben wir auch in den nächsten fünf oder zehn Jahren das Ende von x86 und die Ablösung durch ARM. Es hieß ja schon öfter, dass x86 kaum noch zu optimieren sei. Interessant wird auch die Einführung von EUV. Ich bin mir ziehmlich sicher, dass in diesem Jahr mit der Massenproduktion begonnen wird. Man wird sehen wie es weiter geht. Letztlich entscheidet die Wirtschaftlichkeit, welcher Weg gegangen wird.
Wobei man auch schon beim letzten Schritt (den 14nm genannten Prozess) Probleme hatte und Broadwell nicht umsonst lange rausgeschoben wurde.
Natürlich werden auch die anderen Hersteller auf ähnliche Probleme stoßen.
Wie schon beschrieben, ich gehe eher davon aus, dass die Probleme wirtschaftlicher Natur sind und man den "10nm" Prozess reifen lässt bis er so günstig ist wie "14nm". Man also weniger mit der Produktion Probleme hat, als mit der Marge am Ende des Quartals, würde man den Prozess(or) unter Druck einführen.
Das aus x86 nicht mehr viel rauszuholen sei und aus ARM schon liest man zwar öfter, ist aber schmarrn.
 
Ist ARM überhaupt dafür geschaffen? Ich meine mal gelesen zu haben, dass ARM einfach für den Low Power Bereich konzipiert wurde und dort unglaublich effizient arbeiten kann. Eine Skalierung auf das Niveau von x86 muss aber nicht genau so effizient sein, im Gegenteil
ARM ist erst mal nur ein Befehlssatz. Wie dieser in Form einer Mikroarchitektur umgesetzt wird, liegt im Ermessen des Drittherstellers.

Natürlich gibt es die ARM Referenzimplementierung, die in der Vergangenheit eher Wert auf Effizienz, als auf möglichst hohe Performance gelegt hat. Dies hat aber nicht direkt etwas mit dem ARM Befehlssatz zu tun.
 
Ist ARM überhaupt dafür geschaffen? Ich meine mal gelesen zu haben, dass ARM einfach für den Low Power Bereich konzipiert wurde und dort unglaublich effizient arbeiten kann. Eine Skalierung auf das Niveau von x86 muss aber nicht genau so effizient sein, im Gegenteil

Man müsste die Software anpassen und auch vieles neu programmieren oder kompilieren. Viele aktuellen Befehle sind von der Effizienz eher suboptimal.
An sich spricht wenig dagegen, dass ARM in Server oder Desktops eingesetzt werden. Alternativ könnte man aber auch bei x86 ausmisten und einiges an Befehlen rauswerfen. Potential ist schon noch einiges da, aber nicht mehr ganz so einfach wie früher.

Wie schon beschrieben, ich gehe eher davon aus, dass die Probleme wirtschaftlicher Natur sind und man den "10nm" Prozess reifen lässt bis er so günstig ist wie "14nm". Man also weniger mit der Produktion Probleme hat, als mit der Marge am Ende des Quartals, würde man den Prozess(or) unter Druck einführen.

Intel wollte bei 10nm deutlich mehr Neuerungen einführen als GF bei 7nm und somit sollte 7nm deutlich weniger aufwändig sein. Laut Gerüchten sind es bei Intel keine wirtschaftlichen Überlegungen bei dem 10nm-Prozess und es liegt nicht an den Yield-Raten. Wenn die Gerüchte annähernd stimmen, dann wird es keinen Desktop-Prozessor in 10nm in den nächsten 18 Monaten von Intel geben. Intel sollte dann lieber auf 7nm hoffen.

Das aus x86 nicht mehr viel rauszuholen sei und aus ARM schon liest man zwar öfter, ist aber schmarrn.
Bei ARM gibt es weniger Altlasten mit Befehlen mit schlechter Effizienz und somit ist die Aussage nicht falsch. ARM ist auch relativ neu und wäre auch traurig, wenn da kein Potential drinnen stecken würde.
 
Zuletzt bearbeitet:
Zurück