FX-Nachfolger 2016 - hat AMD noch eine Chance? Das meinen Redakteure zu einem aktuellen Thema

Erinnert euch an die Diskussionen das sich AMD angeblich aus dem Highend CPU Segment zurück ziehen wird und ihr wisst wie es bis 2016 in vielen Threads zugehen wird. :ugly:

*bis 2017 offline geh*
Es bahnen sich schlechte Zeiten für Moderatoren an :(


Jein, Brehministrator. Kann man es sich leisten, eine Sparte komplett auszuklammern?

Das kann man nicht nur, dass sollte man sogar (siehe ARM). Bei Elektronik lohnt es sich nicht, zweiter zu sein - auch nicht, zweiter auf vielen Märkten zu sein. Man muss in so vielen Nischen, wie möglich, das beste Angebot machen, sonst rentiert sich die ganze Sache nicht. Und wenn man zuwenig Ressourcen für alle Märkte hat, dann geht das nur, in dem man einige außen vor lässt.
Eigentlich dachte ich auch, die neue AMD-Führung hätte das gerafft. Bulldozer aufs Abstellgleis zu schieben und sich auf zwei APU-Stränge zu konzentrieren, war imho die beste Entscheidung seit dem IMC. Aber jetzt versucht man es parallel schon wieder mit ARM und FX :klatsch:
Selbst Intel leistet sich nur zwei unabhängige Architekturen (naja - und Itanium, aber den leistet sich eher HP) und generiert die Modellpalette allein aus Kombination derer Elemente. Und AMD ist der Meinung, sie könnten doppelt so viele Designs in mindestens gleicher Qualität entwickeln? Und dabei auch noch einen erheblichen Rückstand aufholen? Und einen neuen Ruf aufbauen? Und das ganze über (vorerst) wesentlich kleinere Stückzahlen finanzieren?
Wie soll das gehen?

wer sagt das, amd selbst?,
hab davon noch nichts gelesen.
ausser die üblichen gerühte

AMD selbst sagt zumindest, dass sie von Grund auf neu anfangen
AMD FX-Prozessoren: Komplett neue CPU-Architektur für 2016 geplant
Und es wäre arg bescheuert, dabei erneut auf ein Konzept zu setzten, dass so grandios geflopt ist.

steamroller = modul mit 2 FPU´s
jaguar= modul mit 4 kernen

Ein Modul definiert sich über geteilte Recheneinheiten - und Jaguar-Kerne teilen sich keine Recheneinheiten, nur den Cache. Das ergibt aber kein Modul (sonst wären modularisierte x86 CPUs erstmals 2006 mit Netburst-Architektur auf den Markt gekommen und Haswell wäre ein Einmoduler mit 4 Kernen :ugly:)

zuerst kommt mal Excavator, mal sehen was daraus wird

Nach bisherigem Stand der Dinge nichts oberhalb einer Dual-Modul-APU.


2016 halte ich garnicht so für unrealistisch, immerhin würde die Architektur auch für die APUs genutzt werden. Ich fände es aber sinnvoller, wenn man einen Sockel für die Fx und APUs hätte.

Wenn AMD damit auch zurück ins Servergeschäft will, brauchen sie eine neue Plattform mit mehr Lanes. Und die Architektur wurde bislang mit dem High-End-Fokus angekündigt und ist somit ggf. nur bedingt für APUs geeignet. Intel macht zwar vor, dass man mit einer Mainstream/Mobile-Architektur auch im zunehmend Energie-kritischeren Server-Segment Erfolg haben kann, aber positive Beispiele für die Gegenrichtung sind doch sehr dünn gesäht.
 
Disclaimer: Spekulation, und ne unsichere Obendrein

Momentan bedient die Jaguar, bzw neuerdings die Puma Architektur eine sehr große Spanne. Es kommen brauchbare Tablet Chips (Golem Test) raus, gute Laptop und Low End Chips (s. Athlon 5350), und die Ableger in Ps4 und XBone sind bereits recht performant (natürlich noch nicht mit "High End" Prozessoren vergleichbar).

Wenn ich das richtig verstanden habe, dann ist diese Architektur nahezu völlig frei kombinierbar. Mit anderen Worten: "Was? Du willst nen 1 Kerner mit 1024 Shadern? Gib uns nen Monat." Überspitztes Beispiel

Wenn AMD es schafft, die pro Kern Leistung dieser Architektur (massiv) zu steigern, dann wäre es vielleicht möglich, mit einer einzelnen Architektur alle wichtigen x86 Sparten abzudeken.

Tablets, Laptops und Low End mit niedrig getakteten 2&4 Kernern.
Mid End mit höher getakteten 4 Kernern
High End mit höher getakteten 6/8 Kernern
Server mit:
- niedrig taktenden 12/16 Kernern für High Peformance
- ARM Kernen für Low Performance

Die Grafikeinheit könnte natürlich dementsprechende Kategorien mitmachen, 128, 256, 512 Shader usw usf.
 
Also wenn PCGH selbst so ein Thema anzettelt, ist der Fanboy-Krieg doch schon vorprogrammiert.

Ehrlich gesagt sehe ich nicht mal das Problem bei AMD allein. Auch bei Intel tut sich doch gefühlt nicht viel. Ein leichtes Performancplus/MHz mal hier und da, im Grunde seit Sandy Bridge aber keinerlei weltbewegende Neuerung.

Von daher: Ob AMD noch eine Wunder-CPU schafft, daran glaube ich nicht wirklich. Aber wenn, dann ist es eh zu spät, der herkömmliche Rechner ist am Aussterben. Wenn dann müsste AMD im Server- oder Mobile-Segment was deutlich besseres bieten. Bei dem Effizienz-Rückstand, dürfte das aber nicht einfach sein. Zu Gute kommt AMD hier, dass auch Intel wie gesagt kaum was bemerkenswertes neues bringt, weder mobile- noch serverseitig. Mich würde es kaum wundern, wenn der Leistungsunterschied eines aktuellen Gaming-PCs anno 2016 im Vergleich zu heute genauso mickrig ausfällt wie der eines Gaming-PCs anno 2012 im Vergleich zu heute: Ein Ivy-Brige + GTX 670 ist heute immer noch so gut wie für alle Spiele tauglich und braucht sich auch kaum oder gar nicht vor aktuellen Mittelklasse-PC verstecken.
 
*bis 2017 offline geh*
Es bahnen sich schlechte Zeiten für Moderatoren an :(
Gibt es jemals gute? :P

Eigentlich dachte ich auch, die neue AMD-Führung hätte das gerafft. Bulldozer aufs Abstellgleis zu schieben und sich auf zwei APU-Stränge zu konzentrieren, war imho die beste Entscheidung seit dem IMC. Aber jetzt versucht man es parallel schon wieder mit ARM und FX :klatsch:
Selbst Intel leistet sich nur zwei unabhängige Architekturen (naja - und Itanium, aber den leistet sich eher HP) und generiert die Modellpalette allein aus Kombination derer Elemente. Und AMD ist der Meinung, sie könnten doppelt so viele Designs in mindestens gleicher Qualität entwickeln? Und dabei auch noch einen erheblichen Rückstand aufholen? Und einen neuen Ruf aufbauen? Und das ganze über (vorerst) wesentlich kleinere Stückzahlen finanzieren?
Wie soll das gehen?
Da wir nicht wissen wie AMD die Architekturen konkret aufbaut und sich das ganze vorstellt, ist es auch schwer darüber zu urteilen ob das eine gute Idee ist oder von vornherein wie ein grandioser Flop aussieht.
Ausgehend von Jim Kellers klang es schon danach, als ob man die ISA mehr oder weniger abstrahiert und ein Kern-Design für beide ISAs verwendet.
Praktisch könnte das am Ende eher wie eine Entwicklung von "1,5" Architekturen aussehen.
Es geistert viel Zeug über AMDs zukünftige Strategie herum, für meinen Geschmack schon zu viel, deshalb lasse ich es vorerst mit dem Spekulieren.

Und es wäre arg bescheuert, dabei erneut auf ein Konzept zu setzten, dass so grandios geflopt ist.
Mhh, ich würde vorsichtig sagen Konzept != konkrete Architektur.
 
Ehrlich gesagt sehe ich nicht mal das Problem bei AMD allein. Auch bei Intel tut sich doch gefühlt nicht viel. Ein leichtes Performancplus/MHz mal hier und da, im Grunde seit Sandy Bridge aber keinerlei weltbewegende Neuerung.

Du mußt einfach nur lernen richtig Hinzusehen. Im CPU Bereich gurkt Intel bald bei 18 Kernen mit 45MB Cache rum, allerdings sind die mangels Konkurrenz für Workstations und Server reserviert. Der Normalkonsument bekommt immer leistungsfäigere IGPs, da hat sich mit Sandy Bridge und den Nachfolgern geradezu eine Revolution vollzogen.

Aber wenn, dann ist es eh zu spät, der herkömmliche Rechner ist am Aussterben.

Das Ende ist Nahe! Tuet Buße! Die Welt geht unter!

Der (Desktop) PC stirbt seit über 30 Jahren aus und erfreut sich irgendwie immernoch guter Gesundheit.
 
Ob AMD jemals wieder zu Intel aufschließt oder gar vorbeiziehen kann hängt an vielen Faktoren:

- Am wichtigsten ist sicherlich die Architektur, hier arbeitet Jim Keller dran, den Mann darf man nicht unterschätzen da dieser ja auch maßgeblich an der Entwicklung der Hammers beteiligt war
- gefolgt vom Herstellungsprozess bei GloFo, sollten 14nm Spruchreif bis 2016/17 sein dann ginge da sicherlich was
- Auch wichtig ist AMD´s Kommunikation, wenn diesmal weniger heisse Luft verbreitet würde und evtl. das Endergebnis die Prognosen übertreffen würde wäre auch dort alles im Lot
Auf die drei genannten Faktoren hat AMD direkt oder indirekt Einfluss, allerdings gibt es dann eben noch einen Maßgeblichen Faktor und dieser heißt Intel.

Ich wünsche mir das AMD wieder zurückkommt, glaube nicht an die Performancekrone aber einen massiven Schritt in Richtung Intel halte ich für möglich, die Kernzahl
wird bei Intel sicherlich steigen, aber auch bei AMD würde ein 14nm verfahren reichlich Luft für mehr Rechenwerke schaffen.
 
Du mußt einfach nur lernen richtig Hinzusehen. Im CPU Bereich gurkt Intel bald bei 18 Kernen mit 45MB Cache rum, allerdings sind die mangels Konkurrenz für Workstations und Server reserviert. Der Normalkonsument bekommt immer leistungsfäigere IGPs, da hat sich mit Sandy Bridge und den Nachfolgern geradezu eine Revolution vollzogen.
*gähn*, wo ist hier die News? Im Server-Segment gab es schon seit jeher mehr Cores (bzw. CPUs) auf einem Board. 12 und 16 Kerne sind auch bei AMD schon lange ein alter Hut. Bringt weder uns Gamern was und erst recht nicht der Masse an PC-Käufern, die eh keine High-Performance benötigen. Mal davon abgesehen, dass auch heute nur die wenigste Consumer-Software richtig gut skaliert mit mehr Kernen (bzw. in den aller meisten Fällen ist das eh nicht mal notwendig, weil Jede CPU-Gurke eh schon ausreicht).

Wo ist da jetzt also konkret die großartige Neuerung gegenüber Sandy Bridge für Privatanwender?

Der (Desktop) PC stirbt seit über 30 Jahren aus und erfreut sich irgendwie immernoch guter Gesundheit.
Ja, dem PC geht es sogar so gut, dass man neben den regelmäßigen News über stetig sinkende Verkaufszahlen im PC- und Notebook-Segment auch immer wieder liest, welche Unternehmen nun noch aus dem unrentablen Segment aussteigen wollen (z.B. zu letzt Sony). Garniert wird das ganze noch mit News darüber, dass vor allem Microsoft daran Schuld sein soll, weil Windows 8 ja so mies ist *heul**schluchz*. Das stimmt zwar, dennoch ist die Wahrheit ganz einfach die, dass den meisten Leuten heutzutage Smartphone und Tablet im Alltag vollkommen ausreichen. Der PC wird vllt noch zum Schreiben längerer Texte oder Drucken genutzt. Das kann jede Kiste der letzten 10 Jahre gut genug.

In größeren Firmen reicht die Leistung von 5 Jahre alten Notebooks/Rechner für die meisten Zwecke ebenfalls noch aus, wenn man nicht schon einfach auf Thin-Clients mit virtuellen Maschinen umgestiegen ist.

Das sieht bei uns Gamern zwar anders aus, aber wie viel vom Markt machen wir denn bitte schön aus? Dass es der Spiele-Branche gut geht, ist noch lange kein Indikator dafür wie es um die PC-Hardware bestellt ist.
 
Zuletzt bearbeitet:
Wenn AMD es schafft, die pro Kern Leistung dieser Architektur (massiv) zu steigern, dann wäre es ...

...eine komplett neue Architektur, die höchst wahrscheinlich nicht mehr die Effizienzanforderungen und Herstellungskosten des aktuellen Puma-Marktes erfüllen könnte.


Ehrlich gesagt sehe ich nicht mal das Problem bei AMD allein. Auch bei Intel tut sich doch gefühlt nicht viel. Ein leichtes Performancplus/MHz mal hier und da, im Grunde seit Sandy Bridge aber keinerlei weltbewegende Neuerung.

Hängt davon ab, wo du hinguckst. Im gehobenen Server-Bereich, wo Intel noch Konkurrenz aus der non-x86 Welt fürchten muss, verdoppeln sich die Kernzahlen von SB nach HSW ungefähr. Bei gleichbleibender TDP und gesteigerter IPCPC. Das ist nicht so ganz schlecht - vor allem wenn man bedenkt, dass HSW-E(P) schon im Herbst letzten Jahres so weit entwickelt war, dass Speicherhersteller darauf basierende Demo-Systeme vorgeführt haben, also allenfalls noch an der Taktschraube gedreht wurde.
Das von dieser Entwicklung so verdammt wenig im Mainstream-Segment ankommt, liegt nicht zuletzt an mangelnden Gegenstück von AMD.


Gibt es jemals gute? :P

So vor 10-15 Jahren...

Mhh, ich würde vorsichtig sagen Konzept != konkrete Architektur.

AMDs Verbesserungen an der Architektur bestehen darin, dass Konzept aufzuweichen. Währenddessen hat Intel mit einem klassischeren Konzept mittlerweile die gleiche Dichte an Funktionseinheiten erreicht und weniger Auslastungsprobleme.


- Am wichtigsten ist sicherlich die Architektur, hier arbeitet Jim Keller dran, den Mann darf man nicht unterschätzen da dieser ja auch maßgeblich an der Entwicklung der Hammers beteiligt war

Was nicht viel heißen muss. Hammer war aus vier Gründen erfolgreich gegen damalige Intel-CPUs:
- Netburst war am Kundeninteresse vorbei entwickelt
- Prescott hatte unerwartete Probleme mit dem 90 nm Prozess
- M$ hat AMD64 zum Standard erklärt
- Der interne Speichercontroller hat einen Flaschenhals beseitigt

3 von 4 Gründen lagen nicht in der Hand von AMD, eine gezielte Wiederholung ist nicht möglich. Und der vierte Grund war eine gute Idee (jedenfalls solange es einem nur um die CPU-Leistung geht), technisch aber kein wahnsinnig anspruchsvolles CPU-Design. Möglich, dass er noch einmal eine weitere Idee dieses Kalibers hat (auch wenn ich nicht wüsste, was man auf dem Level machen könnte - es gibt nicht mehr viel, dass man einfach mal integrieren könnte), aber Geistesblitze sind selten und vom Grunddesign her war K8 nichts weiter, als ein K7 mit integriertem Chipsatz. Großartige Entwicklung am Kern gab es nicht, sieht von AMD64 ab. (Was zwar aufwendig war, aber in die Kategorie "Fleißarbeit" zählt).

- gefolgt vom Herstellungsprozess bei GloFo, sollten 14nm Spruchreif bis 2016/17 sein dann ginge da sicherlich was

"Wenn"-Sätze zu GFs Prozessen gibt es noch mehr, als Verfügbarkeitsversprechen seitens GF. Aber bislang konnte man froh sein, wenn AMD innerhalb von 6-12 Monaten nach dem versprochenen Start eines neuen Prozesses CPUs in ausreichender Zahl auf dem Markt anbieten könnte. Ich würde nicht darauf vertrauen, dass es diesmal anders aussieht. Aber selbst wenn Anfang 2017 14 nm von GF mit akzeptabler Yield-Rate läuft:
Intel startet 14 nm Ende 2014, für Anfang 2017 ist 10 nm zu erwarten. "Abstand halten" ist nicht das gleiche, wie überholen.

- Auch wichtig ist AMD´s Kommunikation, wenn diesmal weniger heisse Luft verbreitet würde und evtl. das Endergebnis die Prognosen übertreffen würde wäre auch dort alles im Lot

AMD kommuniziert relativ wenig. Aber sobald irgendjemand ein kleines, positives Gerücht in die Welt setzt, machen die AMD-Fanboys ein Massenhype draus. Da kann auch AMD nichts dran ändern - es sei denn, sie machen sämtliche Entwicklungsfortschritte öffentlich, um jedem Gerüchtekoch zuvorzukommen. Das werden sie aber nicht.
 
Das Ende ist Nahe! Tuet Buße! Die Welt geht unter!

Der (Desktop) PC stirbt seit über 30 Jahren aus und erfreut sich irgendwie immernoch guter Gesundheit.
lol, die Entwicklung der letzten Jahre ist wohl irgendwie an dir vorbei gegangen.
Seit 2-3 Jahren schrumpft der Markt gewaltig, und in kurzen Abständen kommen immer wieder Bad-News dazu vom IDC und Gartner.
Die Prognosen beider Institute war übrigens immer zu optimistisch bis jetzt, und die Märkte schrumpfen stärker als prognostiziert.
Und da beide Institute für die nächsten Jahre eine ähnliche Tendenz anzeigen, ist die Talsohle noch lange nicht erreicht.
Der PC wird definitiv nicht aussterben, aber die Zeiten ständigen Wachstums sind lange vorbei.
Wenn ein Markt sich gesund schrumpfen muss, hat dass natürlich Auswirkungen für alle, Hersteller und Konsumenten.
Selbst big Intel hat Probleme, und muss sich schnell anpassen. Schon jetzt sind viele Fabs schlecht ausgelastet.
 
Das größte Problem bei AMD ist nun mal, dass der Laden chronisch pleite oder zumindest finanziell mager ausgestattet ist. Dazu kommt noch, dass die Fertigung nicht mit der von Intel konkurrieren kann. Da müsste schon ein mittelgroßes Wunder geschehen, damit man zumindest bei der Fertigung wieder gleichauf mit Intel wäre.

Die Entwicklung der Architektur sehe ich dagegen weniger kritisch. Das dürfte wohl das geringere Problem sein.

Interessant ist auch die Frage, ob es sich überhaupt noch lohnt, eine neue Highend-Architektur aus dem Hut zu zaubern. Wenn künftig softwareseitig mehr mit GPUs gearbeitet wird, braucht es ja keine Highend-CPUs mehr.

Für AMD wäre es wohl der beste Weg, wenn man sich weiter auf APUs konzentrieren würde. Vielleicht wären auch High-End-APUs eine Option, also eine Hawaii-GPU mit vier Steamroller Modulen. :ugly:
 
AMD möchte aus der APU-"Nische" raus, und deshalb arbeitet man (was immer noch ein Gerücht ist) an einer neuen Architektur.
Die aktuellen Zahlen zeigen bei den APUs auch einen deutlichen negativen Trend an.

heise schrieb:
AMD erlitt im ersten Quartal 2014 einen heftigen Einbruch bei den APU-Kombiprozessoren. Im Vergleich zum Q4 2013 verkaufte AMD laut Jon Peddie 21,9 Prozent weniger APUs für Desktop-Rechner und konnte von den Notebook-Varianten nur geringfügig mehr absetzen (+3,7 Prozent). Bei den Notebook-GPUs ging es aber ebenfalls fast 22 Prozent nach unten.
http://www.heise.de/newsticker/meldung/Grafikmarkt-Dramatischer-Absatzeinbruch-bei-AMD-2196893.html
 
AMDs Verbesserungen an der Architektur bestehen darin, dass Konzept aufzuweichen. Währenddessen hat Intel mit einem klassischeren Konzept mittlerweile die gleiche Dichte an Funktionseinheiten erreicht und weniger Auslastungsprobleme.
In einer Parallelwelt hat Intel sich auf ein Modul-Konzept konzentriert und AMD innovative CPUs, wo nichts geshared wird.
Intels Konzept hat sich somit als das bessere erwiesen, AMD geht wieder zurück Richtung Module.

Was ich offensichtlich sagen möchte, ich sehe die Probleme konkret an der Implementierung und nicht am Konzept an sich.
Ja AMD geht davon weg, ja Intel als Marktführer setzt nicht darauf, aber müsste ich eine Münze werfen, würde ich sie in das Loch für eine gescheiterte Umsetzung reinwerfen und nicht in das für ein falsches Konzept.

3 von 4 Gründen lagen nicht in der Hand von AMD, eine gezielte Wiederholung ist nicht möglich. Und der vierte Grund war eine gute Idee (jedenfalls solange es einem nur um die CPU-Leistung geht), technisch aber kein wahnsinnig anspruchsvolles CPU-Design. Möglich, dass er noch einmal eine weitere Idee dieses Kalibers hat (auch wenn ich nicht wüsste, was man auf dem Level machen könnte - es gibt nicht mehr viel, dass man einfach mal integrieren könnte), aber Geistesblitze sind selten und vom Grunddesign her war K8 nichts weiter, als ein K7 mit integriertem Chipsatz. Großartige Entwicklung am Kern gab es nicht, sieht von AMD64 ab. (Was zwar aufwendig war, aber in die Kategorie "Fleißarbeit" zählt).
Wenn man die Sachen so simpel sieht, würde es mich ehrlich gesagt interessieren, was überhaupt eine nennenswerte Arbeit in den letzten Jahren bei CPUs dargestellt hat?

AMD möchte aus der APU-"Nische" raus, und deshalb arbeitet man (was immer noch ein Gerücht ist) an einer neuen Architektur.
Die aktuellen Zahlen zeigen bei den APUs auch einen deutlichen negativen Trend an.


Grafikmarkt: Dramatischer Absatzeinbruch bei AMD | heise online
AMD möchte aus einer "Nische" heraus, wo man eig. davon ausging das es die Zukunft ist?
Was sie eig. auch ist, da in dem Bereich solche Designs unweigerlich dominieren.
Bloß schafft das AMD nicht.

So wie ich Read verstanden habe möchte man wieder tolles Server-Geld sehen und natürlich schadet ein guter CPU-Part nirgendwo (außer bei den Entwicklungskosten).
 
also ich glaube kaum das man, ganz nach Herrn Spille, einfach mal weissagen kann das die aktuelle Lücke zwischen AMD und Intel etwas über die nun in Entwicklung befindliche, neue Architektur aussagt. Die Ingenieure haben wohl alle bei AMD studiert, leben hinter dem Mond und was Intel da unter dem Heatspreader hat kann Niemand auch nur im Ansatz nachvollziehen, geschweige denn verstehen. Nicht ohne Grund kam der Pentium-M aus Israel, die Grundlage für die Core-Technologie.

Ich kann AMD nur zu dieser Entscheidung beglückwünschen, um etwas zu verkaufen brauchts natürlich auch Produkte. Und da muss man nichtmal Sandy-Bridge überholen, Skylake sowieso nicht. Nur die Effizienz sollte massiv gesteigert werden, und weg von zu eigentümlichen Designs bei denen schon während der Entwicklung klar wird das diese keinen entscheidenden Vorteil bringen.
 
Ohne jetzt alle Vor-Schreiber gelesen zu haben, ich denke nicht das AMD diesen Vorsprung wieder einholen wird. Das Problem ist viel weniger das man es nicht könnte, sondern ich glaube vielmehr das AMD noch nicht soweit ist die dafür nötigen Geldmittel aufzubringen um wieder zur ernsthaften Konkurenz zu werden. Alleine die Investitionen in Personal, das teilweise sehr teuer abgeworben werden müsste und die extremen Gelder die in die Neuentwicklung laufen würden. Nene, bin zwar wahrlich kein Fachmann was das betrifft aber meine Einschätzung lautet: Sie werden den Rückstand etwas verkleinern aber letztlich wieder nur halbherzig an einer Lösung arbeiten und somit wieder hinter dem Ziel zurückbleiben. Am liebsten würde ich sehen das sie richtig Schotter locker machen, einen großen Coup landen und Intel für einige Jahre den Platz der Nr. 2 einnimt, damit AMD sich in der Prozessorsparte endlich wieder ein Polster zulegen kann und merkt das es sich durchaus lohnen kann mal was zu riskieren. Aber machen wir uns nichts vor, das wird seeeeeehr warscheinlich nicht passieren... träumen darf man aber noch. ;)
 
Interessant ist auch die Frage, ob es sich überhaupt noch lohnt, eine neue Highend-Architektur aus dem Hut zu zaubern. Wenn künftig softwareseitig mehr mit GPUs gearbeitet wird, braucht es ja keine Highend-CPUs mehr.

Für AMD wäre es wohl der beste Weg, wenn man sich weiter auf APUs konzentrieren würde. Vielleicht wären auch High-End-APUs eine Option, also eine Hawaii-GPU mit vier Steamroller Modulen. :ugly:


das hatte ich auch gedacht . In Zukunft werden wohl GPU- Mantle und einen AMD CPU ausreichen um locker alles zocken zu können ohne CPU Bremse. 2016 ist noch lang . Wenn man die CPU entlasten könnte wäre es sowieso egal .

Was dazu kommt ist das die meisten Programme und spiele villeicht auf 4 kernen laufen .. Dazu weiss man auch nicht wie gut sie dann noch Optimiert sind .



------

Freue mich schon auf 2016 ,da ich sowieso dann Fett aufrüste ... Mir kribbelst schon in den Fingern :ugly: Noch 1 Jahr und 7 Monate :-)
 
In einer Parallelwelt hat Intel sich auf ein Modul-Konzept konzentriert und AMD innovative CPUs, wo nichts geshared wird.
Intels Konzept hat sich somit als das bessere erwiesen, AMD geht wieder zurück Richtung Module.

Was ich offensichtlich sagen möchte, ich sehe die Probleme konkret an der Implementierung und nicht am Konzept an sich.
Ja AMD geht davon weg, ja Intel als Marktführer setzt nicht darauf, aber müsste ich eine Münze werfen, würde ich sie in das Loch für eine gescheiterte Umsetzung reinwerfen und nicht in das für ein falsches Konzept.
In meinen Augen ist das größte Problem, dass da nicht wirklich was geshared wird!
Es sollte doch eigentlich dazu führen, dass man einen starken Quadcore hat, der durch perfekte Resourcennutzung per Multithreading dank mehrfachausgelegtem Kernaufbaus wie ein starker "Heptacore"(:D)/ nicht ganz so starker Octacore performed!

Die Realität sieht ganz anders aus: Der 8350 bietet beispielsweise in der Praxis nichts weiter als acht ganz akzeptable Kerne---anstelle des eigentlichen Konzeptes, wahlweise vier starke oder acht nicht ganz so starke Kerne anzubieten!
AMD möchte aus einer "Nische" heraus, wo man eig. davon ausging das es die Zukunft ist?
Was sie eig. auch ist, da in dem Bereich solche Designs unweigerlich dominieren.
Bloß schafft das AMD nicht.

So wie ich Read verstanden habe möchte man wieder tolles Server-Geld sehen und natürlich schadet ein guter CPU-Part nirgendwo (außer bei den Entwicklungskosten).
Ich glaube kaum, dass AMD aus der Nische raus will---was AMD will, ist, diese Nische zu erweitern!
Deren jetziges Problem ist doch nicht, dass deren APUs nicht universell einsetzbar oder gar schlecht sind---sondern dass AMD chronisch verspätet und der Notebookmarkt in letzter Zeit AMD fast vollkommen ignoriert.
Und wenn sie es nicht machen, dann entstehen die reinsten Schwachsinns-Geräte!

AMDs ursprüngliche Nische "Grafikleistung überall" hat Intel ihnen doch schon weggeschnappt. Daher müssen sie jetzt mit überlegener Grafikleistung überall oder überlegen genutzter Grafikleistung überall ankommen. Und falls das Konzept aufgeht, automatisch Berechnungen mittels ControllerARM-Cores zwischen GPUs und CPUs zu managen, dann könnten die damit auch einen riesigen Erfolg haben!
Das wichtige momentan ist aber eh, dass irgendjemand den OEMs beibringt, wie man gute Notebooks baut :D
 
lol, die Entwicklung der letzten Jahre ist wohl irgendwie an dir vorbei gegangen.
Seit 2-3 Jahren schrumpft der Markt gewaltig, und in kurzen Abständen kommen immer wieder Bad-News dazu vom IDC und Gartner.
Die Prognosen beider Institute war übrigens immer zu optimistisch bis jetzt, und die Märkte schrumpfen stärker als prognostiziert.
Und da beide Institute für die nächsten Jahre eine ähnliche Tendenz anzeigen, ist die Talsohle noch lange nicht erreicht.
Der PC wird definitiv nicht aussterben, aber die Zeiten ständigen Wachstums sind lange vorbei.
Wenn ein Markt sich gesund schrumpfen muss, hat dass natürlich Auswirkungen für alle, Hersteller und Konsumenten.
Selbst big Intel hat Probleme, und muss sich schnell anpassen. Schon jetzt sind viele Fabs schlecht ausgelastet.

Ja, der Desktop PC Markt wird sich vorerst bei etwas über 300 Mio stabilisieren und damit ist ein Bruch mit dem "nur nach oben" der letzten Jahzehnte. Ein Untergang sieht allerdings anders aus, wir können vermutlich auch im Jahr 2020 mit unseren geliebten Riesenkisten rechnen. Was im Moment fehlt sind richtige Killerapplikationen die nur auf einem PC mit seinen stromintensiven Rechenwerken laufen, die Grakahersteller sehen 4K wohl als Geschenk des Himmels an und nun fehlt sowas für die CPU.

Das größte Problem bei AMD ist nun mal, dass der Laden chronisch pleite oder zumindest finanziell mager ausgestattet ist. Dazu kommt noch, dass die Fertigung nicht mit der von Intel konkurrieren kann. Da müsste schon ein mittelgroßes Wunder geschehen, damit man zumindest bei der Fertigung wieder gleichauf mit Intel wäre.

Die Entwicklung der Architektur sehe ich dagegen weniger kritisch. Das dürfte wohl das geringere Problem sein.

Dann vergleich mal den FX 8350 mit dem 990X, 315mm² gegen 239mm² im gleichen Fertigungsprozess. Der 990X ist in jeder Hinsicht schneller, kam 2 Jahre früher raus, besser übertaktbar und zu allem Überfluss auch noch billiger herzustellen. Sehen wir es ein: die FX Architektur ist Murks, das Konzept mit der Modultechnik die doppelte Leistung bei 10% mehr Chipfläche zu erreichen ist grandios gescheitert.

Interessant ist auch die Frage, ob es sich überhaupt noch lohnt, eine neue Highend-Architektur aus dem Hut zu zaubern. Wenn künftig softwareseitig mehr mit GPUs gearbeitet wird, braucht es ja keine Highend-CPUs mehr.

Die Versprechungen seit der GeForce 8 sind verheißungsvoll, nur rausgekommen ist eher wenig obwohl besonders Nvidia sich nach Kräften bemüht hat. Ich denke das sich in den nächsten Jahren daran nichtmehr soviel tun wird wenn man es in 8 Jahren nicht auf die Reihe bekommen hat.
 
AMD selbst sagt zumindest, dass sie von Grund auf neu anfangen
AMD FX-Prozessoren: Komplett neue CPU-Architektur für 2016 geplant
Und es wäre arg bescheuert, dabei erneut auf ein Konzept zu setzten, dass so grandios geflopt ist.
.

steht nichts von amd hat es bestätigt,
hier steht nur amd SOLL es bestätigt Haben

das ist ein unterschied

das Konzept mit der Modultechnik die doppelte Leistung bei 10% mehr Chipfläche zu erreichen ist grandios gescheitert.

1. es sind 20% mehr fläche,
und amd selbst ging von 70-80% aus.

die 10% und doppel leistung ist fantasterei
 
Zuletzt bearbeitet:
Ich bin ja echt mal gespannt was in der Zukunft so passieren wird. Einige verwirrte Ideen meines "genialen Superschurken-Geistes" sind mir gekommen, wie man doch noch das Monopol erreichen könnte.

1. Mit den Grafikoptimierungen (z.B. Mantle) fährt AMD ja momentan im Grafikbereich ganz gut. Diese sollte man auf jeden Fall noch ausbauen. Die AMD APU Serien sind dazu perfekt und ein neuer Schritt in Richtung Zukunft! Leider lässt die Leistung noch weit zu wünschen übrig, aber aller Anfang ist schwer...

2. Ebenfalls könnte man alle Vorteile vorhandener APIs und 3D-Engines zusammen tragen und diese in einer Art Toolchain (wie die von Linaro), wie dies bei der ARM Architektur in Verbindung mit Linux der Fall ist, miteinander verbinden und damit seine Hardware-Treiber, Anwendungen und/oder Spiele erweitern und optimieren. Dies müsste nicht einmal "on-the-fly" funktionieren, sondern kann auch einfach während oder nach der Installation passieren. Außerdem könnte man sämtliche Codes einfacher, kürzer und effizienter gestalten, denn je weniger Code am Ende verarbeitet werden muss, desto schneller werden diese umgesetzt und desto mehr Leistungsreserven sind vorhanden.

3. Die schnellste und effizienteste Art vorhandene Hardware noch schneller zu machen wäre ein neues oder gemoddetes Betriebssystem. Man hat in der Vergangenheit leider so stark daran gearbeitet, dass Leistung für Jedermann verfügbar ist, dass man völlig vergessen hat, dass es vorrangig um Leistung und nicht um Jedermann gehen sollte. Was haben wir heute nach all den Jahrzehnten für effektive Spiele-Betriebssysteme? Nur eins... Windows. Also könnte man sich nun überlegen, ob man ein Betriebssystem erstellt, das sich noch mehr auf die Leistung konzentriert oder die vorhandene Leistung erweitert und dieses System für Windows-Software und Konsorten (Linux, Mac) kompatibel macht. Man könnte hierbei ja Open Source mit der Creme de la Creme der Computerbranche aus allen möglichen Winkeln der Erde zusammen arbeiten. Bei Android Open Source Projects (AOSP) und Linaro ist das ja auch der Fall und was soll ich sagen... Diese Betriebssysteme haben eine nicht zu vergleichend höhere Leistung gegenüber dem Standard Android, iOS und Co.

4. Mein absoluter Favorit: neue Hardwaretechniken erforschen und nutzen, die wir bereits seit Jahrzehnten in der Hinterhand haben oder endlich mal anpacken! Was passiert zum Beispiel, wenn wir die Leiterbahnen nicht mehr weiter verkleinern können und die maximale Effizienz und Leistung erreicht ist, die mit unseren Leiterbahnen möglich ist? Dann sind wir gezwungen uns an neue Techniken zu wagen und durch die neu gewonnene Leistung werden wir ungeahnte Leistungen mit unseren Maschinen vollbringen können. Wenn wir uns vorstellen, dass unsere Technik mit langsamen Atomen zusammen arbeitet und diese durch Photonen austauschen würden, so könnten wir die Ausgangsleistung um ein vielfaches steigern, bei gleichzeitig weniger Wärme und ungeahnt höherer Energieeffizienz. Die Leistung optischer Technik, kann man mit unserer primitiven Technik überhaupt nicht vergleichen.

Warum gibt es keine Eier legende Woll-Milch-Sau? Weil sie noch keiner erfunden hat! Dabei haben wir bereits alles, um dies zu tun! Nur nicht den Willen und den Mut ;)
 
Zuletzt bearbeitet:
Ich glaube nicht das AMD so schnell das Ruder rumreißen kann. Offiziell gibt es bis 2016 nur neues im Bereich ARM. Laut Besuchern des Chinesischen AMD Events soll dort gesagt wurden sein das 2016 neben der neuen, eigenen ARM auch x86 CPUs kommen werden. Gibt keine Videos zu dem Event wo man das ganze für sich selbst überprüfen könnte und es kann auch einfach nur ein Übersetzungsfehler oder eine Falschaussage sein. Eines von vielen Problemen die AMD hat ist das die fast immer pleite sind und alle paar Jahre vor dem Bankrott stehen und umstrukturiert werden müssen. Hinzu das die kein Geld haben kommt das Intel eigene Fabs hat die ihres gleichen suchen und Intel wird bis 2016 nicht einfach nur rumsitzen.

Wenn wir Glück haben holt AMD bis 2016 auf aber ne CPU die besser ist als was Intel bis dahin hat halte ich für unrealistisch und AMD bräuchte schon ne geniale Idee um den technologischen Vorsprung von Intel zu überholen. Von den Gerüchten das es 2016 ne neue x86 Architektur geben wird halte ich nichts, da es sich auf dem AMD Event so angehört hat als wenn man x86 erstmal nur nebenher laufen lässt und sich auf ARM konzentriert um ne vernünftige Geldquelle zu haben.
 
Zurück