AMD Ryzen kommt angeblich Ende Februar

Ich beiße mir immer noch imaginär in den Arsch dass ich erst vor wenigen Monaten auf i7 6700k mit neuem Mainboard und RAM aufgerüstet habe.
Sollten die Benchmarks und Gerüchte halbwegs stimmen, dann hätte ich das halbe Jahr auch noch warten können und einen 8-Kerner von AMD verbauen können.
Das ist erst Recht ärgerlich unter dem Gesichtspunkt, dass Prozessoren immer längere Lebenszeiten in Gamer-Systemen haben. 5 Jahre ist ja mittlerweile bei den meisten (wie auch bei mir) üblich.

Naja, mal sehen. Wenn Ryzen ein Knaller ist dann mache ich ja vielleicht doch irgendwann in 2017 etwas unvernünftiges... :-)


Aber dennoch erstmal abwarten: Schrottdozer damals hat zu sehr enttäuscht, als dass jetzt schon Euphorie bei mir ausbrechen würde...
Wegen dem Ding habe ich fast 1,5 Jahre mit dem Aufrüsten gewartet und dann kam so eine Gurke...
 
Ich beiße mir immer noch imaginär in den Arsch dass ich erst vor wenigen Monaten auf i7 6700k mit neuem Mainboard und RAM aufgerüstet habe.
Sollten die Benchmarks und Gerüchte halbwegs stimmen, dann hätte ich das halbe Jahr auch noch warten können und einen 8-Kerner von AMD verbauen können.
Das ist erst Recht ärgerlich unter dem Gesichtspunkt, dass Prozessoren immer längere Lebenszeiten in Gamer-Systemen haben. 5 Jahre ist ja mittlerweile bei den meisten (wie auch bei mir) üblich.

Naja, mal sehen. Wenn Ryzen ein Knaller ist dann mache ich ja vielleicht doch irgendwann in 2017 etwas unvernünftiges... :-)


Aber dennoch erstmal abwarten: Schrottdozer damals hat zu sehr enttäuscht, als dass jetzt schon Euphorie bei mir ausbrechen würde...
Wegen dem Ding habe ich fast 1,5 Jahre mit dem Aufrüsten gewartet und dann kam so eine Gurke...
Naja wenn ich mir WD2 BF1 etc anschaue würde ich nicht wetten dass ein 4 Kerner 5 Jahre durchhält.
 
70/30 ist der aktuelle Stand. Also auf Vermutung basierende Aussagen zum aufplustern nehme ich an?
Im GPU Markt mag das stimmen, CPU seitig wären AMD 30% mehr als genug um Gewinne zu machen, ich denke aber der CPU Markt liegt bei vllt 20%

aus 2015: Intel and AMD's Duopoly in the PC Processor and Server Market - Market Realist
PassMark CPU Benchmarks - AMD vs Intel Market Share

Forbes Welcome

Amd geht selber von 22% aus. Da ist noch viel Luft nach 30% , vor allem hat man im HPC Bereich nichtmal mehr 5%.. Da kann man viel Geld verdienen und PCs werden eben NICHT mehr alle Paar Jahre getauscht sondern immer mehr in Thin Clients umgewandelt und die Rechenleistung ausgegliedert. Solange man Intels Monopol in den Mobilen Sektor nicht Brechen kann, wird man nur bei Desktop und Server eventuell ein paar Prozent abknabbern können... Damit AMD gesund wird, Muss man aber an die 30% kommen und 20% HPC Bereich wären schon wünschenwert. Das hat nichts mit aufgeplustere zutun (die persönliche Anfeindung ignorier ich mal) sondern mit Ökonomischen Denkens ;) (kleine Anmerkung: Laut Forbes Artikel sieht sich AMD 2020 erst bei knapp 25% Marktanteil.)

@Norisk:
Schrott war BD nicht, nur Dummerweise glaubte AMD die Software geht in die Breite und wird Multithreadded.. Leider war dem nicht so. Die Verzögerung seitens der Fabs gab BD dann den Rest.. Bulldozer ist per Se eine gute Architektur, nur extrem Spezifisch und in 32nm einfach veraltet. Multithreadded liegt BD eben, aber nur 10% der Software ist Multithreadded. Ich kenne Unternehmen die arbeiten mit 30 Jahre alten Datenbanken und Steuerprogrammen und diese Software weiß nicht mal was Multithreading ist :D Wenn man Quasi die zwei CMT Module zusammen hätte fassen können bei einer Berechnung, dann sähe BD im Vergleich zum Phenom nicht so schlecht aus.. Zu Intel fehlt aber eben, auch wegen der moderneren Fertigung und der wirklich massiven ST Power, der Anschluss.
 
Zuletzt bearbeitet:
Man kann sich nur auf das stützen was die Gerüchteküche hergibt...
Öhm nein. Ich und einige andere informierte User hier, haben nicht einfach blind 2016 geglaubt, sondern die üblichen "Vorankündigungen" miteingerechnet, außerdem, dass eine Ankündigung noch kein verkauftes Produkt heißt. Außerdem, dass AMD noch nie ein Produkt/eine neue CPU in genau dem Jahr gebracht haben, in dems ursprünglich geplant war (Verzögerungen gehoren dazu). Hinzu kommt, dass es dann laut Gerüchteküche immer öfter hieß Q4, womit klar war mit Einführung aller nötigen Produkte (Mainboards usw), dass es "echtes" kaufbares wohl am ehesten 2017 gibt.
Ich vergesse hier noch vieles.
Es sprachen also schon immer viele Gründe für einen 2017er Launch, aber wenn man diese aufgeführt hat, wurde man gesteinigt bzw verbal terrorisiert. Und damit meine ich nicht "intel-Fanboy", nur weil man realistisch statt überoptimistisch dem Launch entgegenblickt
Ich möchte jetzt also wirklich wissen, wo diese ganzen aggressiven Fanboys hinsind.
 
  • Like
Reaktionen: hfb
Ich weiß, hört sich komisch an, ist aber so:

Anhang anzeigen 932045

Das sagt zumindest der AIDA64 FPU Test, Blender wird ungefähr gleich vlt. ein Tick weniger auslasten je nach CPU (zumindest ist das bei mir der Fall). Die Güte der CPU sowie Northbridge und ggf. zusätzliche Controller hab ich natürlich vernachlässigt, was weißen würde Bestcase ~ 130 W schlechtestens vlt. ~ 145 W. Bei etwa gleichem Aufbau und etwa gleichen Fertigungsprozess werden die beiden auch etwa gleiche Verlustleistungen haben, klingt für mich recht logisch. Der 6950X braucht übrigens ~ 145 Watt, ohne OC versteht sich. Alles weiter sehen wir dann vlt. schon in der PCGH 04/17.

Anhang anzeigen 932049

Hier noch der dazu gehörige Test von Tom's Hardware.

Das A und O bei Messwerten ist immer zu verstehen was gemessen wurde und wie die Zahlen einzuordnen sind. Du setzt den Aida Stresstest (CPU, FPU, Cache) zur Stabilitätsprüfung mit dem Torture-Test (Prime95 mit FM3/AVX2) gleich. Dabei belastet ersterer deutlich weniger die CPU(FPU), in etwa ähnlich moderat wie Blender, hast du bereits selbst festgestellt. Um die Unterschiede zwischen dem Torture-Test von Prime95 und Aida (Stresstest) bzw. Blender zu verdeutlichen, habe ich meinen undervolteten i5 4460 (3,2 GHz@0,89V) kurz/grob die Szenarien durchlaufen lassen:


CPU Package (Cores & Uncore) laut Tools:

Aida (Stresstest): 36-37W
Blender 2.78a: 35-36W
Prime95 (Torture Small FFT): 52-53W
Prime95 (Torture In-place large FFT)*: 52-53W


Leistungsaufnahme Rechner (selbst gemessen):

Aida (Stresstest): 67-68W
Blender 2.78a: ~69W (+-3W)
Prime95 (Torture Small FFT): 85-86W
Prime95 (Torture In-place large FFT)*: 88-89W

*belastet massiv den Memory-Controller, welcher offenbar nicht im Uncore-Bereich enthalten ist (Unterschied zwischen 2 x 4GB DDR3L-1600@1,35V im Single-Channel Betrieb und 2 x 4GB DDR3L-1600@1,35V im Dual-Channel Betrieb beträgt gemessen 15-17W!)


Die Unterschiede zwischen Prime95 Torture und Blender sind selbst bei einem stark undervolteten 4 Kerner mit nur halb so großen Memory-Controller und Low-Voltage RAM mehr als deutlich.

Man kann beim besten Willen keinen Vergleich zwischen Tom's Hardware (Torture-Test mit Quad-Channel Betrieb) und AMDs Vorführung (Blender mit Dual Channel Betrieb) anstellen. Und selbst wenn man diesen Unsinn täte, wären wir trotzdem nicht annähernd bei 140W für den 6900K, da man mit Stromzangen (siehe Toms Messmethode) zwangsläufig auch die Spannungswandler vom Mainboard mit abgreift (ausser man baut das Mainboard um, was das Ab- und Anlöten der Spannungswandler erfordern würde).

Im Idealfall mit DriverMosfets, Ferritkerndrosseln & Tantal-Elkos würde man höchstens 90% Wirkungsgrad erreichen (wenn die Phasenanzahl nicht überdimmensioniert für den Stock-Betrieb wäre, was bei Overclockingboards oft der Fall ist), diese genannten hochwertigen Komponenten gibt das Board allerdings nicht her, bis auf die Drosseln, idR sind es also eher 82-87% Wirkungsgrad die man erreicht. In den 140W sind also die beachtlichen Verluste der Mainboard-Spannungswandler enthalten und müssen auch noch herausgerechnet werden.
 
Zuletzt bearbeitet von einem Moderator:
@Norisk:
Schrott war BD nicht, nur Dummerweise glaubte AMD die Software geht in die Breite und wird Multithreadded.. Leider war dem nicht so. Die Verzögerung seitens der Fabs gab BD dann den Rest.. Bulldozer ist per Se eine gute Architektur, nur extrem Spezifisch und in 32nm einfach veraltet. Multithreadded liegt BD eben, aber nur 10% der Software ist Multithreadded. Ich kenne Unternehmen die arbeiten mit 30 Jahre alten Datenbanken und Steuerprogrammen und diese Software weiß nicht mal was Multithreading ist :D Wenn man Quasi die zwei CMT Module zusammen hätte fassen können bei einer Berechnung, dann sähe BD im Vergleich zum Phenom nicht so schlecht aus.. Zu Intel fehlt aber eben, auch wegen der moderneren Fertigung und der wirklich massiven ST Power, der Anschluss.
Eine Rechnung, die nie aufgehen konnte.
Völlig unverständlich schon ca 2006, als ich wir das erste Mal gehört haben, dass AMDs nächste große Architektur nach dem Athlon 64 (und dem darauf basierenden Phenom) eine mit möglichst vielen Kernen sein wird.
Zum einen war schon damals klar, dass der großteil der Software einfach nicht gut parallelisierbar ist und auch nie sein wird (und falls doch nur mit enromen Aufwand, was dazu führt, dass: ) zum anderen war auch klar, dass eine massive parallelisierung viel viel Zeit braucht. Weil es nicht einfach nur einen Programmierer braucht, der gewillt ist, seine Software auf Multithreading auszulegen, sondern die gesamte Struktur von Hardwareverbreitung, Betriebssystemunterstützung, Software die gethreaded wird, Inhalte die sich Threaden lassen usw usf.... alles nicht vorhanden war und erst kommen müsste. Ein Bulldozer wäre also erst in 10 Jahren sinnvoll gewesen (@8 Kernen, darüber ist es ja erst recht wieder ein Wartespiel).
Und naja Bulldozer würde ich nie als gute Architektur bezeichnen:
In den wenigen Einsatzszenarien wo sie ihre (geringen) Vorteile Ausspielen konnte (Programme die viele Threads benötigten, Server), war man meistens dennoch langsamer oder kaum Schneller als die 4 Kern (+HT) Konkurrenz. Bei gleichzeitig höherem Verbrauch. Dann kam halt hinzu, dass Intels Cores kaum größer waren (schon im selben Fertigungsverfahren), und man deshalb das Spielchen mit den vielen Kernen genauso mitgehen konnte. Bzw sogar besser, denn wie du schon erwähnt hast: der 32nm Prozess von AMD lief nicht besonders, die folgenden kamen JAHRELANG nicht. Selbst heute fertigt AMD noch im 28nm Prozess bei TSMC als kleinsten Prozess, während Intel schon 2010(!) den vergleichbaren 32nm High-K Prozess hingekriegt hat. Ganz zu schweigen vom 22nm Trigate usw.

Dass Bulldozer 5 Jahre im selben Fertigungsverfahren "gefangen" war, ist natürlich eine absolute Katastrophe. Wäre man (wie aktuell Intel) mit Excavator bei 14nm, dann hätte man wenigstens irgendwas entgegenzusetzen, und wenn es 5-6 Ghz-Chips 8 Kerner wären (die keine 220 Watt brauchen). Aber außer näher dran wäre man nicht viel, Überholen würde man trotzdem nur über IPC können (wobei falls man tatsächlich 6 Ghz schaffen würde (reine spekulation und völlig unrealistisch, der Prozess von TSMC oder GloFo ist auf solche Taktraten hin nicht optimiert und es müsste einen eigenen AMD Prozess geben), wäre es dafür wieder egal, dass man nur etwas mehr als die halbe IPC hat

Huch! Wieder was gelernt!
 
Zuletzt bearbeitet:
Du setzt den Aida Stresstest (CPU, FPU, Cache) zur Stabilitätsprüfung mit dem Torture-Test (Prime95 mit FM3/AVX2) gleich.

War nicht meine Absicht, ich dachte bei den Benchmarks handelte es sich um Aida64 (CPU, FPU, Cache) und nicht um den Small FFT aus Prime95.

Dabei belastet ersterer deutlich weniger die CPU(FPU), in etwa ähnlich moderat wie Blender, hast du bereits selbst festgestellt. Um die Unterschiede zwischen dem Torture-Test von Prime95 und Aida (Stresstest) bzw. Blender zu verdeutlichen, habe ich meinen undervolteten i5 4460 (3,2 GHz@0,89V) kurz/grob die Szenarien durchlaufen lassen:

CPU Package (Cores & Uncore) laut Tools:

Aida (Stresstest): 36-37W
Blender 2.78a: 35-36W
Prime95 (Torture Small FFT): 52-53W
Prime95 (Torture In-place large FFT)*: 52-53W


Leistungsaufnahme Rechner (selbst gemessen):

Aida (Stresstest): 67-68W
Blender 2.78a: ~69W (+-3W)
Prime95 (Torture Small FFT): 85-86W
Prime95 (Torture In-place large FFT)*: 88-89W

*belastet massiv den Memory-Controller, welcher offenbar nicht im Uncore-Bereich enthalten ist (Unterschied zwischen 2 x 4GB DDR3L-1600@1,35V im Single-Channel Betrieb und 2 x 4GB DDR3L-1600@1,35V im Dual-Channel Betrieb beträgt gemessen 15-17W!)


Die Unterschiede zwischen Prime95 Torture und Blender sind selbst bei einem stark undervolteten 4 Kerner mit nur halb so großen Memory-Controller und Low-Voltage RAM mehr als deutlich.

Danke für die Daten, entsprich auch meinen Erfahrungen.

Man kann beim besten Willen keinen Vergleich zwischen Tom's Hardware (Torture-Test mit Quad-Channel Betrieb) und AMDs Vorführung (Blender mit Dual Channel Betrieb) anstellen.

Wie gesagt habe Aida64 verstanden und nicht Prime95.

Und selbst wenn man diesen Unsinn täte, wären wir trotzdem nicht annähernd bei 140W für den 6900K, da man mit Stromzangen (siehe Toms Messmethode) zwangsläufig auch die Spannungswandler vom Mainboard mit abgreift (ausser man baut das Mainboard um, was das Ab- und Anlöten der Spannungswandler erfordern würde).

Im Idealfall mit DriverMosfets, Ferritkerndrosseln & Tantal-Elkos würde man höchstens 90% Wirkungsgrad erreichen (wenn die Phasenanzahl nicht überdimmensioniert für den Stock-Betrieb wäre, was bei Overclockingboards oft der Fall ist), diese genannten hochwertigen Komponenten gibt das Board allerdings nicht her, bis auf die Drosseln, idR sind es also eher 82-87% Wirkungsgrad die man erreicht. In den 140W sind also die beachtlichen Verluste der Mainboard-Spannungswandler enthalten und müssen auch noch herausgerechnet werden.

Aber der Testaufbau war meins Wissens nach Dual Channel RyZen gegen Dual Channel 6900K oder nicht? Ich weiß zwar, dass die Intel CPUs ab Haswell Teile des Speicherkontrollers deaktivieren können, um Storm zu sparen, dass das mit ganzen Speicherkanälen geht, ist mir jetzt nicht bekannt. Die Spannungswandler machen den Kohl ja nicht fett. Selbst wenn das Intel- oder das AMD-Board mehr Spannungswandler gehabt hätte, wären die Auswirkung bei vergleichbarer Technik doch maginal gewesen, außer natürlich AMD hat beim Board wieder einen auf RX480 gemacht, und auch noch das letzte Quäntchen Effizenz rausgekitzelt. Zudem hat AMD die Leistungsaufnahme doch an der Steckdose abgenommen, oder irre ich schonwieder? Zumindest war die Rede vom kompletten System -5 Watt.
 
Zuletzt bearbeitet:
Naja wenn ich mir WD2 BF1 etc anschaue würde ich nicht wetten dass ein 4 Kerner 5 Jahre durchhält.
Mit vollen 8C/16T ist der 6900K mit 4,0 GHz in BF1 mit DX11 zwischen 13-14% schneller als mit 4C/8T, mit DX12 ist es nicht großartig viel mehr. Das ist angesichts der Tatsache, dass sich die physischen Kerne und die Threads verdoppeln noch völlig vernachlässigbar. Ein 4C/8T i7 mit 4,5 GHz oder mehr und schnellen Ram ist bestens für die nahe Zukunft gerüstet :schief:
 
Zuletzt bearbeitet:
Aber der Testaufbau war meins Wissens nach Dual Channel RyZen gegen Dual Channel 6900K oder nicht? Ich weiß zwar, dass die Intel CPUs ab Haswell Teile des Speicherkontrollers deaktivieren können, um Storm zu sparen, dass das mit ganzen Speicherkanälen geht, ist mir jetzt nicht bekannt. Die Spannungswandler machen den Kohl ja nicht fett. Selbst wenn das Intel- oder das AMD-Board mehr Spannungswandler gehabt hätte, wären die Auswirkung bei vergleichbarer Technik doch maginal gewesen, außer natürlich AMD hat beim Board wieder einen auf RX480 gemacht, und auch noch das letzte Quäntchen Effizenz rausgekitzelt. Zudem hat AMD die Leistungsaufnahme doch an der Steckdose abgenommen, oder irre ich schonwieder? Zumindest war die Rede vom kompletten System -5 Watt.

Was ich mit meinem Posting davor eigentlich sagen/verdeutlichen wollte, ist dass sich auf AMDs Veranstaltung sowohl der i7 6900K (Dual Channel Modus) als auch der Ryzen im Sub-100W-Bereich (CPU only) bewegt haben muss, während dem Blender-Durchlauf :) Die angenommenen 140W werden ja nicht mal unter Prime95-Torture mit FM3/AVX2 und Quad-Channel Modus erreicht, wenn man den Wirkungsgradverlust des Mainboards von Tom's Hardware herausrechnet (was schnell 20W sein können) .

Ja AMD hat wohl das Gesamtsystem an der Steckdose gemessen, ich vermute jeweils sogar inkl. Monitor, da der Leerlaufverbrauch bei ungewöhnlich hohen 93W (Ryzen) bzw. 106W (6900K) lag. Unter Last waren es 188W (Ryzen) bzw. 191W (6900K). Ist im Prinzip in etwa gleiches Niveau, es geht wie gesagt darum, dass beide CPUs im Blender-Benchmark weit unter 140W verbraucht haben, sehr warscheinlich sogar unter 100W. AVX2-Code wurde in der Version 2.78a wohl auch nicht genutzt.
 
Zuletzt bearbeitet von einem Moderator:
Wenn die das Veröffentlichungsdatum noch länger nicht preisgeben wollen, kaufe ich mir einen Intel... Mich nervt das voll, dass die ein riesen Tamtam machen mit Events usw. aber kein Wort über die Verfügbarkeit sagen. Die "hypen" (wie der Deutsche sagen würde) jetzt schon seit geraumer Zeit, langsam verpufft das Interesse. Ich bräuchte mal ein neues System, aber ewig werde ich nicht warten und mit so einer billigen Multimediaplattform mit Dual Channel und etwa 4 PCI-E Lanes möchte ich mich nicht zufrieden geben.
 
Mit vollen 8C/16T ist der 6900K mit 4,0 GHz in BF1 mit DX11 zwischen 13-14% schneller als mit 4C/8T, mit DX12 ist es nicht großartig viel mehr. Das ist angesichts der Tatsache, dass sich die physischen Kerne und die Threads verdoppeln noch völlig vernachlässigbar. Ein 4C/8T i7 mit 4,5 GHz oder mehr und schnellen Ram ist bestens für die nahe Zukunft gerüstet :schief:
Höchstens für Singleplayer und/oder 60 Hz/FPS.
Spiele mal 64 Spieler Multiplayer BF1 mit dauerhaft 144 FPS (d.h. minimum FPS 144), das schafft selbst ein i7 7700k @ 5 GHz nicht.
 
Wenn die das Veröffentlichungsdatum noch länger nicht preisgeben wollen, kaufe ich mir einen Intel...

Kannst ja noch ein paar Tage bis zur CES warten, vielleicht gibt es dann einen Release-Termin. Es gibt für AMD eigentlich kaum noch Gründe den konkreten Termin zurückzuhalten, denn klar ist (auch für die Konkurrenz), dass RyZen bis spätestens März kommen muss. Könnte natürlich sein, dass man noch nie ganz Launch-ready ist (letzte Feinschliffe, Microcodes/Bugfixing (BIOS), etc.) und man sich bei AMD noch nicht mal intern festgelegt hat.
 
Wenn die das Veröffentlichungsdatum noch länger nicht preisgeben wollen, kaufe ich mir einen Intel... Mich nervt das voll, dass die ein riesen Tamtam machen mit Events usw. aber kein Wort über die Verfügbarkeit sagen. Die "hypen" (wie der Deutsche sagen würde) jetzt schon seit geraumer Zeit, langsam verpufft das Interesse. Ich bräuchte mal ein neues System, aber ewig werde ich nicht warten und mit so einer billigen Multimediaplattform mit Dual Channel und etwa 4 PCI-E Lanes möchte ich mich nicht zufrieden geben.
Wie hypen die denn? Das Event war doch bisher die einzige echte Information zu den kommenden CPUs. Ich wüsste wirklich nicht wovon du dich hypen lassen hast. Selbst warte ich sehr gespannt auf diese Gen, aber selbst ich würde bisher quasi nicht angeheizt. Ich finde dass AMD sich sehr dezent verhält, genau so wie es ihnen nach bulldozer empfohlen wurde. Also mMn alles bestens.
Dein grundsätzliches Problem verstehe ich auch nicht. Wenn du wirklich schob genervt bist, Warum kaufst du dann nicht einfach ein aktuell verfügbaren System? Denkst du RyZen wird schneller als alles was Intel gerade bietet? MMn kannst du nicht viel falsch machen (außer moralisch). Lass dich nicht stressen. Um so früher du kaufst, desto eher kannst du doch wieder aufrüsten und dann gegebenenfalls noch immer auf AMD setzen. Also wenn da irgendwer irgendwen hyped, dann du dich selbst. Einfach einmal kurz durchatmen und entscheiden ob du jetzt Leistung willst, oder später und ob es dir das wert ist zu warten. Kann genau so gut sein, dass du noch ein viertel Jahr wartest und dann fast die gleiche p/l kaufen kannst wie jetzt.

Rollora,
Ich denke du vertust du dich. Bei so einer Diskussion wäre ich bestimmt anwesend gewesen. Die einzige Info zu 2016 war doch dass erste ES schon 2016 und eventuell auch einzelne CPUs verfügbar sein "könnten" und Marktstart 2017 sei. Etwas anderes wurde mMn nie von and bestätigt. Ich glaube dir sogar dass es solche Aussagen vereinzelt gegeben haben könnte, jedoch recht sicher auch in gleichen Zuge wie die Pessimisten gepostet haben dass es sicherlich erst Ende Sommer 2017 so weit sei und man dabei nicht mal an hasswell heran käme. Das Problem ist nur, dass wenn man selbst schon im Gefühl hat dass es eventuell zu so einer Diskussion kommen könnte, man direkt versucht gegenzurudern. Das bewirkt dann aber recht sicher stärkere Redaktionen und so provoziert man dann eine solche Situation erst recht. Im Kopf bleibt es dann als Extreme hängen und dass man es ja gesagt habe. Nicht aber Warum es so kam und ob es wirklich viele waren. Wie oben bereits erwähnt, selbst mir kam nie 2016 in den Sinn und ich habe schon oft von dem einen oder anderen einen Stempel bekommen.

Gesendet von meinem HTC 10 mit Tapatalk
 
Zuletzt bearbeitet:
Hmm aber erste ES 2016 heißt ja automatisch, dass der Launch 2016 kaum noch zu schaffen sind (außer: ES Jänner 2016). Erste ES haben immer knapp 1 Jahr Vorlaufszeit. Besonders bei neuer Architektur. Selbst Intel hat mit Ihren kaum veränderten Architekturen (etwa Sandy Bridge) mehr als 9 Monate Vorlaufszeit gehabt. Erste Tests von Anandtech, also ein voll funktionierendes ES samt halbwegs stabiler Treiber, gab es diesbezüglich schon 7 Monate vor Release
Auch das (ES 2016 heißt Release nicht vor Weihnachten, eher 2017´) habe ich stets gesagt und wurde von den anerkannteren CPU Experten hier stets bestätigt.
 
Ist ja soweit auch richtig. Da stimme ich dir zu. Deswegen weiß ich auch nicht wie manche User auf die Idee gekommen sein sollen tatsächlich CPUs im Einzelhandel für 2016 zu erwarten. Jeder der mindestens eine neue Gen eines Herstellers mitbekommen hat, weiß dass dies eine gewisse Wartezeit bedeutet.
 
Ist ja soweit auch richtig. Da stimme ich dir zu. Deswegen weiß ich auch nicht wie manche User auf die Idee gekommen sein sollen tatsächlich CPUs im Einzelhandel für 2016 zu erwarten. Jeder der mindestens eine neue Gen eines Herstellers mitbekommen hat, weiß dass dies eine gewisse Wartezeit bedeutet.
Na dann sind wir da ja einer Meinung :)
 
Zurück