AW: Polaris-Nachfolger Vega 10, Vega 11 & Vega 20: Angeblich drei GPUs bis 2019
scorplord,
dafür braucht man keine glaskugel, um zu erkennen das vega eine erneut verbesserte architektur ist, und das zwischen polaris und fiji kombiniert
Du meinst halt eigentlich eine kaum verbesserte Polaris Architektur mit HBM.
richtig.
nur das man von solchen fehler in der geschichte, ist sehr unwahrscheinlich sie zu wiederholen
Richtig: AMD ist dafür bekannt einen Fehler immer genau nur einmal zu machen
zeedy,
amd soll den anschluss der radeon verloren zu haben ?
da irrst du dich aber ganz gewaltig.
ich nehme mal an, das kommt davon, weil nv glücklicherweise mal mit den pascal gut vorgelegt hat was ?
aber keine sorge leute, amd wird bald auch vorlegen und dann werdet ihr trozdem...
Deine Beiträge sind aber schon immer mit viel Sarkasmus gewürzt, oder? Einen den ich nicht durchschaue, ansonsten kann ich mir nicht erklären wie du seit Jahren mit deinen Einschätzungen immer so daneben liegen kannst.
Wo irrt er denn, wenn er behauptet AMD habe den Anschluss verloren? Im Moment kommt AMD mit 2 Jahre alten Nvidia-GPUs noch nicht mit. Trotz neuem Prozess. Wenn Vega 2017 kommt sind die größeren Pascal Chips bald 3 Jahre alt, da muss man schon sehr viele Augen zudrücken wenn man behaupten will AMD habe den Anschluss nicht verloren. Nvidia hat ja nicht nur mit P sondern auch mit Maxwell vorgelegt und AMD bislang noch nicht zurückgeschlagen. Lediglich über den kleineren Prozess konnte man auf derselben Effizienzwelle schwimmen.
Polaris vs Pascal sind ja wieder 2 Schuhe, dort sieht man streng genommen kein Land. Nvidia hat mit der 1080 einen Chip, der ist knapp 50% größer aber fast 100% schneller. Das zeigt schon wie "gut" die komplette Überarbeitung von der GCN geworden ist.
Ergo: solange AMD bei GCN bleibt, sehen sie gegen Nvidia im Ernstfall wenig chancen - außer man opfert Chipfläche, Verlustleistung oder anderes. Mit HBM kannm an mithalten, weil es eben sowohl Chipfläche als auch Verlustleistung minimiert.
Von vorlegen, also überholen, kann keine Rede sein.
Multithread war der FX schon damals locker auf Augenhoehe wenn nicht sogar besser !
der Haken waren die scheiss Progger die es heute ja nicht mal immer hinbekommen mehr als 4 Kerne zu nutzen und das Intel Marketing das denn Leuten so ins Hirn geschXXXXXX hat das die heute noch meinen Single waer noch zu iregndwas wichtig .
Dann hatten viele schon Angst ihre Steinalten 1 und 2 Kern spiele wuerden am FX ruckeln.... einfach lachhaft was die CPU entwicklung der letzten 5 Jahre angeht .
Das zweite war das GloFo schon beim Phenom II nicht mehr mit der fertigung mithalten konte , das kann selbst heute (noch) keiner !
kein TSMC kein Samsung und schon sicher kein Glofo , also was wollt ihr denn alle mit dem FX !?!
Deine Sprachliche Ausdrucksweise sagt mir schon, dass du ein ziemlich gebildeter IT Insider bist. Deshalb gleich ein paar Fragen, vom Laien zum Profi:
Wie hast du dir das vorgestellt:
-das Marketing hat die unabhängigen Benchmarks verfälscht?
-die Programmierer haben mit absicht alle schlechte Arbeit geleistet, damit man die FX CPU nicht richtig ausnutzt?
-Schon mal von Amdahl gehört, oder, dass man gewisse Prozesse nicht beliebig parallelisieren kann und hohe Leistung pro Kern bei vielen Bereichen wichtiger ist als viele Kerne mit geringer Leistung?
Incredible Alk,
sorry aber, muss leider dir sagen das du total falsch liegst.
gut bis vor kurzem war das alles noch so gewessen, aber aber du scheinst komplett den zukunfstmusik der hardwarehersteller+softwareentwickler die pläne zu übersehen, das sowas im zukunft garantiert nicht nochmal pasieren wird.
will sagen, das man nur noch mit pläne der geschäftspartner, wie programmierer usw, seine architektur herstellt.
und das kann man zurzeit sehr gut beobachten wie die hersteller vorgehen!
Also Alki, der als einer der wenigen hier nicht nur Ahnung hat, sondern dies auch Argumentieren kann soll falsch liegen mit seiner Einschätzung?
Erklär uns also mal was AMD (bzw vorher ATI) jetzt PLÖTZLICH so viel besser macht als in den letzten 15+ Jahren?
Man hat eine neue API und unterstützt einige Hersteller. Man hat das Glück in beiden großen Konsolen "drin" zu sein (sonst wärs wohl sehr bitter, finanziell.... ich mein noch schlimmer als es schon ist. Dadurch hat man wohl einen etwas besseren Draht zu den Entwicklern. Wie es noch "besser" (aus Marktiwrtschaftlicher Sicht sowie der des Marketings) geht zeigt immer noch Nvidia
Einfach mal den Hypetrain im Bahnhof lassen. Für mich sagt die News nur, dass AMD wohl keine 2 vollen Chipgenerationen mehr pro Prozess bauen will, sondern nur noch Small Chip - Big Chip, wobei der kleine dann immer nur eine geringe Optimierung der alten Architektur ist.
Ich erwarte in Vega aber auch keine großen Optimierungen. Das wäre doch plötzlich überraschend, nachdem man für Polaris und der angeblich totalen Neuentwicklung des Frontend, diverser Einheiten usw doch wieder nur einen weiteren Aufguss von GCN samt geringster Verbesserungen gebracht hat und noch exakt genauso weit hinter Nvidia liegt wie zuvor.
Mal ein ganz anderer Gedanke: Wie würde sich heutzutage ein Fury mit 16 GB HBM2 schlagen? Sicherlich noch sehr gut. Daher verstehe ich nicht, wie manche Menschen auf die Idee kommen, Vega würde floppen oder zu spät erscheinen. In der Hardwarebranche gibt es kein zu spät. Hat Mister A bereits auf XY aufgerüstet kommt halt ein halbes Jahr später Herr B und kauft(weils neuer ist) Karte XYZ. so wars schon immer. Niemals rüsten alle zugleich auf. Ergo wird auch ein "verspätetes" Produkt sein Abnehmer finden. Oder es sind Typen wie wir, die alle 11/2-2 Jahre eh ne neue Graka kaufen und dann wäre Vega ja wieder voll dabei
Natürlich gibt es ein "zu spät", nämlich wenn du ein Jahr später erst ein Konkurrenzprodukt bringst, dann hat man halt schon hunderte Millionen an Umsatz der Konkurrenz geschenkt. Nvidia verdient sich dumm und dämlich mit Karten die jenseits von 350€ kosten.
Ebenso leidet das Prestige, wenn es genau einen Hersteller gibt den man kaufen will, wenn man viel Performance will. Dasselbe passiert ja bei Intel vs AMD.
Keine Nachladeruckler mehr, geringes Leistungsplus durch größere Bandbreite und geringes Leistungsplus durch etwas höheres PowerTarget für die GPU. Grob geschätzt also eine FuryX mit besseren Frametimes und 10-20% mehr fps. Anders gesagt: Etwa wie eine GTX1070 heute (nur mit mehr Verbrauch).
Was aber in der Tat nicht besonders aufregend wäre, für den betriebenen Aufwand.
Deshalb die Frage, was man von FuryX "neu" in 14nm Erwarten kann.
Da muss man schon extrem die Augen rollen.
Bulldozer was ein schwaches Architekturdesign und am Markt vorbei entwickelt, so einfach ist es.
Das ist für manche leider nicht offensichtlich.
Schließlich kamen nach den ersten Benchmarks die Leute daher und haben gemeint "das liegt daran, dass Bulldozer von Grund auf für Server entwickelt wurde". Und wenn man dann einen Vergleichstest der Server-CPUs angesehen hat, war die Lage genauso hoffnungslos.
Ja "Bulli" hatte seine Schwächen, ich hoffe auf ZEN.
dass sich moderatoren auf offtopic diskussionen einlassen, oje.
Relativ egal, da es sich heirbei (der News) offensichtlich um eine wilde Tagträumerei handelt und nicht weiter kommentiert werden muss.
Wenn heute schon Gerüchte über den 7nm Prozess, der erst in 3 Jahren spruchreif ist (für große Chips), dann muss man dem keine Beachtung schenken.
Es reicht die bekannten Daten hochzurechnen und man weiß ungefähr wo Vega rauskommen könnte.
schonmal überlegt das keine weiteren Kapazitäten verfügbar sind ? Als nächstes steht ja auch die PS4 pro an, da müssen auch einige Chips gefertig werden.
Back to topic, ich bin gespannt was uns da erwartet. Aber auf Gerüchte gebe ich nichts mehr.
Naja das wäre aber schwach, wenn man aufgrund mangelnder Kapazitäten nix neues rausbringt und gleichzeitig ein neues Waferabkommen abschließt, dass die Kapazitäten nach unten schraubt...
Laut Golem ist das vierte Quartal 2016 dafür geplant (Q3 --> 4-Hi , Q4 --> 8-Hi):
High Bandwidth Memory: SK Hynix produziert 4-GByte-Stapel ab dem dritten Quartal - Golem.de
Selbst bei einer Verschiebung sollte es ausreichend Zeit geben für Vega10-Produkte, die garantiert nicht ab dem ersten Januar verfügbar sein werden.
Sowie vermutlich keine allzugroßen Stückzahlen haben, wenn die Performance (und somit der Preis) hoch sein sollte.
Das ist ja das Kuriose: AMD wird von ihren eigenen Fans zugrundegerichtet.
Was viele nicht verstehen wollen: Alles ist teurer geworden, seien es Rostoffe, Entwicklungskosten, Fertigungsverfahren (je kleiner einer Struktur um so präziser muss gearbeitet werden ... Präzision kostet aber Geld) ... Aber sie wollen ihre Grafikkarten immer noch auf einem Preisniveau, als man die Dinger noch mit Hammer und Meißel zusammengekloppt hat.
Da reden wir von 5-10€ bei der gesamten Grafikkarte, während die User hier eine Preisexplosion von 50% -70% im Mainstream und Performancesegment beobachten, vom Highend sowie Enthusiastenmarkt ganz zu schweigen.
Das einzige was in Zukunft wirklich rapide steigern wird (und auch schon gestiegen ist), sind die Chipkosten pro mm². Aber die Chipkosten sind im Moment auch noch nicht allzu hoch, wenn man sich die Gesamtpreise der Grafikkarten ansieht.
Oder man schaut mal über den Tellerrand, um zu verstehen das es exakt eine Generation ist, der Amd hinterher hinkt. Fermi, Kepler, Maxwell, hatten / haben alle samt passende Gegenspieler. Das hat mit riesen Vorsprung und schön reden nichts zu tun. Damit das der Fall wäre, dürfte es nur die aktuelle Generation käuflich zu erwerben geben, alle Spieler dürften keine GPU besitzen und müssten sich jetzt für eine Karte, aus der aktuellen Generation entscheiden. Ist aber nicht der Fall.
Ist halt die Frage (siehe Tellerrand), was man als "Gegenspieler" bezeichnet.
Rein technisch gab es zu Maxwell keinen wirklichen: Nvidia hatte entweder bei gleicher Performance wesentlich kleinere Chips zu fertigen und/oder wesentilich geringere Leistungsaufnahme.
Bezieht man sich rein auf des Preis/Leistungsverhältnis musste AMD viel größere oder komplexere Chips (auch teils. Speicherinterface/Bestückung) liefern, um mit NV mithalten zu können.
Ein "Gegenstück" sieht für mich rein technisch anders aus, als dass man viel mehr Ressourcen investiert um gleichauf zus ein. Das ist wie AMDs Centurion. Der konnte auch mit den i5 teilweise mithalten dank 220W und fast 5 Ghz, ist er somit auch ein Gegenstück?
Wenn man nur auf den Preis sieht vielleicht. Oder nur auf die Performance. Aber es ist außer Frage, dass jedesmal wenn AMD gleich zieht, Nvidia leichtens eins "oben drauf" legen kann. Und somit werden die beiden Hersteller eben nicht überall "ein Gegenstück" haben, Nvidia ist eben grade überlegen, vorne, voraus... wie man es dreht und wendet, Nvidia hat technisch einen Vorsprung und AMD den Anschluss verloren.
Ich wiederhole "technisch", weil es letztlich für den Kunden teils egal sein kann: Kaufe ich um 250€ ein, bekomme ich eine ähnliche Performance von beiden.