Radeon RX Vega: AMD vergleicht sich mit einer Geforce GTX 1080

Gut, ich war hier natürlich unrealistisch.
Es wäre eine Steigerung (der Leistung pro Takt) um 30% nach all den Jahren des Stillstands für mich einfach enttäuschend.

Und@Tonga: ich habe hier eigentlich gemeint, dass Tonga völlig verfehlt hat was viele sich davon erhofft haben.
30% wären gar nicht so schlecht, wenn Vega 1600 Mhz halten würde und skalieren.
Dann wäre man auf 1080 Ti Level:
Grafikkarten-Rangliste: GPU-Vergleich - ComputerBase

Tonga war ein schwaches Produkt garniert mit AMDs schlechtem Produktmanagement, vor allem als Nvidia Maxwell auf den Markt brachte, konnte man nur noch Mitleid empfinden.
 
Ich würde dir ein "Gefällt mir" verpassen, wenn es den funktionieren würde. Sicher hast du recht, aber es wirkt auf die meisten eben befremdlich wenn man 100% dem glaubt was in der Werbung versprochen wird. Dann wird man eben schnell als Fanboy abgestempelt. Toppen kann man das ganze nur noch, wenn man den Werbespruch als Nickname nimmt. :D
Aber auf Seiten der Grünen Fraktion gibt es auch solche Kombis .. "FYN" als Namen, aber dann eine GTX1080Ti kaufen ... rüttelt schon etwas an der Glaubwürdigkeit.

Daher mag ich meine Position am liebesten ... Einfach gar keinen Werbeversprechen glauben, sondern nach erbrachter Leistung einkaufen. Wenn ich eine neue Karte brauche, dann wird die gekauft die am besten meinen Parametern entspricht. Leise, Leistungsstark genug um alle Spiel in der von mir aktuell bevorzugten Auflösung zu stemmen und noch Reserven für die nächsten 1-2 Jahre haben.

2016 ist daher das Geld an NVidia gegangen, weil AMD nichts entsprechendes auf dem Markt hatte ... 2018/2019 wird sich zeigen wie es dann aussieht. Jeder bekommt eine faire Chance mich zu überzeugen und die stärkere Karte macht das Rennen.

Glauben tue ich keiner Firma, aber ich messe sie einfach mal an ihren eigenen Versprechen.

Momentan würde ich realistisch bei VEGA sagen, dass die Leistung für die Größe des Chips und auch im Vergleich zu Polaris und Fiji verdächtig gering ist. Da sollte noch etwas kommen, aber ob es für GP102 reicht ist dann doch fraglich.
 
"Portland und Amerika" wär aber genauso lustig :D

Naja, ist aber auch egal. Interessantes erwarte ich so oder so nicht von der Marketing Tour.
 
Fury: Angeblich ist man wieder bei der Leistungsspitze dabei (war man nicht wirklich), und "overclocking like there is no tomorrow" (am Anfang konnte man HBM ja GAR NICHT übertakten)
Polaris: "Effizienzwunder", "designed for Fin FET" usw usf blablabla Polaris war die größte Lüge von allen. Man erreichte mit nagelneuem Chip und Prozess endlich die 2 Jahre alte, im 5 Jahre alten Prozess gefertigte 970.

...

Hm, diese damaligen Aussagen im Hinterkopf und *mal gesponnen formuliert* der Gedanke daran, dass das nicht unbedingt gehalten wurde, was an Versprechen geäußert wurde, könnte man ja davon ausgehen, dass es jetzt ganz anders wird. Also gegenteilig dessen. Warum? Weil AMD gar nichts sagt. Zumindest nichts, was positiv oder negativ auszulegen wäre. Man kommentiert nicht einmal die Leistung der FE, abgesehen von der richtigen Aussage, dass sie nicht für Gaming explizit konzipiert ist. Ansonsten hört man gar nichts.

Meine Vermutung ist, dass AMD sich nicht mehr in die Karten gucken lässt. Nicht weil sie Angst vor NVidia haben, sondern weil sie mehr wissen als wir. Und ich gehe keineswegs davon aus, dass AMD etwas Negatives verbirgt.
 
Das sagt niemand, ich persönlich gehe aber davon aus.

16GB wären nun mal ein Kaufargument, von denen AMD ja scheinbar im Augenblick viel zu wenige hat.
Die Gaming Vega wird anfangs mit 8 GB kommen
Das wäre für mich eher kein Kaufargument. Da 16Gb HBM2 alles andere als günstig sind.
Vegas Preis wird sich an der Leistung orientieren, nicht an den Herstellungskosten.
Wenn AMD mit enormen Materialkosten die Leistung der Konkurrenz erreicht ist das deren Pech. Letztlich werden sie nicht mehr oder weniger verlangen. Wenn sie nur 1080er Leistung erreichen, werden sie das verlangen. Sie können nicht mehr verlangen, nur weil sie 16 GB haben aber die Leistung nicht stimmt.
16GB wären aber ein gutes Argument, wenn die Leistung der der 1080Ti entspricht (oder höher), aber man halt "Zukunftsorientiert" kaufen möchte.
Wie gesagt, 16 GB für Consumer-Karten sind aber noch nicht zu erwarten, erst wenn diese in größeren Mengen vorhanden sind.
30% wären gar nicht so schlecht, wenn Vega 1600 Mhz halten würde und skalieren.
Dann wäre man auf 1080 Ti Level:
Grafikkarten-Rangliste: GPU-Vergleich - ComputerBase

Ich meinte bezogen auf den Transistor/Flächenaufwand. Natürlich wären 30% mehr "IPC" schon "brauchbar" für AMD. Besser wären noch mehr.
Ich hoffe das halt. 5 Jahre entwicklung, 50% mehr Chipfläche im Vergleich zu den dir genannten imaginären Shrink der Fiji , neuer Prozess, neue Architektur usw usf...

Lass mich halt träumen ;)

Edit: außerdem ist hier die "Watercooled" Edition 30% hinter der 1080 ti (standard).
The AMD Radeon Vega Frontier Edition 16GB Liquid-Cooled Review | Dirt Rally
Ich hoffe also, dass es mehr werden als 30% ;)
Hm, diese damaligen Aussagen im Hinterkopf und *mal gesponnen formuliert* der Gedanke daran, dass das nicht unbedingt gehalten wurde, was an Versprechen geäußert wurde, könnte man ja davon ausgehen, dass es jetzt ganz anders wird. Also gegenteilig dessen. Warum? Weil AMD gar nichts sagt. Zumindest nichts, was positiv oder negativ auszulegen wäre. Man kommentiert nicht einmal die Leistung der FE, abgesehen von der richtigen Aussage, dass sie nicht für Gaming explizit konzipiert ist. Ansonsten hört man gar nichts.

Meine Vermutung ist, dass AMD sich nicht mehr in die Karten gucken lässt. Nicht weil sie Angst vor NVidia haben, sondern weil sie mehr wissen als wir. Und ich gehe keineswegs davon aus, dass AMD etwas Negatives verbirgt.

Das ist - seit Jänner - auch meine Hoffnung.
Letztendlich nährt diese Hoffnung
1) dass man seit 2011 an GCN kaum was geändert hat und kaum Ingenieursarbeit investiert wurde - AMD aber viele Fähige Leute hat: was haben die die ganze Zeit getan?
2) dass es beim Ryzen-Launch ähnlich ablief (tiefgestapelt bis kurz vor Release)
 
Zuletzt bearbeitet:
Die Gaming Vega wird anfangs mit 8 GB kommen

Vegas Preis wird sich an der Leistung orientieren, nicht an den Herstellungskosten.
Wenn AMD mit enormen Materialkosten die Leistung der Konkurrenz erreicht ist das deren Pech. Letztlich werden sie nicht mehr oder weniger verlangen. Wenn sie nur 1080er Leistung erreichen, werden sie das verlangen. Sie können nicht mehr verlangen, nur weil sie 16 GB haben aber die Leistung nicht stimmt.
16GB wären aber ein gutes Argument, wenn die Leistung der der 1080Ti entspricht (oder höher), aber man halt "Zukunftsorientiert" kaufen möchte.
Wie gesagt, 16 GB für Consumer-Karten sind aber noch nicht zu erwarten, erst wenn diese in größeren Mengen vorhanden sind.

Wäre Schade wenn wirklich nur eine 8GB Variante kommt.
Die Nische hat nun Nvidia mit der Titan Xp und TI ein wenig gefüllt..., allerdings ist meiner Meinung nach ab der Leistung der 1080 16GB Vram gerechtfertigt.

1) Es gibt ja Games die 8GB Vram bereits überfordern z.B. Rise of the Tomb Raider
2) Zukunftssicherer wären 16GB auch wie du schon sagst.
3) Für jeden Multi GPU Fan wären 16GB wirklich klasse!
4) Miner oder Leute die einfach ihre Rechenleistung bei Multi Computing spenden, können auch 16GB gebrauchen.

Also ich finde das die Käuferschicht schon gegeben ist, die Rechenleistung einer 1080 ist dafür grundsätzlich auch nicht zu wenig, sondern genügt.
 
[...]
Ich meinte bezogen auf den Transistor/Flächenaufwand. Natürlich wären 30% mehr "IPC" schon "brauchbar" für AMD. Besser wären noch mehr.
Ich hoffe das halt. 5 Jahre entwicklung, 50% mehr Chipfläche im Vergleich zu den dir genannten imaginären Shrink der Fiji , neuer Prozess, neue Architektur usw usf...

Lass mich halt träumen ;)

Edit: außerdem ist hier die "Watercooled" Edition 30% hinter der 1080 ti (standard).
The AMD Radeon Vega Frontier Edition 16GB Liquid-Cooled Review | Dirt Rally
Ich hoffe also, dass es mehr werden als 30% ;)

Das ist - seit Jänner - auch meine Hoffnung.
Letztendlich nährt diese Hoffnung
1) dass man seit 2011 an GCN kaum was geändert hat und kaum Ingenieursarbeit investiert wurde - AMD aber viele Fähige Leute hat: was haben die die ganze Zeit getan?
2) dass es beim Ryzen-Launch ähnlich ablief (tiefgestapelt bis kurz vor Release)
Die neuen Features gibt es halt auch nicht umsonst und Gen 5 legt kräftig zu.
Double-Rate FP16, Quadrate Int8, Conservative Rasterization, programmierbares Blending, die neue Geometry-Pipeline, der größere Adressraum und was AMD noch alles hinzugefügt hat.

Aktuell performt Vega aber miserabel und die Taktraten fallen im Schnitt mies aus, obwohl Gen 5 viel höhere erreichen kann.

Die letzten Jahre sah es bei AMD für beide Sparten leider so aus:
1amd_nvidia.png
 
Die neuen Features gibt es halt auch nicht umsonst und Gen 5 legt kräftig zu.
Double-Rate FP16, Quadrate Int8, Conservative Rasterization, programmierbares Blending, die neue Geometry-Pipeline, der größere Adressraum und was AMD noch alles hinzugefügt hat.
Dass man Features nicht ohne weitere Transistoren hinzufügen kann ist natürlich klar.
Die Frage ist, ob man nicht eh schon zu viel Ballast mitschleppt. Wie bereits festgestellt braucht man bei AMD bei ähnlichen Features wie Nvidia ja mehr Transistoren/Verbrauch/Chipfläche um auf ähnliche Leistung zu kommen, da muss man ja irgendwo auch mal "entschlacken" können und nicht einfach immer nur "dranbauen"... zumindest in der Theorie. Aber dazu braucht es natürlich ein dementsprechendes Budget und humane Resourcen.

Die letzten Jahre sah es bei AMD für beide Sparten leider so aus:
Anhang anzeigen 962539
Das ist in der Tat schockierend, ich nehme an, das meint CPU und GPU Sparte gemeinsam, dass man Jahrelang (GPU only) so über Nvidias Budget lag und so gut wie nichts erreicht hat, wäre bedenklich. Sind dies die offiziellen Zahlen aus den Finanzberichten?
 
Zuletzt bearbeitet:
Die andere Grafik finde ich viel spannender...*** AMD R&D spending falls to near-10-year low - The Tech Report[/url]
 
Es ist wohl so, wer das Geld hat, wird auch investieren. Wenn Ryzen einen Erfolg darstellt (wovon ich ausgehe. Nicht 50% Marktanteil, aber wesentlich höhere Verkäufe und Margen als noch Bulldozer und Co.) dann wird man wohl auch etwas mehr Geld haben zum Ausgeben. Leider wird sich das wiederum erst in einigen Jahren in Form eines Produktes zeigen.
 
  • Like
Reaktionen: hfb
Ja, das ist das ärgerliche. Viele bedenken das aber nicht. Das wird man wahrscheinlich wieder gut beim release von Zen+ sehen können, wenn irgendwelche User meinen, dass man nach RyZen ja Geld hatte und wo der Fortschritt denn bleibt.
 
Ja, das ist das ärgerliche. Viele bedenken das aber nicht. Das wird man wahrscheinlich wieder gut beim release von Zen+ sehen können, wenn irgendwelche User meinen, dass man nach RyZen ja Geld hatte und wo der Fortschritt denn bleibt.
Ja, das sind so Leute die in Fantasiewelten leben, die glauben, dass wenn man heute Geld bekommt man auch schon heute ein besseres Produkt draus macht und keine Ahnung davon haben, wieviel vom "verdienten" Geld eigentlich wieder wegfällt, wie wenig davon gleich in die Forschung kommt und wie lange es dauert vom "Geld ankommen" (dazu müsste man wohl auch umstrukturieren bis dieses ordentlich genutzt werden kann) bis zum fertig entwickelten Chip (Chipentwicklung dauert ja gerne mal 5+ Jahre, selbst wenn es nur eine Weiterentwicklung einer bestehenden Architektur ist, siehe Vega).
Locuza hat dies ja auch mal erwähnt, dass es wahrscheinlich wäre, dass GCN wesentlich "besser" geworden wäre, wenn man 2006 nicht von AMD übernommen worden wäre (und somit überall Geld gefehlt hat).
 
Zen+ wird, zumindest für uns, einen großen Schritt machen. Aber für den otto normal verbraucher wird es nach nichts aussehen,

Kleine anpassungen an der Architektur sinds eben auch schon eine heiden Arbeit. Aber das verstehen viele nicht.

@Rollora Ja durchaus können die das eigentlich nicht deutlich Teurer Verkaufen. Der eher logische Schritt wäre dan das eine Vega RX mit 16 GB HBM2 einfach nicht erscheint solange der Speicher noch so teuer ist.
 
Zuletzt bearbeitet:
Dass man Features nicht ohne weitere Transistoren hinzufügen kann ist natürlich klar.
Die Frage ist, ob man nicht eh schon zu viel Ballast mitschleppt. Wie bereits festgestellt braucht man bei AMD bei ähnlichen Features wie Nvidia ja mehr Transistoren/Verbrauch/Chipfläche um auf ähnliche Leistung zu kommen, da muss man ja irgendwo auch mal "entschlacken" können und nicht einfach immer nur "dranbauen"... zumindest in der Theorie. Aber dazu braucht es natürlich ein dementsprechendes Budget und humane Resourcen.

------------

Das ist in der Tat schockierend, ich nehme an, das meint CPU und GPU Sparte gemeinsam, dass man Jahrelang (GPU only) so über Nvidias Budget lag und so gut wie nichts erreicht hat, wäre bedenklich. Sind dies die offiziellen Zahlen aus den Finanzberichten?
Also in meinen Augen kam kein unnützer Ballast dazu.
Bei den neuen Rendering-Features kommt AMD sowieso als letzter an, auch wenn man gegenüber Pascal mehr bietet.
Ohne wäre es doof.
Und double-rate FP16 ist relativ günstig umzusetzen, auch für Spiele nützlich, aber vor allem für Machine-Learning.
FP64 wird nur mit einer Rate von 1/16 unterstützt.

Ich denke nicht das AMDs GCN insgesamt entschlackt werden muss.
Eher fehlt es AMD an Ressourcen um wirklich Schritt für Schritt mithalten zu können und die Alternative wären nur andere Kompromisse.
So oder so hinkt man der Konkurrenz hinterher.

------------

Die R&D-Ausgaben gelten für das gesamte Unternehmen und die Daten sollten aus den Finanzberichten kommen.
Die letzten Jahre ging es nur bergab und ein großer Anteil davon wurde in Zen investiert, was aus meiner Sicht auch die bessere Entscheidung war.
CPUs werfen in der Regeln eine höhere Marge ab und AMD hatte schon seit 5 Jahren praktisch nichts verwertbares, mit GCN kann immerhin etwas anfangen, soweit hinten wie bei den CPUs ist man (noch?) nicht.

[...]
Locuza hat dies ja auch mal erwähnt, dass es wahrscheinlich wäre, dass GCN wesentlich "besser" geworden wäre, wenn man 2006 nicht von AMD übernommen worden wäre (und somit überall Geld gefehlt hat).
Das habe ich so nicht direkt erwähnt. :D

Ich habe mal erwähnt, dass ich denke das AMD und ATI ihre Probleme einzeln besser auf die Reihe bekommen hätten, als mit der Fusion und dem Schuldenberg zurecht zu kommen.
Wobei GCN wie ein gutes Projekt aussieht, die Mikroarchitektur was abseits vom schwachen Geometry-Frontend definitiv besser, als was Nvidia bis Maxwell angeboten hat.
Rein von der Hardware hätte ich sogar Zweifel, dass ATI alleine eine fundamental bessere Mikroarchitektur hinbekommen hätte, eher eine die ähnlich gewesen wäre, mit etwas mehr Feintuning und möglicherweise viel besserem Software-Support.
 
Zen+ wird, zumindest für uns, einen großen Schritt machen. Aber für den otto normal verbraucher wird es nach nichts aussehen,

Kleine anpassungen an der Architektur sinds eben auch schon eine heiden Arbeit. Aber das verstehen viele nicht.

@Rollora Ja durchaus können die das eigentlich nicht deutlich Teurer Verkaufen. Der eher logische Schritt wäre dan das eine Vega RX mit 16 GB HBM2 einfach nicht erscheint solange der Speicher noch so teuer ist.
Wieso sollten sie so blöd sein und bei Zen+ nicht nebenbei die Preisschraube gegenüber Intel noch stärker anziehen? Dann ist es auch für den Otto-Normalverbraucher ein bedeutender Unterschied.
Ja, das sind so Leute die in Fantasiewelten leben, die glauben, dass wenn man heute Geld bekommt man auch schon heute ein besseres Produkt draus macht und keine Ahnung davon haben, wieviel vom "verdienten" Geld eigentlich wieder wegfällt, wie wenig davon gleich in die Forschung kommt und wie lange es dauert vom "Geld ankommen" (dazu müsste man wohl auch umstrukturieren bis dieses ordentlich genutzt werden kann) bis zum fertig entwickelten Chip (Chipentwicklung dauert ja gerne mal 5+ Jahre, selbst wenn es nur eine Weiterentwicklung einer bestehenden Architektur ist, siehe Vega).
Locuza hat dies ja auch mal erwähnt, dass es wahrscheinlich wäre, dass GCN wesentlich "besser" geworden wäre, wenn man 2006 nicht von AMD übernommen worden wäre (und somit überall Geld gefehlt hat).
Man kann allerdings mit einem höheren Budget einigen Fallstricken direkt ausweichen und zum Beispiel Produkte direkt von Anfang an sinnig bepreisen bzw. in sinnigen Duells aufstellen. (siehe Fiji, hätte AMD die Nano zuerst released und direkt gegen die 980 gestellt, dann wären sie von der Presse dafür zurecht mit Jubel überhäuft worden) Man kann sich Schwachsinn wie Centurion schenken, man kann ein paar Prestigeprojekte (für den Mobile-Markt wichtig!) nicht nur präsentieren, sondern auch realisieren und so weiter...

BTW: Größter Fehler von Ruiz für AMD: Das Abschlagen des Angebots von Huang, AMD und Nvidia unter der Führung von Huang zu fusionieren. Dann sähe heute natürlich alles anders aus, wahrscheinlich hätte die resultierende Dominanz von AMD-Nvidia dafür gesorgt, dass irgendwann die Aufsichtsbehörden einer Gegenfusion von Intel-ATI zugestimmt hätten, damit Intel konkurrenzfähig hätte bleiben können...
...immerhin hat Nvidia damals jahrelang im stillen Kämmerlein gearbeitet und nur Refreshes präsentiert, weil sie es sich eben leisten konnten...
...selbst wenn die RX Vega völlig positiv überraschen sollte und RavenRidge die Über-APU wird, die Intels Angeboten im Mobile-Sektor vollkommen übertrumpft, wird es Ewigkeiten dauern, bis AMD auf wirklich überzeugende Marktanteile kommen wird.
 
Zuletzt bearbeitet:
Wieso sollten sie so blöd sein und bei Zen+ nicht nebenbei die Preisschraube gegenüber Intel noch stärker anziehen? Dann ist es auch für den Otto-Normalverbraucher ein bedeutender Unterschied.

Weil AMD auf lange sicht bei einem preiskrieg den kürzeren Ziehen würde.

AMD braucht erstmal gelder für Forschung. Und Intel Kann es sich durchaus leisten ihre CPUs ne weile mit Verlusten zu Verkaufen.

Die Preisschraube müsste AMD eh nur nutzen, wenn Intel jetzt deutlich günstiger wird. Aber jetzt einfach mal so wäre ein großer fehler.
 
Zurück