Radeon RX 480 (8 GiByte) im Test: Preisbrecher mit 14-nm-Technik

Ist möglich, selbst heute noch, wenn auch nicht sehr wahrscheinlich. Aber es kann gut sein, dass ein schlauer Kopf bei AMD irgendwann mal was sieht, was alle anderen vorher nicht gesehen haben,
Das kann natürlich sein. Aber wie du selbst schreibst ist es unwahrscheinlich.
Wenn ich darf, führe ich nun kurz aus warum:
Eine GPU Architektur ist leider kein "einfaches" Ding. Es handelt sich dabei offensichtlich um etwas sehr komplexes, um viele Teile die perfekt ineinander greifen müssen und in jedem einzelnen stecken bereits Jahrelange Entwicklungs und Optimierungsarbeit drin. Gerade weil GCN schon durch so viele dieser "Überarbeitungen" lief ist ein plötzlicher Effizienzssprung nur mit einer totalüberarbeitung zu erwarten. Diese kam nun mit Polaris. Aber der Effizienzssprung blieb aus.
Nichtsdestotrotz ist es natürlich möglich, dass ein neues Architektenteam, also ein neues paar Augen etwas findet, das plötzlich mehr Leistung bringt. Aber, dass das in Polaris NICHT drin ist, in Vega schon ist deshalb unwahrscheinlich, weil eine Architektur eben nicht innerhalb von ein paar Monaten entwickelt wird, sondern man an Polaris seit JAHREN arbeitet.
Und sollte das Team hinter Vega etwas gefunden haben an der Architektur, was plötzlich diverse Bremsen löst, wäre das dann auch so schon in Polaris gelandet. Nicht 100% aber höchstwahrscheinlich, schließlich wird man in Vega eben nichts entscheidend anders machen.
Gehen wir nochmal zum Komplexitätsansatz zurück: Wir haben eine riesige, Milliarden Transistoren und tausende Hardwareeinheiten schwere Architektur. Wenn jetzt jemand EIN Ding findet, das sehr ineffizient läuft, dann ist das halt eben nur EINE Kleinigkeit. Sollten das die Shader sein - Juhuuu! aber alles andere hat so gut wie keine Auswirkungen auf die Effizienz mehr bei den heutigen, hochoptimierten Chips.
Wie gesagt: außer man macht eine völlig neue Architektur oder überarbeitet die bestehende völlig, passt sie an den aktuellen Prozess an: so ist das bei Maxwell passiert: bei Kepler alle Flaschenhälse entfernt und die Architektur an den nun sehr gut bekannten (wenn man bereits 3 Jahre damit arbeitet kennt man einen Prozess und dessen Stärken und Schwächen sehr gut) angepasst. Also die Hardwareeinheiten so verändert, dass sie bei geringem Takt etwas weniger Leisten aber dafür wesentlich höher takten usw usf.


und die Effizienz ein paar Prozent nach oben schraubt.
Das wird auch durchaus so sein: HBM bringt da viel, das kleinere Speicherinterface auch. Das hat aber auch Nvidia. Was bei AMD noch kommen kann ist der relativ unbekannte Herstellungsprozess und das Verfahren bei GloFo welches noch optimiert wird, während Nvidia durch die 20 Jährige Zusammenarbeit mit TSMC wesentlich früher das volle Potential von 16nm abrufen kann.
AMD hat also die kommenden JAHRE mehr Potential nach oben. In einigen wenigen MONATEN die bis Vega vergehen bleibt die Möglichkeit nur, dass durch größere Chipfläche bei geringeren Taktraten und Voltraten mehr Effizienz rauskommt. Ähnlich wie bei Fury vs Nano. Letztere ist nicht wirklich langsamer aber deutlich effizienter, weil der Chip halt nicht bis ganz ans Limit gebracht wird.
Ich meine also mit meinen obigen Beitrag natürlich nicht, dass sich GAR NICHTS tun wird, aber halt nicht unvorhergeshen viel.
Leider habe ich das Gefühl, dass Nvidia für solche Fälle mindestens 10 Asse im Ärmel hat. Aber vielleicht auch nicht.
Man hat halt mehr Geld. Man kann neben den Entwicklungen die wir sehen, an anderen Dingen arbeiten bis man sie einsetzen MUSS (Intel macht dies ja ähnlich). Eine weitere Nette Sache an Geld: Man holt sich die BESTEN Ingenieure, nicht die zweitbesten. Man kann auch MEHR holen. Die haben dann eben, wie du oben gemeint hast ein "zweites Auge" auf die Sachen und sehen eben früher etwas, wo man mehr Performance rausholt. Man hat mehr Geld in der "Prozessforschung" (damit ist gemeint, dass man mehr Ressourcen für die Integration hat bzw. mehr Ressourcen einen Prozess "kennenzulernen", nicht tatsächlich einen Prozess erforscht. Man hat mehr Geld für Treiberentwicklung oder Softwareentwicklung (also den Entwicklern Codeschnipsel hinwerfen die schon gut auf die Architektur hin optimiert sind) usw usf. Das alles wirkt sich dann in vielen Bereichen ein klein wenig aus. Deshalb kommt man auf ein runderes Produkt (weniger Treiber-Overhead etc.) oder Zusatzfeatures (PhysX). Die man aber nicht unbedingt braucht, wenn man einfach nur spielen will. Ich hab eine ausreichend flotte CPU, Treiber-Overhead ist mir also meist egal und PhysX brauche ich nicht (eine gute Herstellerübergreifende Physik wäre aber mal fein. Leider ist aus Bullet nix geworden).

Was wissen wir schon? Unter normalen Umständen ist es auch nicht sehr wahrscheinlich, dass AMD mit einem Bruchteil des Budgets von Nvidia plötzlich den P/L-Sieger vorstellt und die 970 in Grund und Boden stampft (die bis vor ein paar Wochen oder sogar jetzt noch die meistverkaufte Graka war/ist?), aber genau das ist heute passiert, weil Nvidia eine Lücke offen gelassen hat. Wer weiß welche Lücken Vega füllen wird..
Dadurch, dass man jetzt lange posaunt hat, dass alle Ressourcen in Polaris investiert wurden hätte ich das von der 480 erhofft. Aber es kommt ja noch was.

Leider sind zwischen der Idee eines guten Chiparchitekten und dem fertigen Produkt eben hunderte Schritte nötig, und an jedem einzelnen ist ein geringeres Budget natürlich ein Nachteil. Deshalb haben wir NOCH nicht das volle Potential von Polaris gesehen und du hast schon recht es kann noch ein bisschen was kommen.
Aber erwarte halt keine Wunder, man kann es sich bislang Pi mal Daumen ausrechnen.
Eventuell ist Navi eine weitere, starke überarbeitung und Anpassung an den 14nm Prozess und endlich der ersehnte Geforce-Killer den AMD immer mal wieder vorgestellt hat. Polaris ist es halt jetzt nicht.
Die 480 kämpft halt mit der 970. Würde man diese einfach im 16nm Prozess auflegen würde eine wesentlich effizientere und schnellere Karte als die 480 rauskommen. Das meine ich mit: man ist noch nicht an Nvidia dran.

Aha, du willst also unterstellen das die zig schlauen Leute welche bei AMD ganze Architekturen neu entwickeln zu dumm sind um zu erkennen das ein breiteres Frontend/Backend hier der Problemlöser ist.
Vielleicht sollten sie dich einstellen damit sie auf diese einfache Problemlösung hingewiesen werden.
Das Lesen ist wohl nicht deine Stärke gell ;)

Ich schrieb ja auch extra von den BEKANNTEN Flaschenhälsen. Ein bisschen Mitdenken würde nicht schaden :schief:

Wenn du dir die Entwicklungsgeschichte der Fury ansiehst (es gab dazu hier mal ein Interview verlinkt) wurde Fury doch in recht kurzer Zeit entwickelt und man hatte wohl nicht mehr die Zeit diesen Teil der Architektur entscheidend zu ändern (hätte das Projekt wieder sicher 9-12 Monate nach hinten verschoben und eben auch dazu geführt, dass Frontend/Backend für Polaris überarbeitet wurden). Bei AMD hat man also gewusst was man tut, man konnte es nur nicht kurzfristig ändern.
 
Zuletzt bearbeitet von einem Moderator:
hör bitte auf it diesem blöden "gell" ich schmeiße mich gleich aus dem Fenster das ist ja nervtötend
Das nervt, gell? ;)

Besser als sich hier zu streiten und Romane zu schreiben
biggrin1.gif

Danke auch Jobsti.

Ich versuche zu diskutieren, nicht zu streiten.
Beim Diskutieren möchte ich von anderen Lernen oder zumindest deren Standpunkt verstehen und meinen selbst klarer darstellen, falls er unklar ist
 
Ich verstehe nicht wirklich warum du dir das antust. Als Einsteins Erbe hast du das doch gar nicht nötig.
Denke nicht das viele diese Romane lesen, ich hab ehrlich gesagt kein Bock drauf und will meine 2 Gehirnzellen nicht anstrengen^^
 
Achtung.... ich trolle jetzt:





Fertig.
So, back to Topic, Diskussionen die keinen jucken per PM fortführen. (Vor allem Sticheleien, gelllll.....)
 
Ah geh, das passt scho.

Irgendwie bin ich enttäuscht von der 480.
Nicht mal durchgängig 970 Niveau und 160W Verbrauch.
980 Niveau und 110W, das wär was gewesen, aber so.

Laut CB 5-10% über der 970 (@ 1080P & 1440P)und auch in diversen anderen Tests ist die auf ca 970 Customdesign Niveau.
 
Ist doch bei jedem Launch das Gleiche:
1-2, wegen mir auch 3-4 Wochen auf optimierte Treiber warten
und danach sich die Benchmark-Ergebnisse seiner Lieblingsgames heraussuchen,
danach wird dann entscheiden, welche Graka man kauft.

Wem weitere Dinge als reine Balken wichtig sind, wird sich dazu noch etwas weiter einlesen.
 
Ah geh, das passt scho.
Das ist eine kulturelle Sache. Ich verbiete ihm ja auch nicht zu reden wie man dort redet wo er herkommt. Ein bisschen "offener" darf man im Internet schon sein gegenüber andere "Kulturen".

Irgendwie bin ich enttäuscht von der 480.
Nicht mal durchgängig 970 Niveau und 160W Verbrauch.
980 Niveau und 110W, das wär was gewesen, aber so.
Das wäre tatsächlich schön, und angesichts des ersten Prozesswechsels seit knapp 5 Jahren zu erhoffen gewesen.

das war wirklich kein Scherz ich schmeiße mich gleich wirklich ausm Fenster und dann bist du Schuld ;D
Ich kanns versuchen, wenn du mir vielleicht erklären kannst, was dich konkret daran stört (es ist ein nachgestelltes Fragewort) und ob ich es denn wirklich so oft verwende.
 
Laut CB 5-10% über der 970 (@ 1080P & 1440P)und auch in diversen anderen Tests ist die auf ca 970 Customdesign Niveau.
Das ist ja das Problem, so hätte ich nur mehr VRAM, aber sonst ist nichts besser.
Hatte auf ne leise, schnelle DHE Karte mit wenig Verbrauch gehofft.
Dann wirds halt ne 1070, hab ja keine Eile und meine Frau will eh wissen was ich zum Geburtstag haben will:devil:.
 
Wenn sie dir was von ihrem eigenen Einkommen schenkt und nicht euer gemeinsames Konto belastet, dann wünsch dir doch lieber ne 1080 :D
 
Zum Aufrüsten ganz ok für den Preis, wenn man eine ziemlich alte Karte hat, für eine neue Generation prinzipiell aber ziemlich schwach.
 
Ich wäre für'n Nitro 3-er Lüftergespann samt 2x 8-Pol. für die ganz Verrückten, denen die Leistung Rille ist.
Ich meine das treibt den Preis kaum in die Höhe und sollte für 300,- Endkunde mit Märchensteuer machbar sein.

Das treibt zwar den Leistungshunger hoch, was aber nicht wirklich viele stören sollte (außer paar Wattgeier hier im Forum)
und ordentlich Speed bringen für's Geld. Hat netma wer was von internen Modelle mit 6+8@1,6gHz geschrieben?

Nuja, mal abwarten was da in den kommenden Wochen noch so kommt, gerade die 2te Charge an Customs.

Und an die stillen "Überleser", der neue Treiber vom Montag (Crimson 16.20.1035.1001-RC1) lässt die Performance um gut 5% ansteigen,
ich gehe von aus (und hoffe), dass sich mit weiteren Versionen noch mehr tut, jedenfalls in gewissen Games.
 
Also gtx 1080 im Vergleich zur rx 480 ---- 35% größere GPU, 100% mehr fps in 1080p und ca. 2,4 bis 3 mal so teuer.

Da ist die 1080 eindeutig der bessere Chip Größe/Performance. Und wenn man die Leistung braucht auch die einzige Wahl mangels Alternativen seitens AMD finde dann 2,4 bis 3 mal soviel euro für doppelte Leistung gar nicht so krass....

Ich denke Vega wird dann nicht so der Knüller Chipgröße/performance :(
 
Denn Ball gebe ich dir gern zurück.
Noch mal, zig hochbezahlte Ingenieure bei AMD haben bei der Architekturentwicklung nicht erkannt das das Frontend/ Backend zu gering ist etwas was du als quasi Grafikguru sofort bemerkt hast.
Ok ich glaube du kannst zwar lesen, kennst das Wort BEKANNT nicht.
Ich sprach von den BEKANNTEN Flaschenhälsen.
Ich habe nirgends geschrieben, dass ich sofort gewusst habe, dass Fury wegen dem Frontend/Backend schlecht performen wird. Jetzt wo ich das schreibe merke ich du kannst wohl eben doch nicht so gut lesen.
Bestimmt
smiley.gif
Ich hoffe, dass dadurch der Verbrauch nicht enorm durch die Decke geht, schließlich ist mir schon warm genug im Zimmer
zwinker4.gif

(was immer vergessen wird ist, dass Stromverbrauch ja nicht wegen der geringen Mehrkosten interessant ist, sondern wegen Kühlerlautstärke, Hitzeentwicklung usw usf...)
Also gtx 1080 im Vergleich zur rx 480 ---- 35% größere GPU, 100% mehr fps in 1080p und ca. 2,4 bis 3 mal so teuer.

Da ist die 1080 eindeutig der bessere Chip Größe/Performance. Und wenn man die Leistung braucht auch die einzige Wahl mangels Alternativen seitens AMD finde dann 2,4 bis 3 mal soviel euro für doppelte Leistung gar nicht so krass....

Ich denke Vega wird dann nicht so der Knüller Chipgröße/performance
frown3.gif
Das ist insgesamt das, was vielen (inkl. mir) so sauer aufstößt. Der Chipgrößen/Transistorunterschied steht in keiner Relation zur Leistung und zeigt eben welche Architektur überlegen ist (wenn man sie hoch oder runterskaliert). Dann kommt hinzu, dass sich dadurch sobald kein Preiskampf entwickeln wird und Nvidia weiter dumm&dämlich verdient mit ihren hohen Preisen, während man darunter nur Leistung bekommt, die man schon seit Jahren haben könnte.
Vega wird die 1070 und 80 angreifen können, nur wer sagt uns, dass Nvidia nicht auch einen größeren Chip hat (naja eigentlich wissen wir schon, dass sie das tun). Vega wird aber trotzdem einiges richten, da man hier erstens deutlich an Performance zulegen wird und zweitens Nvidia zu einem Preiskampf zwingen könnte (außer man einigt sich darauf einfach die Preise so zu lassen).

Einzig erfreulich wäre, wenn Frontend und Backend so viel verbrauchen und die Teile dazwischen (Shader, ROPs) dafür super skalieren wenn man mehr davon einbaut. Das ist aber einfach unrealistisch.
 
Zuletzt bearbeitet:
Zurück