Radeon RX 480 (8 GiByte) im Test: Preisbrecher mit 14-nm-Technik

Wobei sich das "PR-Desaster" mit einem einfachen Bios-Update, bzw. Custom-PCB sehr leicht lösen lässt.
Bei der 970 muss man mit dem Problem leben und hoffen das Nvidia so lange wie möglich per Treiber gegensteuert.
 
Weder die Neo, noch Scorpio sind auf dem Markt, 28nm Chips werden aber beide bestimmt nicht verwenden.
Es wird schon viel Richtung GCN optimiert, in Zukunft noch mehr, auch auf dem PC. (Was dennoch nicht bedeuten muss, dass AMD Nvidia schlagen wird)
Natürlich wird das schon 14nm sein. Welche Architektur muss sich noch zeigen
Welche Spiele wären denn als Anti-Crossplattform Titel für einen Vergleich geeignet und in der Beziehung neutral?
Es macht eher Sinn ältere und neuere Titel unter der entsprechenden Hardware zu vergleichen, da sich Umstellungen und Optimierungen nicht schlagartig finden.
"Why not both?"
API-Unterschiede, Tool-Unterschiede, Compiler-Unterschiede, fixed vs. open platform.
Sag' ich ja ;)

Ich bin selber, als vollkommener Laie natürlich, überrascht wie lange das Ganze doch dauert.
Wir scheinen erst jetzt am Punkt angelangt zu sein, wo das ganze auch Richtung PC rübertröpfelt mit DX12/Vulkan und den IHV-Erweiterungen.
Ja, hat bislang ja die gemeinsame Softwarebasis (Tools, API usw) gefehlt. Als AMD die Konsolendeals hatte, dachte ich eigentlich schon, es wäre jetzt eine große Möglichkeit für sie, aber auch für den PC Markt. Und ironischerweise hab' ich gedacht es wäre jetzt an der Zeit eine Technologie mal so durchzudrücken wie Nvidia es oft macht. Wenig später kam Mantle, aber leider hatte es bei den Konsolen selbst keinen Einsatz und im PC mit 20% Marktanteil kann man sich halt auch nicht durchsetzen.

Ja, WENN/FALLS etwas passiert, dauert es eben überraschend lange und man kriegt wenig mit. AMD könnte dies ja auch ein bisschen "ausschlachten". Immerhin hat man als Konsolenmonopolist hier doch riesen Vorteile und die werden auch nicht eben verschwinden. Ich nehme einfach mal an, dass auch bei der Generation nach PS4 Neo AMD gute Karten hat als Hersteller eingesetzt zu werden. Zumindest wäre es für die Entwickler ein Vorteil wenn sich die verschiedenen Generationen nur sanft unterscheiden (in der Hardware und Architektur).

Plötzlich passiert selten etwas, aber wenn du das ganze etwas verfolgst kannst du etwas Material zusammen sammeln.
Ich beobachte das ganze eh seit Jahren. Dass bei der Softwareentwicklung nix "plötzlich" geht, sieht man bei der Umstellung auf 64 Bit oder Engines die 4 oder mehr Kerne ordentlich nutzen.
Es ist nun doch schon über 13 Jahre her, dass im Home-PC Markt ein 64-Bit Prozessor erschien und es hat lange gedauert, bis mal alle Infrastruktur drauf ausgerichtet wurde (teils ist das heute noch nicht so). Ebenso bei Spielen mit 4 Kern Optimierung oder gar vorraussetzung (bzw ordentlichem Multithreading. Vorraussetzen kann man viel, siehe COD (weiß nicht mehr welcher Teil) und die 6GB RAM Mindestvorraussetzung).

Volle Zustimmung, es ist schön das sich AMD damit über Wasser halten kann, leider ist es nicht viel mehr als über Wasser halten.
Ja, deshab bin ich ja sehr überrascht/enttäuscht über die RX480. Mit einer wirklich überzeugenden Architektur/Effizienz und vielleicht auch einem guten ZEN hätte man mal mehr erreichen können.
Mal wieder ein Beweis, dass NVIDIA zu doof für directx12 ist
Mal wieder ein Beweis, dass NVIDIA zu doof für directx12 ist
Solche reißerischen Pauschalaussagen helfen der Diskussion bestimmt :ugly:
Kannst du technisch fundiert begründen, wofür Nvidia "zu doof" ist in DX12? Nur weil der Abstand zu deren DX11 Treibern nicht so groß ist wie bei AMD... man könnte halt auch fragen, warum der Abstand da so groß ist bei AMD, schließlich ist DX12 in erster Linie ein Vorteil für die CPU. Wäre man böse, könnte man behaupten (und es wäre keine leere Behauptung), dass AMD "zu doof" für DX11 war und daher der große Sprung kommt. Nvidias DX11 Treiber haben nämlich schon das, was man sich von DX12 erhofft: deutlich weniger Overhead


Immer wieder erstaunlich (und wohltuend), wie das Diskussionsniveau sprunghaft ansteigt wenn Locuza den Raum betritt... :D
Jo, weil er die emotionale Ebene oft weglässt und technisch/argumentativ diskutiert und das viele (mir inkl.) leider nicht immer schaffen.

Dafür würde mich mal interessieren, wo Locuza emotional wird. Vielleicht heute Abend, 21:00 ;)
 
Zuletzt bearbeitet:
Wobei sich das "PR-Desaster" mit einem einfachen Bios-Update, bzw. Custom-PCB sehr leicht lösen lässt.
Bei der 970 muss man mit dem Problem leben und hoffen das Nvidia so lange wie möglich per Treiber gegensteuert.
Uhhh... das mit dem BIOS UPDATE weiß nicht... dann wird's ja noch langsamer und vorbei ists mit der VReingung.
 
Nur weil Nvidia die Hosen wegen der 480 voll hatte.



Entschuldige bitte, aber meinst du das ernst? Ob sich jetzt wohl zufällig jeder kleine Penner mit nem kaputten board melden wird um AMD abzuzocken???
AMD betreibt die Karten ausserhalb der Spezifikation von PCIE, was bei Boards die selber mit wenig Reserven in der Hinsicht arbeiten zu Abstürzen führen kann, da dies schon geschehen ist, ist dies ein realer Malus, zumal keine Liste irgendwo existiert wo man mal einfach nachschauen kann ob das eigene Board damit klar kommt, so wird das ein bisschen zum Russisch-Roulette, wennauch die Chance wohl eher gering ist, wirklich Sorgen machen müssen sich wohl nur Leute mit älteren oder Budget-Boards, was aber imo schon Schlimm genug ist. Ich möchte da nur mal erinnern, was für ein Fass aufgemacht wurde wegen nVidias VRAM-Mogelei bei der 970 (zu Recht btw). Daher ja: Das ist mein Ernst.

Betrifft aber nur die Referenzkarten, und die sind eh Müll (Lautstärke, Temp), daher hält sich das Problem in Grenzen.
 
Uhhh... das mit dem BIOS UPDATE weiß nicht... dann wird's ja noch langsamer und vorbei ists mit der VReingung.

Spekulation, man wird wenn dann eher das OC über Wattmann beschränken, um die Kunden vor sich selbst zu schützen, da wenn hier die einzige Gefahr besteht und die ist sowieso immer und bei jeder Komponente da . Wer die Referenz mit dem original Kühler auf 1350 aufdreht der lebt halt gern gefährlich oder hat den Schuss nicht gehört *gg* Wenn ich bei einer Stock 150W Karte mit einem 6 Pin Stecker weiter aufdrehe habe ich entweder keine Ahnung was ich da tue oder ich tus eben auf eigene Gefahr ...
Hinterher jammern ist ein bisschen fad :P
 
AMD hat schon viel Mist mit der 480 gebaut und ich verliere langsam die Geduld. AMD liefert mit der 480 ein Musterbeispiel wie man sich selbst schlagen kann und das ohne die Konkurrenz. Alles was dafür nötig ist eine Karte die nicht die PCI-E Spezifikation einhält und eine nicht vorhandene 4GB Version, die auch noch mit langsamen Speicher bestückt ist. Die 4GB version wird vermutlich nicht mal das Niveau der 970 erreichen.
 
AMD hat schon viel Mist mit der 480 gebaut und ich verliere langsam die Geduld. AMD liefert mit der 480 ein Musterbeispiel wie man sich selbst schlagen kann und das ohne die Konkurrenz. Alles was dafür nötig ist eine Karte die nicht die PCI-E Spezifikation einhält und eine nicht vorhandene 4GB Version, die auch noch mit langsamen Speicher bestückt ist. Die 4GB version wird vermutlich nicht mal das Niveau der 970 erreichen.
Wat?:lol:
Da bin ich aber mal gespannt darauf
 
(...)eine nicht vorhandene 4GB Version, die auch noch mit langsamen Speicher bestückt ist. Die 4GB version wird vermutlich nicht mal das Niveau der 970 erreichen.

Wegen 2-4 FPS zwischen der 4 GB und 8GB-Version sollte man kein Fass aufmachen:
AMD Radeon RX 480 4GB versus Radeon RX 480 8GB - Legit Reviews4GB versus 8GB of Memory on the Radeon RX 480
Für FullHD-Spieler wie mich absolut ausreichend. Und der Punkt ist einfach: Ich hab hier eine Grafikkarte für 215 €, welche mit meiner alten R9 285 den Boden aufwischt, weniger Strom braucht und doppelt so viel Speicher hat. Einzig hoffe ich das AMD den PCIe- und Idle-Stromverbrauch noch fixt, ansonsten bin ich voll zufrieden.

Edit.:
Frage an alle:
Liegt das an der RX480 oder ist das Bild über HDMI allgemein schlechter als über DVI? Ich hab mit der 480 zuerst ein HDMI-kabel verwendet, weil sie eben keinen DVI-Anschluss besitzt und ich meinen HDMI zu DVI-Adapter nicht gefunden hab. Das Bild war unscharf und hatte im oberen Bereich einen deutlichen Blaustich. Beides ist behoben, seitdem ich per Adapter wieder ein DVI-Kabel verwenden. Für beide Kabel waren die Einstellungen am Bildschirm (Samsung SyncMaster XL2370) gleich.
 
Zuletzt bearbeitet:
AMD hat schon viel Mist mit der 480 gebaut und ich verliere langsam die Geduld. AMD liefert mit der 480 ein Musterbeispiel wie man sich selbst schlagen kann und das ohne die Konkurrenz. Alles was dafür nötig ist eine Karte die nicht die PCI-E Spezifikation einhält und eine nicht vorhandene 4GB Version, die auch noch mit langsamen Speicher bestückt ist. Die 4GB version wird vermutlich nicht mal das Niveau der 970 erreichen.
Leistungsaufnahme: Gaming - Nvidia GeForce GTX 750 Ti: Maxwell ist da - mehr Power, weniger Durst
Die PCIe-Spezifikation wurde nicht zum ersten Mal gebrochen. Das soll die Tatsache nicht schön reden, gerade aber hervorheben, dass dies kein Einzelfall ist. Dass es das Referenz-Design betrifft, wiegt natürlich schwer, allerdings muss hier die Zeit zeigen wie schwer.

Die 4 GB Version hat aufgrund eines einfachen Sachverhaltes statt 2000 nur 1750 MHz Speichertakt: Laut Meldungen befindet sich bei Samsung derzeit beim DDR5-Speicher mit 2000 MHz nur die Variante mit 1 GiB pro Chip in der Massenproduktion, für 4 GB bräuchte man aber 8x 0,5 GiB.
 
Nachdem ich mittlerweile noch immer mit einer Asus DirectCU II 7950 mit 900Mhz GPU & 1250MHz Speichertakt herumgurke, und die mir in Division leider selbst auf alle Regler links auf Low keine Stabilen 60FPS mehr zu schaffen sind, frage ich mich, wie viel Leistungsplus ich mit einer Referenz RX 480 erwarten kann?

Im PCGH Leistungsindex finde ich noch nicht die RX480, und in diesem Test kann ich meine konservativ getaktete Grafikkarte nicht vorfinden bzw vergleichen.

Ist eine Vergleichbare GK im Heft abgebildet beim Test?

Auch wenn ich dann vermutlich eine Custom RX 480 nehmen werde, so würde mich intressieren, wie viel % mindestens (ich nehm mal an alle Customs sind schneller) dazukommen würden...

Stromverbrauch ist mir relativ egal, bin mit einem BQ! E10 500W CM gut gerüstet :D
 
Nachdem ich mittlerweile noch immer mit einer Asus DirectCU II 7950 mit 900Mhz GPU & 1250MHz Speichertakt herumgurke, und die mir in Division leider selbst auf alle Regler links auf Low keine Stabilen 60FPS mehr zu schaffen sind, frage ich mich, wie viel Leistungsplus ich mit einer Referenz RX 480 erwarten kann?

Im PCGH Leistungsindex finde ich noch nicht die RX480, und in diesem Test kann ich meine konservativ getaktete Grafikkarte nicht vorfinden bzw vergleichen.

Ist eine Vergleichbare GK im Heft abgebildet beim Test?

Auch wenn ich dann vermutlich eine Custom RX 480 nehmen werde, so würde mich intressieren, wie viel % mindestens (ich nehm mal an alle Customs sind schneller) dazukommen würden...

Stromverbrauch ist mir relativ egal, bin mit einem BQ! E10 500W CM gut gerüstet :D

Auf jeden Fall 30-40% Mehrleistung. Selbst zur cuII 7950 wird die RX ein deutlich spürbares upgrade sein.
 
Leistungsaufnahme: Gaming - Nvidia GeForce GTX 750 Ti: Maxwell ist da - mehr Power, weniger Durst
Die PCIe-Spezifikation wurde nicht zum ersten Mal gebrochen. Das soll die Tatsache nicht schön reden, gerade aber hervorheben, dass dies kein Einzelfall ist. Dass es das Referenz-Design betrifft, wiegt natürlich schwer, allerdings muss hier die Zeit zeigen wie schwer.

Die 4 GB Version hat aufgrund eines einfachen Sachverhaltes statt 2000 nur 1750 MHz Speichertakt: Laut Meldungen befindet sich bei Samsung derzeit beim DDR5-Speicher mit 2000 MHz nur die Variante mit 1 GiB pro Chip in der Massenproduktion, für 4 GB bräuchte man aber 8x 0,5 GiB.

Klar werden die zum ersten Mal so gebrochen. Die 480 hat nicht wie die 750 kurze Peaks, sondern einen dauerhaften Verbrauch.
 
Frage an alle:
Liegt das an der RX480 oder ist das Bild über HDMI allgemein schlechter als über DVI? Ich hab mit der 480 zuerst ein HDMI-kabel verwendet, weil sie eben keinen DVI-Anschluss besitzt und ich meinen HDMI zu DVI-Adapter nicht gefunden hab. Das Bild war unscharf und hatte im oberen Bereich einen deutlichen Blaustich. Beides ist behoben, seitdem ich per Adapter wieder ein DVI-Kabel verwenden. Für beide Kabel waren die Einstellungen am Bildschirm (Samsung SyncMaster XL2370) gleich.

Normal sollte es keine Unterschied beim Bild geben. Ursachen ist schwer zu erraten .. HDMI Kabel schlecht, Software Problem, Problem am Monitor mit dem HDMI Eingang ?? Kann man nur austesten oder mal bei AMD anfragen.
 
Klar werden die zum ersten Mal so gebrochen. Die 480 hat nicht wie die 750 kurze Peaks, sondern einen dauerhaften Verbrauch.

Es gibt auch 750er(ti) und insbesonder 960er (ASUS) die dauerhaft darüber liegen. Peaks interessieren eh keinen gg
Wobei dauerhaft ein trügerisches Wort ist. Dauerhaft is keien Karte über den PCI Specs auch keien RX 480.
Aber es gibt halt gewisse Szenarien (extrem fordernde Spiele in 4K Auflösung) wo es "recht konstant" passieren kann.
Das ist aber auch alles noch nicht problematisch, tragisch wirds ab 90-95W, je nach Hardwaregüte, und da kommen diese Karten ohne Garagen OC eh alle nicht hin.
 
Es gibt auch 750er(ti) und insbesonder 960er (ASUS) die dauerhaft darüber liegen. Peaks interessieren eh keinen gg

Trotzdem sind Standards zum einhalten da. Ich hab mir eine RX480 gekauft, aber das Problem ist mir bewusst und AMD muss da nachbessern. Mein Sabertooth mag das wegstecken, aber das kostet ja auch deutlich mehr als die oft verkauften Mainboards. Das Power Target auf -10 % zu setzen um sicher zu gehen ist keine Alltags-Lösung.
 
Ja natürlich, nur in 90% alle Anwändungsfälle, wenn du nicht gerade auf 4k Stresstest Games zockst, wirst du immer innerhalb der Spezifikationen sein. Weshalb es jetzt auch keinen wirklichen Sinn macht das Power Target runterzuschrauben. Sie werden das schon fixen :)
 
Zurück