XFX Radeon RX 480 Double Dissipation Black Edition: Das erste Custom-Design im Hands-on-Test

Wenn ich das richtig sehe, handelt es sich bei dem DVI Ausgang um einen reinen DVI-D und NICHT um die sonst bei Grakas üblichen DVI-I.
Er kann also kein analoges Signal ausgeben, womit DVI zu VGA Adapterkabel nicht funktionieren werden.

Ist ja auch durchaus logisch, wenn die Karte im Referenzdesign nur digitale Ausgänge hat.
Jeder, der in der Hoffnung war, einen alten VGA Monitor an ein RX480 Custom Design anzuschliessen, wird aber enttäuscht werden. (nicht, dass das besonders oft vorkommen dürfte)
 
Wenn ich das richtig sehe, handelt es sich bei dem DVI Ausgang um einen reinen DVI-D und NICHT um die sonst bei Grakas üblichen DVI-I.
Er kann also kein analoges Signal ausgeben, womit DVI zu VGA Adapterkabel nicht funktionieren werden.

Ist ja auch durchaus logisch, wenn die Karte im Referenzdesign nur digitale Ausgänge hat.
Jeder, der in der Hoffnung war, einen alten VGA Monitor an ein RX480 Custom Design anzuschliessen, wird aber enttäuscht werden. (nicht, dass das besonders oft vorkommen dürfte)

Naja , es gibt ja DVi- D (Digital) zu VGA (Analog) Adapter/Wandler. Der günstigste den ich auf die schnelle gefunden habe, ist bei Conrad aktuell für 29 € zu haben.
Die Preise scheinen aber gestiegen zu sein, denn ich habe bei Conrad für einen Vergleichbaren, aber HDMI auf VGA Wandler/Adapter Anfang des Jahres noch 19,99€ bezahlt. Eventuell pendelt sich der Preis bald wieder ein.
So oder so ist ein Adapter weit aus günstiger, als die Anschaffung eines neuen Monitors.

Für mich und mein Multimonitor Setup hat es sich jedenfalls gelohnt. Adapter in die Grafikkarte einstecken, Monitor in den Adapter und schon wurde mein 22,5 Zoll Analog VGA Monitor über den rein Digitalen HDMI Ausgang erkannt. Und das ganz ohne extra Stromzufuhr, obwohl der Adapter auch hier einen extra Eingang bietet. Bin sehr zufrieden mit dieser Technik. ;)
 
Durch die RX 480 und GTX 1060 sieht man wie gelungen doch der Fury Launch ansich bei AMD war und wie sich alle durch die 4GB HBM abschrecken lassen und die Karte wie Blei in den Regalen zu liegen scheint.
Ok, zwar teuer aber Neueste TECHNIK und Karte sollte in Zukunft echt abgehen können!
Der Speicherausbau ist und war nicht ideal, das OC zwar nicht das Gelbe vom Ei aber die Qualität und das Leisetreten, Temperatur und Kartengröße (Teilweise) das Non Plus Ultra einer Generation welche auf Neuen Speichertyp aufbaut.
Zudem erst jetzt sieht und erahnt man was alles in der Fury Serie stecken kann.

Die Fury Nano ist was die groesse angeht ja heute noch ungeschlagen und ich meine in tests konnte man Gut sehen das die Fury dank HBM mit demm knappen Zeicher allemal besser zurecht kommen als GDDR5 Karten mit 4 Gb oder gar 6 Gb bei der Ti , ich meine in 4k lagen beide ziemlich gleich auf obwohl die Fury 2 Gb weniger vram hatte ...

mfg
 
Ja, der macht es sich manchmal etwas zu einfach. Letztlich liegen die Bedingungen ja bei den Boardbartnern. Bei Asus kannst du ja beispielsweise auch einfach den Kühler tauschen z.B. auf WaKü und trotzdem die Karte einschicken. Solange du das auch sagst und die Karte nicht nachweislich durch deine falsche Handhabe kaputt geht, kein Problem.
 
Ja, der macht es sich manchmal etwas zu einfach. Letztlich liegen die Bedingungen ja bei den Boardbartnern. Bei Asus kannst du ja beispielsweise auch einfach den Kühler tauschen z.B. auf WaKü und trotzdem die Karte einschicken. Solange du das auch sagst und die Karte nicht nachweislich durch deine falsche Handhabe kaputt geht, kein Problem.

trotzdem nicht mal unwahr , wenn auch einfach gesagt ...
 
Die 480 Referenz kann den Boosttakt nicht halten, außer man greift selbst ein und erhöht das Powerlimit. Im dem youtube Video geht der Boosttakt wieder rauf, wenn man die die Spannung senkt. Das Powerlimit wurde nicht verändert, da habe ich hoffentlich richtig gesehen. Sind das nicht genau entgegengesetzte Methoden, welche zum selben Ergebnis führen?

Ändert sich das noch mit den Top custom Modellen? Ich mein, wenn auch eine custom den Boosttakt nicht halten kann, warum erhöht hier XFX nicht das Powerlimit, damit "wir" es nicht mehr machen müssen?
 
Die 480 Referenz kann den Boosttakt nicht halten, außer man greift selbst ein und erhöht das Powerlimit. Im dem youtube Video geht der Boosttakt wieder rauf, wenn man die die Spannung senkt. Das Powerlimit wurde nicht verändert, da habe ich hoffentlich richtig gesehen. Sind das nicht genau entgegengesetzte Methoden, welche zum selben Ergebnis führen?
Jein, indem du die Spannung senkst, benötigt die Karte weniger Strom. Wenn du das Powerlimit erhöhst, darf die Karte mehr Strom ziehen.
Die Transistoren nehmen sich nicht so viel wie sie brauchen, sondern so viel sie dürfen. Mikrocontroller arbeiten z.B. in einem Spannungsbereich von 2,8-3,3V. Fällt die Spannung darunter, arbeiten die Transistoren nicht mehr vernünftig weil Schwellspannungen zwischen den Gates z.B. nicht mehr erreicht werden oder zu wenig Strom fließt (U=R*I, Spannung und Strom sind voneinander abhängig). Da das BIOS der XFX noch nicht final war, könnte es gut sein das XFX im finalen BIOS die Spannungen nach unten korrigiert und damit der Takt gehalten wird ohne am Powerlimit zu spielen.
 
Moin Moin

Hab die oben genannte Grafikkarte unter Linux am Start.
Absolut ruhig ,keine Ruckler ,nix .
Auch die Temperatur ist Ok und Bewegt sich im Rahmen (65-75 °,letzteres unter Vollast) . Die Karte läuft bei mir mit Linux Kernel 4.4.0.36 generic und absolut zufriedenstellend. Die ca. 300 Euronen die man für diese Karte Investieren muss ,sind absolut gerechtfertigt und auch jeden Eurocent Wert. Kumpel von mir hat die MSI Version die nicht ganz so hoch Taktet aber keine 2 Wochen alt ,war Sie schon ein Gewährleistungsfall ,da war ich etwas Skeptisch und hab mich dann umentschieden zur XFX Version. Ich bereue den Kauf keinesfalls und das mit den Wechselbaren Lüftern kann ich nur Bestätigen ,ist auch bei meiner Version der Fall . Nur ich hab hier ein Final Bios drin was beim Test der Grafikkarte (Siehe Bericht) es noch nicht gab. Meine alte AMD/ATI R9 280X von Sapphire hab ich nun in Rente geschickt. Im Vergleich der beiden Karten sind echt Welten dazwischen.
 
Wenn ich das richtig sehe, handelt es sich bei dem DVI Ausgang um einen reinen DVI-D und NICHT um die sonst bei Grakas üblichen DVI-I.
Er kann also kein analoges Signal ausgeben, womit DVI zu VGA Adapterkabel nicht funktionieren werden.

Ist ja auch durchaus logisch, wenn die Karte im Referenzdesign nur digitale Ausgänge hat.
Jeder, der in der Hoffnung war, einen alten VGA Monitor an ein RX480 Custom Design anzuschliessen, wird aber enttäuscht werden. (nicht, dass das besonders oft vorkommen dürfte)

Muss man nicht
Es gibt passende Adapter die das auch ermöglichen ein einfaches VGA Kabel an so einer Buchse zu Betreiben. wie die Bildqualität dazu dann aussieht ,muss jeder selbst wissen. Die Dinger kosten in China ca 5-6 Euro Versand kostenfrei und in Deutschland zahlst für so einen Adapter bis zu 45 Euro + Versand.

Hier die Variante die man in Deutschland kaufen kann :

Aktiver DVI-D-auf-VGA-Adapter | StarTech.com Deutschland

Und hier die Aliexpress China Variante (als Tiny URL) .

Hot Sale Full HD 1080P DVI D 24+1 to VGA HDTV Converter Monitor Cable for PC Display Card High Quality on Aliexpress.com | Alibaba Group

oder der hier :

Brand New 1080P Active DVI D 24+1 Male to VGA 15Pin HDTV Female Monitor Adapter Connector Cable for PC Display Card High Quality on Aliexpress.com | Alibaba Group

Unmöglich ist fast nichts ,man muss eben nur wissen wie man an sowas rangeht und wie man so was auch umsetzt.
 
Zurück