AMD Radeon R9 285 mit Tonga-GPU im Test: Graphics Core Next 1.2, das Effizienzwunder?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon R9 285 mit Tonga-GPU im Test: Graphics Core Next 1.2, das Effizienzwunder?

Radeon R9 285 mit Tonga-GPU im Test: Die neueste Grafikkarte aus den AMD-Laboren schickt sich an, Nvidias Geforce GTX 760 das Fürchten zu lehren und tritt gleichzeitig das Erbe der beliebten Radeon R9 280 an. PC Games Hardware prüft, ob die dritte Iteration der GCN-Architektur (Graphics Core Next) das Zeug zum Kassenschlager hat.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: AMD Radeon R9 285 mit Tonga-GPU im Test: Graphics Core Next 1.2, das Effizienzwunder?
 
Das scheint ja eine sehr schöne Grafikkarte zu sein. Prima, dass AMD wirkliche technische Verbesserungen vorgenommen hat, und nicht nur die Taktraten etwas erhöht hat. Das belebt den Markt und hilft somit letztlich allen :daumen:
 
Jetzt bin ich zutiefst enttäuscht. Ich hatte wirklich Hoffnung das AMD etwas an der Energieeffizienz tut aber die Karte frisst sogar mehr als die 280. Sehr sehr schade :( Na ja bleibt ja noch Nvidia ^^.
 
Wieso steht bei den Schnittstellen der 285 explizit Freesync? Hieß es nicht, dass es von allen unterstützt wird?
 
Jetzt bin ich zutiefst enttäuscht. Ich hatte wirklich Hoffnung das AMD etwas an der Energieeffizienz tut aber die Karte frisst sogar mehr als die 280. Sehr sehr schade :( Na ja bleibt ja noch Nvidia ^^.
Wahrscheinlich kann man dem Chip noch nachträglich auf die Sprünge helfen. Das sprengt zwar meist die Garantie, aber meine 7950 mit 900 MHz / 0,98 Volt (statt bis zu 1,25 Volt) ist nun auch eher ein Effizienzwunder :D
Die gesteigerte Tessellationsleistung finde ich dennoch sehr gut, allerdings weis der Chip sonst nicht zu überzeugen. Lohnt hier eine 4GB Version mit übertaktetem Speicher, Raff?
Die Leute mit Receiver könnten sich natürlich noch günstig an TrueAudio ergötzen...
 
Hab ich das richtig gesehen, die frisst unter Last mehr wie eine 280aka7950, die schon seit ca 2 Jahren auf dem Markt ist ist aber maximal ca gleich schnell, allerdings auch noch ein Vram-Krüppel? Wow.
 
Eine Totgeburt. Aktuell gibt es Die R9 280 für ~170 Euro und damit gibt es keinen Grund diese Karte für mehr als 160 Euro zu kaufen.
Kommen solche Karten mit 4 GB und deutlicher Übertaktung für <180 Euro guck ich mir die nochmal an.
 
Werde mir also doch eine 280 und keine 285 zulegen. Günstiger bei gleicher Leistung bzw sogar mehr wenn ich übertakte. Eine Frage wo es meiner Meinung nach widersprüchliche Aussagen gibt. Hier steht das beim Kauf einer 285 das Space Bundle greift. Gilt das jetzt auch bei einer 280? Laut der News zu dem Bundle "für alle R9". Star Citizen würde ich schon gerne haben ^^
 
Also diese Karte ist einfach ein Reinfall, ein kompletter schwachsinniger Reinfall.

Eigentlich bin ich ja recht angetan von AMD aber diese Entscheidung war einfach nur blöd, mehr nicht.
 
Gibts im Internet irgendwo schon Reviews zu 4Gb Versionen? Hab leider nichts gefunden :( Reviews zu Karten verschiederner Boardpartner habr ich zwar gefunden, leider alles 2Gb


Wieso steht bei den Schnittstellen der 285 explizit Freesync? Hieß es nicht, dass es von allen unterstützt wird?

Laut einem Interview wird nur der 2D-Modus von allen unterstützt. 3D nur von den neueren, also 260(X), 290(X) und jetzt auch 285.
Also von denen, die TrueAudio unterstützen.
 
Zuletzt bearbeitet:
Was für ein Epic Fail AMD :daumen2:

Aber Hauptasche dem uninformierten Kunden gleich mehr Geld aus der Tasche ziehen, weil die Namenbezeichnung höher ist, obwohl das Produkt das langsamer ist... :schief:

Aber vielleicht lässt sich ja noch ein wenig an der Grafikqualität sparen um dann doch auf das Leistungsniveau vom Vorgänger zu kommen :ugly: :lol:
 
Zurück