AMD Radeon RX 5500: Retail-Version kommt angeblich Mitte Dezember

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon RX 5500: Retail-Version kommt angeblich Mitte Dezember

Seit ihrer Ankündigung Anfang Oktober ist AMDs Mittelklassegrafikkarte Radeon RX 5500 bisher nur in Komplett-PCs aufgetaucht, aber nicht einzeln im Handel. Dies soll sich angeblich am 12. Dezember ändern. Ein Test gibt derweil einen Performance-Ausblick.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Radeon RX 5500: Retail-Version kommt angeblich Mitte Dezember
 
Hinzu kommt, dass die Graka eigentlich ernüchternd ist. Verbrauch, Leistung usw usf wie sie die 1060 schon vor 3,5 Jahren hatte- in einem alten Prozess, bei weniger Transistoren. Diese neue Architektur ist bei weitem nicht der Befreiungsschlag den sich viele herbeireden

Wie gut RDNA ist kann man in allen Tests lesen auch das die Leistung pro Recheneinheit = oder leicht höher Nvidia ist und das damit 2 Generartionen von Nvidia in einer eingeholt wurde.
Aber mir ist völlig klar, dass das für einen Rollora nur eine dahergeredete Stärke ist.

Anders bei Nvidia :)
<>
Bei Nvidia darf man natürlich auch viel mehr erwarten als 15% bessere Effizienz, wenn sie von ihrer extra für ihre Produkte angelegten Fertigung auf eine nicht annähernd auf Nvidia speziell angelegte Fertigung wechseln <Sarkasmus off>

Außerdem hat Nvidia mit ihrer 1650 ja auch nur eine karte rausgebracht, deren Leistung schon seit 8 Jahren verfügbar ist.
Ehrlich, wie kann man nur so blasiert sein.

BTW will ich hier jetzt auch mal selektive Fakten raushauen.
Die RX5500 ist gut 50% !!! schneller las eine 1060 BÄM
AMD Radeon RX 5500 Review | TechPowerUp
 
Naja mich kann die kleine RX5500 mit dieser Leistung zum Stromverbrauch nicht wirklich begeistern. Da hatte ich mehr erwartet bei ~120Watt :/ Im Vergleich zur RX570/580 natürlich eine gute Entwicklung...

und wo genau is die da bitte 50% schneller?

Wüsste ich auch gerne. Beim ersten Blick auf den Link habe ich auf die schnelle kein Spiel gefunden. Ganz im Gegenteil sogar ^^
 
eine karte die ende 2019 mit ach und krach in 1080p nur 60 fps liefert, ist quasi unbrauchbar.
in spätestens einem jahr ist das teil unbrauchbar.

dafür ist der preis von 200€ viel zu hoch angesiedelt. maximal 100€.
 
Wie gut RDNA ist kann man in allen Tests lesen auch das die Leistung pro Recheneinheit = oder leicht höher Nvidia ist und das damit 2 Generartionen von Nvidia in einer eingeholt wurde.
Aber mir ist völlig klar, dass das für einen Rollora nur eine dahergeredete Stärke ist.

Anders bei Nvidia :)
<>
Bei Nvidia darf man natürlich auch viel mehr erwarten als 15% bessere Effizienz, wenn sie von ihrer extra für ihre Produkte angelegten Fertigung auf eine nicht annähernd auf Nvidia speziell angelegte Fertigung wechseln <Sarkasmus off>

Außerdem hat Nvidia mit ihrer 1650 ja auch nur eine karte rausgebracht, deren Leistung schon seit 8 Jahren verfügbar ist.
Ehrlich, wie kann man nur so blasiert sein.

BTW will ich hier jetzt auch mal selektive Fakten raushauen.
Die RX5500 ist gut 50% !!! schneller las eine 1060 BÄM
AMD Radeon RX 5500 Review | TechPowerUp

Wer ist hier biased? Du oder ein Newsmagazin:

Erster Test zur Radeon RX 5500 zeigt mittelmaessige Performance zu allerdings stark verbesserter Energieeffizienz | 3DCenter.org

Fazit: man hinkt auch weiterhin der Konkurrenz gewaltig hinterher. Als Besitzer einer 1060 hätte man kaum einen Grund für dieses Sidegrade. Wär das Ding weiter in 14nm gefertigt, wär es groß, heiß und langsam. Und das würde nunmal zeigen wie gut die ARCH ist. Den besseren Prozess verwenden der 30-40 Prozent ersparnis bringt beim Verbrauch. Lol
 
Zuletzt bearbeitet:
Wer ist hier biased? Du oder ein Newsmagazin:

Erster Test zur Radeon RX 5500 zeigt mittelmaessige Performance zu allerdings stark verbesserter Energieeffizienz | 3DCenter.org

Fazit: man hinkt auch weiterhin der Konkurrenz gewaltig hinterher. Als Besitzer einer 1060 hätte man kaum einen Grund für dieses Sidegrade

Man hat auch von ner Menge anderer Karten aus keinerlei Anreiz, da umzusteigen.
Auch meine R9 290 ist noch gut genug.
Natürlich etwas langsamer, aber nicht so viel, dass ich unbedingt ne 5500 kaufen würde.

Edit:
Also braucht man auch mit einer 970, 980, rx 480, 580, oder 590 keine Angst haben.
 
Man hat auch von ner Menge anderer Karten aus keinerlei Anreiz, da umzusteigen.
Auch meine R9 290 ist noch gut genug.
Natürlich etwas langsamer, aber nicht so viel, dass ich unbedingt ne 5500 kaufen würde.

Edit:
Also braucht man auch mit einer 970, 980, rx 480, 580, oder 590 keine Angst haben.
Richtig.
Mich wundert hier, dass RDNA so hoch gelobt wird. Man erreicht damit nunmal nur die Effizienz von der Konkurrenz vor 3.5 Jahren. Ist also um das hinterher. Aber auch GCN wurde hochgelobt als es rauskam- bis Nvidia im gleichen Prozess, also unter gleichen Voraussetzungen gefertigt hat. Wundert mich immer, wenn die "Fach"presse das vergisst, dass AMD theoretisch deutlich weniger brauchen müsste bzw. mit dem Verbrauch die 1080 schlagen müsste.
 
Ich finde es ja schon sehr befremdlich das immer dieselbe Argumentation anliegt. Die Leistung gab es schon vor X Jahren oder für den Besitzer von Karte X lohnt es nicht. Was dabei aber immer ausgeklammert wird sind die Erstkäufer oder Neukäufer. Für jemand er sich nicht mehr leisten kann oder möchte inkl. denjenigen die einfach ihre defekt gegangene 1060 oder 380 ersetzen wollen zum ähnlichen Preis ist die Karte doch gut.
 
Wer ist hier biased? Du oder ein Newsmagazin:

Erster Test zur Radeon RX 5500 zeigt mittelmaessige Performance zu allerdings stark verbesserter Energieeffizienz | 3DCenter.org

Fazit: man hinkt auch weiterhin der Konkurrenz gewaltig hinterher. Als Besitzer einer 1060 hätte man kaum einen Grund für dieses Sidegrade. Wär das Ding weiter in 14nm gefertigt, wär es groß, heiß und langsam. Und das würde nunmal zeigen wie gut die ARCH ist. Den besseren Prozess verwenden der 30-40 Prozent ersparnis bringt beim Verbrauch. Lol

Gegenbehauptung, wie immer, wie bei Dir auch, ohne jegliche Grundlage : Wäre RDNA in einem Speziell für AMD entwickleten 12nm- Verfahren, wie bei NVIDIA, produziert, wäre RDNA ebenso effizient.

Du weißt doch, dass AMD mit der 5700XT vs 2070 eine sehr gute Vergleichbarkeit liefert oder ?
Genauso schnell oder besser gesagt fast immer schneller bei gleicher Anzahl der Shader.
Dazu die bessere Fertigung und Grundlage der neuen Konsolengeneration. Für mich waren das genug Gründe sie zu kaufen.

BTW.
Ich bin ganz offen pro AMD und habe daraus auch nie ein Geheimnis gemacht.
Dennoch habe ich die letzten 2 Jahre 3 Karten von Nvidia gehabt, weil diese objektiv besser waren.
Denn ich bin zwar ein Fan aber kein Fanatiker oder verblendet.

Was mich bei Dir stört sind Deine dauernden Vermutungen und oder Falschdarstellungen. Bsp. Prozesse: Bei den Prozessen geht es immer um eine effizientere ODER schnellere Fertigung bzw. ein Mix aus beidem, aber den vollen Effizienzgewinn zu verrechnen ist unrealistisch. Außerdem wird hier oft ignoriert das Nvidia eben eine speziell für ihre Firma angepasste Fertigung nutzt.
Sie, Nvidia, haben selbt gesagt, dass 7nm im Vergleich nur geringe Vorteile böte. Was Nvidia bei 7nm rausholt muss erst noch bewiesen werden und ist keinesfalls schon jetzt klar. Behauptungen dieser Art sind mit Argumenten à la Intelschublade, Intel Milliarden, Too big to fail usw. in einer Reihe meiner Meinung nach.
Desweiteren wird Nvidia eine andere 7nm-Fertigung nutzen als RDNA Version 1

Das wars dann auch wieder für mich zu diesem Thema

Viele Grüße

Ps. die 3 Spiele Deines Links sind ein großer Witz.
 
Ich erinnere mich noch, als ich mir 2008 meinen ersten Selbstbau-PC gekauft habe. Intel Core2Duo E8400, 8GB DDR2-Ram, ATI Radeon HD4870 512MB.

Damals entschied man sich für ne ATI- (später AMD) Karte weil sie die bessere Effizienz als Nvidia lieferte. Wie konnte es nur soweit kommen, dass Nvidia mal mehrere Generationen in der Effizienz bei gleicher Leistung führt?
 
Zurück