AMD Polaris: RX-400-Serie besteht aus drei Grafikkarten

Allerdings gab es ja schon die 750ti/950 mit ähnlicher Leistung ohne PCIe-Stromstecker. Da hatte ich von FinFet einfach mehr erwartet. Der Preis ist mir da eigentlich wurscht.
Bleibt wohl nur auf auf die Nachfolgerkarten mit hoffentlich 4 GiB zu warten.

Darf ich fragen was du im Leistungsbereich GTX750-GTX950-RX460 mit 4GB V-RAM möchtest :what: ??
 
Gibt es schon genauere Infos wieviel die RX 460 und 470 kosten werden? brauche eh voraussichtlich keine 480 da ich "nur" nen 1080p monitor habe und kein geld für vr da ist^^

Auch ohne VR oder 4k kann sich die 480 durchaus lohnen wenn man sie dafür etwas länger behalten möchte.
Wird bei mir wahrscheinlich auch darauf hinauslaufen, auch ohne VR und mit nur FHD.

Wenn die 470 natürlich weit günstiger und kaum langsamer ist wäre das was anderes, aber ich denke dass AMD da schon passenden Abstand setzt.
Also mir war es auch jahrelang wurscht, da haben mir auch 15 frames gereicht.
Aber irgendwie hab ich mich hier im Forum bei den 60 fps Zombies angesteckt und jetzt komme ich davon nicht mehr weg.
Wenn du nicht grad ausschließlich RTS und Indies zockst, lohnt sich das schon. Egal ob Racer, GTA oder z.B. FIFA. Kommt auf 60 fps einfach besser.

Das werden sie aber nicht tun, weil es wirtschaftlich eine äußerst blöde Idee ist!
Andererseits haben sie ja angekündigt, ihre Kartenflut einzudämmen.
Gerade im Einsteiger- bis Mittelklassebereich, wo die Leute vielleicht ab und zu mal Computerbild lesen, kann es durchaus von Vorteil sein, ein eher übersichtliches Angebot zu haben.
Der junge Bengel, der seit Monaten auf seine Eltern einredet wie auf einen lahmen Gaul, das er eine GraKa braucht, weil seine i3/i5 iGPU nicht mehr reicht, wird es leichter haben, wenn AMD da gut gestaffelt 3 - 5 Karten im Portfolio hat.
So wie früher, mit alten Karten, dann rebrands, dazwischen die x-Modelle, sodass du in dem Leistungsspektrum 10 Karten zur Auswahl hast (von den Custom Modellen alá Super-Hyper-Megacool-DickeEier-haste-nich-gesehen-mk5-Modellen ganz abgesehen) soll es ja zum Glück nicht mehr sein.
 
Zuletzt bearbeitet:
Also mir war es auch jahrelang wurscht, da haben mir auch 15 frames gereicht.
Aber irgendwie hab ich mich hier im Forum bei den 60 fps Zombies angesteckt und jetzt komme ich davon nicht mehr weg.
Wenn du nicht grad ausschließlich RTS und Indies zockst, lohnt sich das schon. Egal ob Racer, GTA oder z.B. FIFA. Kommt auf 60 fps einfach besser.


Andererseits haben sie ja angekündigt, ihre Kartenflut einzudämmen.
Gerade im Einsteiger- bis Mittelklassebereich, wo die Leute vielleicht ab und zu mal Computerbild lesen, kann es durchaus von Vorteil sein, ein eher übersichtliches Angebot zu haben.
Der junge Bengel, der seit Monaten auf seine Eltern einredet wie auf einen lahmen Gaul, das er eine GraKa braucht, weil seine i3/i5 iGPU nicht mehr reicht, wird es leichter haben, wenn AMD da gut gestaffelt 3 - 5 Karten im Portfolio hat.
So wie früher, mit alten Karten, dann rebrands, dazwischen die x-Modelle, sodass du in dem Leistungsspektrum 10 Karten zur Auswahl hast (von den Custom Modellen alá Super-Hyper-Megacool-DickeEier-haste-nich-gesehen-mk5-Modellen ganz abgesehen) soll es ja zum Glück nicht mehr sein.

:D Vielleicht, weil wir aus einer Zeit kommen, wo Spiele so leistungshungrig und Grafikkarten so schwach waren, dass man ja scon Glück hatte, wenn man konstant im 30FPS Bereich bleibt, denn in der Regel reichte das, um gänzlich immer über 25fps zu bleiben.
Heutzutage schaffen die meisten Karten unter 1080p und 1440p die 60fps und seien wir ehrlich, dass sieht schon irgendwie besser aus.

Bei mir kam der aha Effekt erst sehr sehr spät - mit Fallout4. ;-)
 
Wieso haben sie bloß den DVI-Anschluss auf der Karte geggelassen, wenn er sogar auf dem Layout eingeplnt war :daumen2:
1. Bild in der Galerie.
AMD-Radeon-RX-480-RX-470-PCB-pcgh.jpg
Ich hoffe die 6 Fasen werden auch später ausgeführt, und sind nicht nur dafür dar vor release die übertaktbarkeit der neuen Chips aufzuzeigen, und werden später einfach ausgelassen...
Sind zwar sehr schöne Karten, aber für mich noch nicht Leistungsstark genug.
 
Wieso haben sie bloß den DVI-Anschluss auf der Karte geggelassen, wenn er sogar auf dem Layout eingeplnt war :daumen2:
1. Bild in der Galerie.
Anhang anzeigen 900401
Ich hoffe die 6 Fasen werden auch später ausgeführt, und sind nicht nur dafür dar vor release die übertaktbarkeit der neuen Chips aufzuzeigen, und werden später einfach ausgelassen...
Sind zwar sehr schöne Karten, aber für mich noch nicht Leistungsstark genug.

Du kennst schon die Leistung der RX? Dann immer raus damit ;) Es gibt ja noch nichtmal ein Offizielles Bios, deswegen glaube ich WCCFT auch nicht. 6 Phasen ist aber schonmal ne gute Ausstattung. der DVI wird von den Partnern kommen, aber ist eigentlich ebenso veraltet wie der VGA.. dann lieber für 10€ nen Adapter zulegen. Endlich sind Single Slot GPUs in Reichweite
 
Du kennst schon die Leistung der RX?
Nein. Sie werden aber nicht schneller als die 1080 sein, und diese wäre mir auch nicht stark genug :schief:
...der DVI wird von den Partnern kommen, aber ist eigentlich ebenso veraltet wie der VGA
Ja nur leider geht der Speichertackt (290X) bei mir mit Adapter direkt nach oben ohne nicht ;)
Ich finde es eben schade, dass er auf dem Layout angedacht aber nicht umgesetzt wurde. Genau so schade wie der 1080 die Fasen zu stutzen :daumen2:
 
DVI ist Blödsinn. Uralter, riesen Stecker, der nur den Luftstrom aus dem Case raus stört. Wer noch den alten Anschluss wie ich hat, der holt sich halt nen Adapter. Etwa der hier: Cable Matters® Gold überzogene Displayport auf DVI Mann zum weiblichen Adapter:Amazon.de:Computer & Zubehör
Kostet 10€. Jeder der sich ne GraKa für 200€ kauft kann auch die 10€ für nen Adapter verkraften.
Und selbst aktive Adapter kosten keine 15€: Sienoc Aktive DisplayPort DP 1.4 auf zu to DVI Adapter, AMD/ATI Eyefinity kompatibel 4K:Amazon.de:Elektronik
 
Zuletzt bearbeitet:
Uralter, riesen Stecker, der nur den Luftstrom aus dem Case raus stört.
Alt≠schlecht. Wenns auf das bischen Luftstrom ankommt, hat man ganz andere Probleme...
Wer noch den alten Anschluss wie ich hat, der holt sich halt nen Adapter.
Das mag auf DVI-SingleLink zutreffen bis 1920x1200, dann würde ich aber von HDMI Adaptieren weil es die "gleiche" Schnittstelle ist.
Bei DVI-DualLink also Auflösungen größer 1920x1200 sind es direkt 50-100€ oder mehr. Dann kann man auch wieder über ein Custom Design nachdenken ;)

EDIT:
Wow danke, wusste nicht, dass die inzwischen so billig sind.

Ende meiner Meinung zu dem Thema
 
Zuletzt bearbeitet:
über dvi muss man wohl 2016 echt nicht mehr jammern. dvi ist steinalt, auch wenn dieser natürlich nicht unbedingt schlecht ist, aber er hinkt den anderen anschlüssen weit hinterher. noch dazu wird es sicherlich einige modelle geben die dennoch dvi verbaut haben.

gruß
 
Ich denk vor allem in dieser Preisklasse sollte man nicht gänzlich auf dvi verzichten. Das gehört zur Standardausstattung eines so gut wie jeden x beliebigen Monitor Modells jener, die sich oft durch die Preisklasse der Hardware angesprochen fühlen. Es kauft sich nicht jeder einen Monitor mit dp, und und ich mag stark behaupten dass in den meisten Fällen wo auf fhd gespielt wird noch ein dvi vorhanden ist.

Gesendet von meinem Z1 mit Tapatalk
 
Ich denk vor allem in dieser Preisklasse sollte man nicht gänzlich auf dvi verzichten. Das gehört zur Standardausstattung eines so gut wie jeden x beliebigen Monitor Modells jener, die sich oft durch die Preisklasse der Hardware angesprochen fühlen. Es kauft sich nicht jeder einen Monitor mit dp, und und ich mag stark behaupten dass in den meisten Fällen wo auf fhd gespielt wird noch ein dvi vorhanden ist.

Gesendet von meinem Z1 mit Tapatalk

Partnerdesigns ;) Wie immer..
 
Ich verstehs ehrlich gesagt nicht, gilt nicht nur fürs PCGH Forum, warum sich die Leute so dermaßen zerfleischen, nVidia und AMD steuern einen anderen Markt an mit den Launches und beide Frimen bringen offensichtlich was Gutes an den Start. Ist da nicht viel sinnvoller für den Konsument, sich klar darüber zu werden was man selbst braucht? Ich meine, wenn ich jetzt mal von meiner Situation ausgehe, ich habe nene 4K Sony Bravia 55" ergo brauche ich HDMI2.0 und ne Karte in der mein mITX Rechner auch noch paar FPS bringt, bis jetzt war das 6700K mit GTX980 Gespann da klar unterlegen, deshalb kommt ne GTX1080 ins Define 304. Mein Streaming Rechner mit den 2 Titan X bleibt erstmal wie er ist, weil der Leistungszuwachs mir dort nicht ausreicht, zumal bei der GTX1080 die SLI Geschichte noch nicht ausgereift ist und ich mehr als nur Balken in Benchmarks brauche. 4K hat einfach brutale Anforderungen.
Meine Freundin hat ne GTX970 gehabt und wird die neue RX 480 bekommen, weil sie in FHD spielt und ich ihr was kaufen möchte, womit sie mal ne Weile ihre Ruhe hat, weil sie nicht, so wie ich z.B., Bock hat jeden Tag PCs zu bauen oder rum zu basteln an der Hardware, die will einschalten und Spass haben. Mir erscheint da die AMD ne gute Wahl zu sein, weil sie ein rundes Feature Paket mit sich bringt und offensichtlich (genau weiss man das ja noch nicht) genügend Performance, dass FHD Ultra kein Thema darstellt für die kommenden Gaming Titel. Und es gibt ja mehr als nur Zocken, gerade weil AMD jetzt HDMI2.0b an Bord hat und .265 ist das interessant.
 
Zuletzt bearbeitet von einem Moderator:
Zurück