AMD Radeon VII: 3DCenter fasst 18 Testberichte zusammen

Ab 120Hz muss man schon verdammt gute Augen haben um einen Unterschied zu erkennen (120Hz versus 240Hz). Zumal die Panels oft TN sind. Ich würde bei 120Hz oder 144Hz lieber in eine höhere Auflösung investieren, als noch höhere Frameraten, weil das im seltenen Fall mehr wahrnehmbare "Weichheit" beim spielen bringt. Mit VRR um 100Hz ist es für den Grossteil irgendwann sowieso Vergangenheit. Da sieht man keine Unterscheide würde ich behaupten. Als Empfehlung für eine Marktdurchdringung würde ich 244Hz daher nicht sehen, eher für denjenigen interessant der empfindlich auf niedrigere Werte reagiert.

Man sollte immer daran denken das es oft übertaktete Panels sind (Overdrive), die dann zu anderen negativen "Effekten" wie sichtbares Ghosting neigen.

Ich persönlich ziehe einen 60Hz VA Monitor einem 240Hz TN Panel vor, aber nicht alle sind so. Wenn man weiß, worauf man achten muß, dann kann man da durchaus etwas sehen, außerdem geht es den Profis darum, das letzte bisschen herauszuholen.Tatsache ist eben, dass sich die Dinger verkaufen und Tatsache ist auch, dass man, wenn die Dinger wirklich ausgenutzt werden sollen, ein richtig gutes System braucht, schnelle Graka, 32GB RAM, SSD und i9 9900K inklusive.
 
"Dort helfen zudem die 16 GiByte HBM2-RAM mit hoher Bandbreite. Signifikant wird der Unterschied in Full HD, allerdings wird kaum jemand eine ~700-Euro-Grafikkarte für diese Auflösung kaufen. Bemerkenswert ist zu guter Letzt die Verbesserung gegenüber der Radeon RX Vega 64, die sich auf knapp 26 bis 35 Prozent beläuft - gemittelt sind es 30,4 Prozent. Der zusätzliche Takt und der schnellere Speicher schlagen hier gut durch."

Es ist schon klar das jemand eine R7 oder 2080 für 4K kauft aber warum soll man bei der R7 diesen signifikanten Unterschied in FHD hinnehmen? Ich spiele in 4K mit einer 1080 ABER muss für ältere Spiele wie zum Beispiel ANNO 1404 meine Dekstopauflösung in 1080 ändern und die Schriftgröße ändern und 1404 kann man nicht in 4K spielen sondern nur in 1440. Ist nicht das einzige Spiel wo man die Auflösungen ändern muss und da eben nicht jedes Spiel in 4K spielbar ist soll man dann in FHD Verluste hinnehmen aber 700€ zahlen? Ich nicht.

Was ist bitte bemerkenswert bei einer Steigerung von nur 30% gegenüber der Vega 64? OK, bemerkenswert ist das AMD nur einen Rebrand bringt also alte Vega-Architektur und dafür 700€ verlangt. Somit ist 1080TI-Leistung kein Stückchen günstiger geworden obwohl es neue GPU´s gibt. Dann immer dieses Zukunftssicher als ob 16GB helfen wenn in einem Jahr dann die Leistung fehlt.

Der Leistungsindex hier bei PCGH gefällt mir und sagt nichts anderes aus wie jetzt die 18 Testberichte die 3DCenter zusammen gefasst hat.
AMD hat stark abgebaut was die Mehrperformance neuer Generationen betrifft. Eine Fury X hat nur (PCGH-Index) 21% mehr gegenüber einer 390. eine Vega 64 nur 38% mehr gegenüber einer Fury X und die R7 nur 30% gegenüber einer Vega 64. Das finde ich alles nicht bemerkenswert sondern enttäuschend.

Dieses auf Navi projeziert das bei einer 590 immer noch 6% bis zur Fury X fehlen wird Navi wohl nur bis Vega 56-Leistung kommen.

Wie gesagt ist alles nicht bemerkenswert sondern sehr enttäuschend was Nvidia und AMD uns derzeit andrehen wollen.
 
Ich persönlich ziehe einen 60Hz VA Monitor einem 240Hz TN Panel vor, aber nicht alle sind so. Wenn man weiß, worauf man achten muß, dann kann man da durchaus etwas sehen, außerdem geht es den Profis darum, das letzte bisschen herauszuholen.Tatsache ist eben, dass sich die Dinger verkaufen und Tatsache ist auch, dass man, wenn die Dinger wirklich ausgenutzt werden sollen, ein richtig gutes System braucht, schnelle Graka, 32GB RAM, SSD und i9 9900K inklusive.
Das Problem ist das nicht alle Engines so hohe Frameraten unterstützen, siehe z.Bsp. Wolfenstein - bei 200fps ist Ende. Da macht sich die Sychronisation sicher besser. Freessync 2 (LFC) oder GSync braucht nicht immer so hohe Framerate, da es möglich ist Bilder dann auch mehrfach auszugeben, dass merkst du imo nicht.

Wenn es so ein Panel sein soll, dann auf jeden Fall VRR unterstützt. Mir geht es bei LCD dann eher um Schaltzeiten (wie ich informiert war), die kann man mit herkömmlichen Techniken und bestimmter preislicher Segmentvorstellung der Käufer vorerst nur erreichen, wenn man Spannungen anhebt, was klar zum "Nachschwingen" der Kristalle führt. Aber das führt uns weiter weg vom grundlegenden Thema. Alles andere dürfte ja richtig teuer werden und passt nicht unbedingt in den Bereich 1080p.

Da die typischen "Themenanheizer" gerade anfangen ihr Unwesen zu treiben, bin ich dann lieber weg. Man lebt so ruhiger.:up:
 
Die verbrauchen auch mehr und sind zu oft teurer. Am Besten man vergleicht die Referenz, alles andere ist spezielle Hardware die man in Einzeltest betrachten sollte. Was ja auch gemacht wird. So gibt es von der 2080 preislich von 649 bis 900$ und von der 2080ti 999 bis 1698$ die volle Bandbreite an möglichen Versionen und Ausstattungen. Mit beiden kann sich die Seven anlegen (GT104 Gaming und GT102 Anwendungen/Profi). Das alles möglichst in Tests mit einzubeiziehen geht nicht, man fokussiert sich dann auf sein Klientel (Leserschaft), spricht das andere aber an. Dazu noch neue Treiber usw.. Da bekommen Raff und Co. gar keinen Urlaub mehr.

Die FE haben praktisch keine Relevanz am Markt, da es fast nur Customs gibt, die alle ~1900 MHz fahren.
 
Und die 144 Frames in BFV unter 1080p passen nicht so in deine Argumentation die ein anderer Reviewer mit Preset Ultra gemessen hat?
Es kommt ja zuletzt auf die Benchmarkssezene an, auch die 2080 oder 2080ti hält nicht immer deine 60fps unter UHD.

Was du daher hier schon wieder betreibst, ist feinstes Cherry Picking, dass du und du und du auch ständig deinem Diskussionspartner gegenüber vorwirfst.

Wenn du in AMD-Hardwarthread nicht findest was du suchst, meide sie doch einfach. Dieses ständige Mitteiluingsbedürfnis hilft hier niemanden weiter. Bis zu 35% zur Vega64 sind genausoviel wie nVidia abgeliefert hat. Also wo liegt dein Problem, du willst keine sinkenden Preise, du willst nicht mehr VRAM für alle. Was dann, die radeon VII vernichten? Sieht für mich anders aus.:D

Was willst du dann - bashen, blubbern, trollen bis der Tag zu Ende geht? Bist du nicht genauso wie scully1234 und Schaffe89 im Luxx gesperrt? Zufall? Bitte nicht am gleichen Tag!

Nochmal, ich spreche von 60-FPS-verfechtern !

Wenn dir 30-35FPS reichen dann ist das schön für dich und ich wünsche dir weiterhin viel spass. Es gibt aber sehr viele user da draussen die grössere ansprüche an die performance stellen : http://extreme.pcgameshardware.de/n...n-die-geforce-rtx-2080-a-101.html#post9730411

...schließe also bitte nicht von dir auf andere !

Was willst du dann - bashen, blubbern, trollen bis der Tag zu Ende geht? Bist du nicht genauso wie scully1234 und Schaffe89 im Luxx gesperrt? Zufall? Bitte nicht am gleichen Tag!
Ich bin dort nicht einmal angemeldet, provoziere hier nicht rum !
 
Ich persönlich ziehe einen 60Hz VA Monitor einem 240Hz TN Panel vor, aber nicht alle sind so. Wenn man weiß, worauf man achten muß, dann kann man da durchaus etwas sehen, außerdem geht es den Profis darum, das letzte bisschen herauszuholen.Tatsache ist eben, dass sich die Dinger verkaufen und Tatsache ist auch, dass man, wenn die Dinger wirklich ausgenutzt werden sollen, ein richtig gutes System braucht, schnelle Graka, 32GB RAM, SSD und i9 9900K inklusive.
Das Problem ist, dass nicht alle Engines so hohe Frameraten unterstützen - siehe z.Bsp. Wolfenstein, bei 200fps ist Ende. Da macht sich Sychronisation sicher besser. Mit Freesync2 (LFC) oder GSync braucht so hohe Framerate nicht, da es möglich ist Bilder dann auch mehrfach auszugeben, dass merkst du imo nicht.

Wenn es so ein Panel sein soll, dann auf jeden Fall VRR unterstützt. Mir geht es bei LCD dann eher um Schaltzeiten (wie ich informiert war), die kann man mit herkömmlichen Techniken und bestimmter preislicher Segmentvorstellung der Käufer vorerst nur erreichen, wenn man Spannungen anhebt, was klar zum "Nachschwingen" der Kristalle führt. Aber das führt uns weiter weg vom grundlegenden Thema. Alles andere dürfte ja richtig teuer werden und passt nicht unbedingt in den Bereich 1080p.

Da die typischen "Themenanheizer" gerade anfangen ihr Unwesen zu treiben, bin ich dann lieber weg. Man lebt so ruhiger.:daumen:

PS:....sunyego - Du schreibst wieder deinen üblichen nVidia-Marketing Bullshit. Was machst du dir Gedanken über andere, die können ganz gut allein entscheiden. Vielleicht liegt es in höheren Auflösungen ja auch an der CPU die man verwendet, könnte ja sein.

Falls du deiner Haus-Redaktion ans Bein pillern willst, mach das. Ich würde mir überlegen ob das gerechtfertigt ist, wenn sie dir schon kostenlos erlaubt so ein Portal zu benutzen.

sunyego schrieb:
...provoziere hier nicht rum ! Du haben verstanden ?
Du darfst das und andere nicht? Was sonst?
 
Zuletzt bearbeitet:
Aktuelle gehe ich einfach von dem Treiber aus, zumindest der Release Treiber war sehr bescheiden.
Ja, leider zum Wiederholten mal. Das soll mal einer verstehen, die übergeben ihr Top Produkt an die Presse zum Testen. Diese stellt fest, dass der Treiber sehr viele Bugs hat und AMD bestätigt nur, sie wissen davon. Was macht das für ein Bild?
Zusätzlich scheint es bei AMD seit Jahren das Motto zu sein, "Bald kommt noch der "richtige" Treiber." Der kommt nur leider selten, wie bei der 7970*, meist gar nicht, wie beim R600, Fury, Vega.

*Obwohl dieser Bug in der Renderpipeline, den AMD zwar kannte, aber nicht die Ursache, auch schon peinlich war.
 
Über Treiber-Bugs darf sich nVidia auch nicht beschweren, angefangen bei Blackscreens wegen fehlendem HDMI Support. Es ist bei beiden durchwachsen. Sie bekommen es sonst bei Launch tatsächlich besser hin wie AMD. Diesmal ist es jedenfalls nicht gelungen, dass Hauptfeature RT das man bei Neuvorstellung auch noch massiv als Preissteigerungsgrund vorhält und bewirbt, ist nirgends in Sicht und eher im Demomode. Die Hardware ist nicht leistungsfähig genug (im Enthusiast mit RT) und die Ausstattung lässt dahingehend zu wünschen übrig (VRAM - RTX belegt zusätzlich VRAM).

AM 10. Januar stieg (wie ich ankündigte) Softbank aus der Aktie aus, einer der größten Investoren in der Techniksparte. Die sehen bei RT keinerlei Wachstum, sonst würden sie das nicht machen mit dem Grossteil an NVidia-Aktien die sie halten. Jensen lügt einfach nur umher woran es alles liegen könnte, nur nicht an nVidia selbst. Morgen sehen wir dann die Quartalszahlen.

In 5-10 Jahren ist das Thema wieder interessant oder nVidia finanziert es allein, was ich absolut nicht glaube. Das Navi daher mit RT kommt ist unglaubhaft. Wenn dann, als Chance für AMD mehr auf Vulkan zu setzen.
 
Man kann es ja auch mal anders betrachten: Die Faustformel sagt, im Schnitt werden Differenzen bei der Performance am PC erst ab ca. 15% spürbar. Also sind die 2080 und die R7 bis dahin (+- 15%) zumindest gefühlt gleich schnell. :D

Die R7 als Custom sollten leiser sein, Problem Nr. 1 (Lautstärke) gelöst. Vielleicht wird dann auch etwas sorgsamer mit den Spannungen umgegangen, Problem Nr. 2 (Stromverbrauch) zumindest verbessert. Und wenn sie dann noch einigermaßen im Preis fallen, Problem Nr. 3 (Preis/Leistung) gelöst. Wer über ausreichend Barmittel verfügt interessiert sich schon jetzt weniger für den Preis, wer "Hand" anlegt (UV) etwas weniger für Verbrauch und Lautstärke, und wer die Rothaarige sowieso baden wird (= WaKü) interessiert sich gleich gar nicht für die Serienkühlung.

Selbstverständlich könnte es besser sein, aber weder ist es eine "5800Ultra" bezüglich Lautstärke, noch bzgl. Leistung geworden, was so mancher User ja nicht müde wird zu behaupten/suggerieren.
 
Warum streitet ihr euch? Das ist doch Nvidia und AMD nicht wert!
Ich als alter Gamer und ATI-Fan bin von AMD seit der 300er Serie enttäuscht da einfach keine Mehrperformance zustande kommt. Bei der RX 480 hatte ich Fury X-Leistung erwartet und eine RX 590 fehlt immer noch 6% dazu. Eine Geforce kam mir die ganzen Jahre nie in den Sinn da wie gesagt alter ATI-Fan. Doch seit Release der 1070 war ich von dieser Karte angetan jedoch für über 300€ war die mir zu teuer da ich immer Karten der Mittelklasse hatte wie 4870 und 280X. Wollte auch mindestens 100% mehr Leistung gegenüber der 280X. Da aber wegen dem Mining-Boom die Preise der 1070 nicht fallen wollten habe ich bei der 1080 zugeschlagen und wenn ich heute diese maue Mehrperformance sehe und das 1080TI-Leistung immer noch so teuer ist bin ich zufrieden mit meiner Entscheidung diese 499€ bezahlt zu haben aber soviel Geld hatte ich noch nie bezahlt für einen Pixelschubser.

Derzeit bin ich sehr enttäuscht von AMD und Nvidia da sie die Gamer nur über den Tisch ziehen und jetzt ist es Zeit das wir solch ein Marketing und Abzocke quittieren mit Nichtkauf. Erste Anzeichen zeigen ja die Quartalszahlen das AMD und Nvidia eins auf die Mütze bekommen. Nur als alter ATI-Fan bin ich trotzdem mehr über AMD enttäuscht da sie jetzt auch Nvidia das Mittelklasse-Feld überlassen und bis Navi wohl kommt sagen die Gerüchte 3tes Quartal.

Klasse Show AMD. Hat die PS5 etwas damit zu tun?
 
Monitore kaufe ich bsw. mit dem Hintergedanken, dass diese ein paar GPU-Gens überleben werden. Ergo lieber zum etwas höher Qualitativen greifen.
Deshalb schaffte ich vorletztes Jahr gleich FS2-Monitore. Da mir Bildqualität wichtiger ist als maximum Hertz gab's VA mit 1440p@144Hz.
Zwei davon werden nun sehr wahrscheinlich auf technischer Basis erst sterben müssen, ehe die wieder ersetzt werden. Das kann also Jahrzehnte gehen.
Einer wird wahrscheinlich einer mLED-Version weichen müssen, was auch noch Jahre oder Jahrzehnte dauern kann :ugly:

Zu den Treibern:
Da wartet man ja auch immer noch auf den Low-Level-Wundertreiber bei NVidia für die eine oder andere Gen ;)

Nichtsdestotrotz, die VII wirkt definitiv an allen Ecken und Enden wie ein enorm kurzfristig auf die Beine gestelltes Produkt. AMD verhält sich hier streckenweise alles andere als souverän. Insbesondere sollte man doch wissen, was passiert wenn man ein NVidia FX5800-Föhn-Äquivalent bringt. (gut ganz so schlimm ist es nicht, aber trotzdem, hohe Lautstärke war ja schon ein Genickbrecher bei der R9 290(X)-Referenz)
Die Grünen zogen hier offenbar mittlerweile ihre Lehren daraus.

PCGH gibt's zum neuen Tripple-Föhn evtl. wieder ein Schalkvideo? :ugly:
 
Und wer kauft sich eine 699$ Karte für 1080p?

Ich würde es tun ;)

Man kann es ja auch mal anders betrachten: Die Faustformel sagt, im Schnitt werden Differenzen bei der Performance am PC erst ab ca. 15% spürbar. Also sind die 2080 und die R7 bis dahin (+- 15%) zumindest gefühlt gleich schnell. :D

Die R7 als Custom sollten leiser sein, Problem Nr. 1 (Lautstärke) gelöst. Vielleicht wird dann auch etwas sorgsamer mit den Spannungen umgegangen, Problem Nr. 2 (Stromverbrauch) zumindest verbessert. Und wenn sie dann noch einigermaßen im Preis fallen, Problem Nr. 3 (Preis/Leistung) gelöst. Wer über ausreichend Barmittel verfügt interessiert sich schon jetzt weniger für den Preis, wer "Hand" anlegt (UV) etwas weniger für Verbrauch und Lautstärke, und wer die Rothaarige sowieso baden wird (= WaKü) interessiert sich gleich gar nicht für die Serienkühlung.

Selbstverständlich könnte es besser sein, aber weder ist es eine "5800Ultra" bezüglich Lautstärke, noch bzgl. Leistung geworden, was so mancher User ja nicht müde wird zu behaupten/suggerieren.

Ich denke nicht das die Partner an der Spannung drehehn, einzig werden die niedrigeren Temperaturen für etwas weniger Verbrauch sorgen, wie bei Fury und Vega und R9 290/390.
 
Zuletzt bearbeitet:
Über Treiber-Bugs darf sich nVidia auch nicht beschweren, angefangen bei Blackscreens wegen fehlendem HDMI Support. Es ist bei beiden durchwachsen. Sie bekommen es sonst bei Launch tatsächlich besser hin wie AMD.
Richtig, nVidia bekleckert sich auch nicht grade mit Ruhm, besonders wieder mit dem aktuellen Treiber, aber sie liefern im Schnitt die konstantere Leistung und zwar ab Launch.

Selbstverständlich könnte es besser sein, aber weder ist es eine "5800Ultra" bezüglich Lautstärke, noch bzgl. Leistung geworden, was so mancher User ja nicht müde wird zu behaupten/suggerieren.
War "der Fön" denn leiser?
 
Monitore kaufe ich bsw. mit dem Hintergedanken, dass diese ein paar GPU-Gens überleben werden. Ergo lieber zum etwas höher Qualitativen greifen.
Deshalb schaffte ich vorletztes Jahr gleich FS2-Monitore. Da mir Bildqualität wichtiger ist als maximum Hertz gab's VA mit 1440p@144Hz.
Zwei davon werden nun sehr wahrscheinlich auf technischer Basis erst sterben müssen, ehe die wieder ersetzt werden. Das kann also Jahrzehnte gehen.
Einer wird wahrscheinlich einer mLED-Version weichen müssen, was auch noch Jahre oder Jahrzehnte dauern kann :ugly:

Zu den Treibern:
Da wartet man ja auch immer noch auf den Low-Level-Wundertreiber bei NVidia für die eine oder andere Gen ;)

Nichtsdestotrotz, die VII wirkt definitiv an allen Ecken und Enden wie ein enorm kurzfristig auf die Beine gestelltes Produkt. AMD verhält sich hier streckenweise alles andere als souverän. Insbesondere sollte man doch wissen, was passiert wenn man ein NVidia FX5800-Föhn-Äquivalent bringt. (gut ganz so schlimm ist es nicht, aber trotzdem, hohe Lautstärke war ja schon ein Genickbrecher bei der R9 290(X)-Referenz)
Die Grünen zogen hier offenbar mittlerweile ihre Lehren daraus.

PCGH gibt's zum neuen Tripple-Föhn evtl. wieder ein Schalkvideo? :ugly:
Ist eine HPC Platine, da kann mir einer sagen was er will. Phase weggelassen, weil höheres Kühlpotential und man daher mit der VCore hochgehen kann, anderes Bios und ab. AMD wäre blöd wenn sie zeigen was MI alles kann. Ich glaube es ist der richtige Aufweckruf für nVidia. Protreibersupport inklusive.

Schmankl - meine Karte läuft mit 1701 bei 885mV UHD stable und durch (flüsterleise), jeden Benchmark, jedes Spiel das ich habe. Man ist auf Augenhöhe kann ich nur sagen. Klar man brauchte 16FFC von TSMC alias 7nm. Aber nVidias Bigchip sind auch kein Zucker schlecken.

Die brauchen nur eine Karte um alles ins Lot zu bringen TU-102 mit 12GiB (als 2085, der Memport ist schon da). Dann kann man das nachfolgende Portfolie wie man das schon bei Pascal gemacht hat, einfach abwerten (Preise senken) und wird es los. Ich glaube es kommt, also muss man nur durchhalten.

AMD kann nie und nimmer so viel VII an die Jünger ausliefern, warum steht im ersten Satz. Die müssen genauso wie nV ihre Investoren befriedigen - wenn nicht, Aktie "down". Das kann Su absolut nicht gebrauchen. Sie agiert auf dem Level von ehemals ATI, *picksen* weil der Riese strauchelt - passt imo derzeit.
 
Zuletzt bearbeitet:
Nichtsdestotrotz, die VII wirkt definitiv an allen Ecken und Enden wie ein enorm kurzfristig auf die Beine gestelltes Produkt. AMD verhält sich hier streckenweise alles andere als souverän. Insbesondere sollte man doch wissen, was passiert wenn man ein NVidia FX5800-Föhn-Äquivalent bringt. (gut ganz so schlimm ist es nicht, aber trotzdem, hohe Lautstärke war ja schon ein Genickbrecher bei der R9 290(X)-Referenz)
Die Grünen zogen hier offenbar mittlerweile ihre Lehren daraus.

Auch die 7970 war eine laute und heiße Karte aber die 290X übertraf alles ;-)

Ich hatte eine 280X aber sie war ein doch guter Rebrand der 7970GHZ da sie nicht mehr so laut und heiß war und man 7970GHZ-Leistung auch günstiger bekommen hatte von 550€ für eine 7970 und knapp 300€ für eine 280X. Das ist auch der Grund das ich seit der 300er Serie von AMD enttäusch bin denn eine 380 bot keine Mehrleistung zu einer 280. Für mich ist die R7 wirklich ein Rückschritt bei AMD da wieder laute und heiße GPU´s gebracht werden wie damals die 290X.

Warum schneidet sich AMD so sehr ins eigene Fleisch? Bei Bulldozer hatten sie reagiert und gesehen das es so nicht mehr weitergeht da diese auch laut, heiß und stromhungrig waren. Warum wird die RTG so in den Boden gefahren und WARUM wird ein Flop wie Vega der nicht durch Leistung und auch nicht durch gute Verkäufe überzeugt hatte einfach in Version 2.0 rausgehauen?

Die R7 ist nur ein Rebrand und zwar ein beschnittener da keine 4096 Shader und dazu ein sehr schlechter. Wenn das damals schon so gewesen wäre hätte ich mir die 770 gekauft anstatt die 280X.
 
War "der Fön" denn leiser?

Wenn man den Tests von Computerbase glauben darf, dann war er das und zwar deutlich!

Die GeForce FX 5800 Ultra wurde damals für ihre extreme Lautstärke von 45dB verrissen, Vega VII bringt es auf 51 dB, damit wird die Karte als doppelt so laut empfunden als "der Föhn". Auch die Vega 64 war, mit 50 dB, deutlich lauter.
 
Bastlerkarte triffts halt ganz gut. Irgendwie ist das kein wirklich rundes Endprodukt sondern setzt die andern 2 Vega Karten im Prinzip fort. Sehr laut, sehr ineffizient, Treiber nicht optimal dafür aber gute Specs für den Preis.

Da ich auf der Arbeit schon mit Technik zu tun habe, hab ich keine Lust in meiner Freizeit noch mit unausgegorenen Produkten rumzuexperimentieren. Dann lieber ne Nvidia Karte die bau ich ein und dann läuft das Ding unauffällig. Treiber bei Nvidia in letzten Jahren nie ein Problem gehabt. Meine RX480 damals dafür ständige Treiberabstürze, hab die dann verkauft.
 
Zurück