GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Hinter mir steht 10 Jahre lange Computergeschichte. Die meisten Grafikkarten wurden wegen Vram obsolet, bevor die Chip-Leistung nicht mehr ausgereicht hat. Ich werde da auf keine Grundsatzdiskussionen anfangen. 6-8GB sind jetzt Pflicht, in 2 Jahren zu wenig.

Wenn man immer auf den höchsten Einstellungen spielt, klar. Wenn man jedoch die Settings moderat runterdreht und auf die gegebene Hardware anpasst, stößt man auf wenige Probleme. Du kannst selbst RDR2, wohl den fordernsten, VRAM fressendsten Open World Titel, mit nur 2 GB VRAM gut spielen (auf mittleren Texturen natürlich)
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Weil es auch keinen Sinn macht jene Karten für UHD zu empfehlen weil es nicht am VRAM scheitern wird sondern einfach an der Leistung. Was soll ein 100L Tank im Polo. Etwas relativieren kann man schon.
Bei Ultra-HD braucht man schon 10GB+. Ich sprach von 1080p, der wohlverbreitesten Auflösung.
Wenn man immer auf den höchsten Einstellungen spielt, klar. Wenn man jedoch die Settings moderat runterdreht und auf die gegebene Hardware anpasst, stößt man auf wenige Probleme. Du kannst selbst RDR2, wohl den fordernsten, VRAM fressendsten Open World Titel, mit nur 2 GB VRAM gut spielen (auf mittleren Texturen natürlich)
Und sollte man so etwas als Neu empfehlen, wenn man zum selben Preis eine RX 5700 bekommt, mit 8GB Vram, wo man auch in 2 Jahren auf mittleren Einstellungen spielen kann?
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

doppelpost
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Wie kommst du darauf, dass der VRAM Bedarf mit den neuen Konsolen stark ansteigen wird? Die haben selbst nur 13 GB Shared RAM/VRAM, das meiste davon geht wohl für den RAM drauf, bleiben also ungefähr 5-6 GB für den VRAM, wenn man dann noch mit einberechnet, dass das 4K Konsolen sind (also benötigen sie auch dementsprechend hochauflösende Texturen) ist man mit 6 GB VRAM auf 1080p und eventuell sogar noch auf 1440p gut gerüstet, solang man die Texturen in kommenden Next Gen Games nicht auf Ultra stellt. Noch dazu setzen die Konsolen auf SSD Streaming (deswegen ist der RAM eher mickrig) BTW bewegt sich der Memory-Bedarf von den meisten modernen Titeln in 1080p-1440p auf ungefähr 3,5 GB und das auch meistens mit Ultra-Texturen, die auch besser aussehen als auf den Konsolen.

Wenn man dann noch bedenkt, dass die Speicherkompression unter Turing ziemlich gut ist, dass DX12 mit memory saving Features wie Sampler Feedback ausgestattet wird und RTX ebenso noch Optimierungen bekommt (DXR 1.1) sehe ich da keine Probleme, zumindest in 1080p. 1440p ist 50/50
Sehe ich genauso. Sollte RDNA2 dann noch den NGG Pfad beherrschen und den Draw-Binning-Rasterisierer inklusive Primitiv Shader (Meshshader) an Bord haben, reichen für Konsolen 12-13 GiB vollkommen aus. Die setzen eher auf SSD Streaming, was auch kein Problem ist, weil man den ganzen PC Kropf, der da noch dran hängt gar nicht beachten muss.
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Raytracing hat in dem Segment fast zu keine Relevanz, wenn man solche Feature als Art Luxusgut oder Alleinstellungsmerkmal für Early Adopter ausführt.

Interessant, deshalb unterstützen es wohl auch die Konsolen, weil das nur als Luxusgut gilt.:schief:

Nicht jeder und ich behaupte mal der größte Teil der Käufer will ein Experimentiersystem.

Ach brave neo/gastello/olletsag, lieber die Raytracingleistung mitnehmen, als nicht haben und später haben wollen.
Aber ich hab echt noch nie davon gehört, dass zu viele Features ein Nachteil sein können.:D

Das Pferd hat Nvidia wegen ihres Profit aus der Sache, mal wieder von hinten aufgesattelt.

Nvidia hätte auch die ganze Geschichte bleiben lassen können und hätte sich ganz einfach ohne RT aus der Verantwortung ziehen können.
Nur muss die Branche auf lange Sicht einen Vorteil erzielen, und den wird man ohne Hybrid RT nicht sehen.

Für den größten Teil zählt nur der Preis und die ganzen Early Adopter Käufer der RTX 2060 und ohne S Karten, dürften sich reichlich veräppelt vorkommen.

Warte mal, das sind auf ein Jahr gerechnet 100 Euro Ersparnis, also weniger als 10 Euro im Monat.
Bezieheungsweise, die 2060 ist nach einem Jahr um ganze 50 Euro gefallen, ja, das ist natürlich eine Mega-Verarsche.
Bei der nächsten Generation unterliegen die Karten einem noch viel größeren Wertverfall - ziehst du dann vor Gericht?:schief:

Da hat eine langsamere 2080 zum Anfang fast 900€ gekostet, die Nvidia im Abverkauf für 650 verschleuderte.

Wenn man die teuerste und die günstigste Karte nimmt und somit den Vergleich ins Lächerliche zieht dann ja.
Aber ich hab auch für dich noch einen: Nimm die Radeon VII mit ihren 729 Euro zum Release und schau dir jetzt die eigentlich bessere 5700XT - für gerade mal 380 Euro an.:)
Gleich mal 250€ in nicht mal 12 Monaten entwertet. Von wegen Enthusiast! Wers glaubt wird seelig.

Nur gab es die günstigeren RTX 2080 Modelle schon immer für knapp über 700 Euro, womit deine Rechnung Käse ist.

Das Blackscreenproblem von Pascal schon vergessen? Dunkle Bildschirme wegen Problemen mit dem HDMI Anschluss? Nicht fixbar, Nvidia saß es wie immer aus. Bei den Partner musste man um gemoddete Biose betteln. Der Support antworte nur widerwillig auf Anfragen.

Ach, dein Whataboutism in allen Ehren, aber nur fürs Protokoll: Auch Nvidia hatte Probleme, zum Launch sind einige Karten abgeschmiert und ich habe mich mit dem Kauf der 2080Ti einige Zeit zurückgehalten.

Zuweilen mit völlig hohlen und übertriebenen Argumenten und Formulierungen.

Weiß nicht was daran hohl ist, wenn man einer RTX 2070 zum gleichen Preis wie einer 5700XT den Vorzug gibt.
Eigentlich ist das hinsichtlich des Featuresets nur folgerichtig, aber ich vergaß, das Featureset gilt nur dann wenn AMD es in viel geringeren Rahmen nutzen kann. (Async Compute).
Was gab es damals hirnrissige Diskussionen wegen diesem Feature, welches bis heute die Leistung kaum oder gar nicht verbessert.

Wenn das erst in zukünftigen Gens der Fall ist, warum sollte ich es heute schon vorfinanzieren, wozu?

Wieso? Vorrausgesetzt du behältst deine GPU ein paar Jahre, hast du DXR oder das Pendant der Khronos Group vermutlich in jedem zweiten Spiel.:huh:

Solange AMD, sicher auch Intel und Konsolenhersteller da nicht mit einsteigen, können alle noch so mit Armen und Beinen fuchteln und AMD tut derzeit nichts anderes als Nvidia es mit DX12 tat, sie lassen sie am langen Arm verhungern.

Ist eine Verschwörungstheorie, Nvidia hat sich gegen die Nutzung von Directx12 nie gesperrt, sondern die Spieleentwickler haben Zeit gebraucht es zu implementieren.
Featureset älter als Pascal? Dafür hätte ich gerne einen Link.

Älter nicht, aber etwa auf dem Niveau.
 
Zuletzt bearbeitet:
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Sehe ich genauso. Sollte RDNA2 dann noch den NGG Pfad beherrschen und den Draw-Binning-Rasterisierer inklusive Primitiv Shader (Meshshader) an Bord haben, reichen für Konsolen 12-13 GiB vollkommen aus. Die setzen eher auf SSD Streaming, was auch kein Problem ist, weil man den ganzen PC Kropf, der da noch dran hängt gar nicht beachten muss.
Ihr erinnert mich an die Versicherungskaufmänner, die nur von Prozenten reden und an der kleinsten einstelligen Prozentzahl hängen bleiben und erzählen, es wäre maßgebend. Was zählt ist 8Gb vs 6GB zum selben Preis, relativ sind es 25% mehr, absolut 2GB mehr. Ich nehme das gerne mit, ihr könnt das natürlich liegen lassen :D
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Interessant, deshalb unterstützen es wohl auch die Konsolen, weil das nur als Luxusgut gilt.:schief:



Ach brave neo/gastello/olletsag, lieber die Raytracingleistung mitnehmen, als nicht haben und später haben wollen.
Aber ich hab echt noch nie davon gehört, dass zu viele Features ein Nachteil sein können.:D



Nvidia hätte auch die ganze Geschichte bleiben lassen können und hätte sich ganz einfach ohne RT aus der Verantwortung ziehen können.
Nur muss die Branche auf lange Sicht einen Vorteil erzielen, und den wird man ohne Hybrid RT nicht sehen.



Warte mal, das sind auf ein Jahr gerechnet 100 Euro Ersparnis, also weniger als 10 Euro im Monat.
Bezieheungsweise, die 2060 ist nach einem Jahr um ganze 50 Euro gefallen, ja, das ist natürlich eine Mega-Verarsche.
Bei der nächsten Generation unterliegen die Karten einem noch viel größeren Wertverfall - ziehst du dann vor Gericht?:schief:



Wenn man die teuerste und die günstigste Karte nimmt und somit den Vergleich ins Lächerliche zieht dann ja.
Aber ich hab auch für dich noch einen: Nimm die Radeon VII mit ihren 729 Euro zum Release und schau dir jetzt die eigentlich bessere 5700XT - für gerade mal 380 Euro an.:)


Nur gab es die günstigeren RTX 2080 Modelle schon immer für knapp über 700 Euro, womit deine Rechnung Käse ist.

Ich warte noch auf die mehr als 6 SPiele...
Und bevor du wieder behauptest du hast das mit den 6 Spielen hier nicht behauptet:

Zitat Zitat von HardwareHighlander Beitrag anzeigen
DLSS wird in wesentlich mehr als 6 Spielen genutzt und wird mit den neuen Verbesserungen schlicht zum Killer-Feature, wenn die Verbreitung zunimmt.
So kann man bei gleichbleibender Qualität nämlich GPU Aufrüstungen deutlich länger hinauszögern.


Und lesen nicht deine Stärke er sagt es ist was für Early Adoper und zur Zeit nicht relevant, das gleiche was ich immer sag, bis es relevant wird sind die meisten jetzigen RT karten zu langsam..
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Letztlich kommt es nicht darauf an was du mitnehmen willst, sondern was du bezahlen musst. Es hat den Anschein als wollten alle anderen nicht bezahlen was ihr mitnehmen wollt. Hardware ist teuer, Softwareoptimierung auch, aber weniger Verschwendung.

Gibst du Entwicklern 30GiB VRAM GDDR 6 (7, 8 oder 9), klatschen sie dir den auch voll. Gibst du ihnen weniger, müssen sie sich Gedanken machen mit dem auszukommen was sie zur Verfügung haben.

Das Potential liegt nicht im endlosen Ausbau der Hardware brach, sondern auf Softwareebene!
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Bei Ultra-HD braucht man schon 10GB+. Ich sprach von 1080p, der wohlverbreitesten Auflösung.

Und sollte man so etwas als Neu empfehlen, wenn man zum selben Preis eine RX 5700 bekommt, mit 8GB Vram, wo man auch in 2 Jahren auf mittleren Einstellungen spielen kann?

Dass man für 1080p 6 GB VRAM in 2019 braucht, ist Unsinn. Und wie du gleich feststellen wirst, sind auch für 4K 8 GB VRAM ausreichend (nix mit 10 GB+)

RDR2:

vram.png

Control

vram.png
Gears 5 mit High Res Texture Pack (was bedeutend besser aussieht als auf der Xbox One X)
vram.png

Metro

vram.png

Da ist noch genug Puffer.

Deine RX mag zwar 2 GB mehr haben, ist aber von der Architektur her deutlich hinter einer RTX 2060 und wenn deine Vermutung sich bewahrheitet, dass mit den Next Gen Konsolen der VRAM Verbrauch signifikant steigt, dann werden 8 GB ebenfalls nicht mehr ausreichend sein. Das kann man heute nicht so genau sagen.
 
Zuletzt bearbeitet:
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Was du machst ist statistisch ein Nullsummenspiel.

Mache ich das? :D War mir gar nicht bewusst. Ich habe halt Zweifel daran, dass man die Quoten direkt vergleichen kann , weil Navi Karten vermutlich sofort ohne RMA Prozess zurückgeschickt wird. Aber ja, es ist nur eine Theorie.
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Deine RX mag zwar 2 GB mehr haben, ist aber von der Architektur her deutlich hinter einer RTX 2060 und wenn deine Vermutung sich bewahrheitet, dass mit den Next Gen Konsolen der VRAM Verbrauch signifikant steigt, dann werden 8 GB ebenfalls nicht mehr ausreichend sein. Das kann man heute nicht so genau sagen.
Und dafür verlinkt du dann Benchmarks einer 2080ti, klar! Wenn eine 2060 wirklich auf ihr llw-Featureset zugreifen muss, schlägt sie sich mit Vega umher!

Sie ist das ältere Stück Silizium in Hardware und das Featureset hat kaum Geschwindigkeitsvorteile eher profitiert AMD von DX12, zusätzlich vollgestopft mit dedizierte Zeugs das in der Preisregion bisher niemand braucht, kaum sinnvoll nutzen kann und die Hardware das auch nicht schafft. Nur mal so, unter DLSS braucht es weniger VRAM weil die Auflösung deutlich niedriger ist als native Ausgangsauflösungen.

Wolfenstein II - The NVIDIA GeForce RTX 2060 6GB Founders Edition Review: Not Quite Mainstream
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Und dafür verlinkt du dann Benchmarks einer 2080ti, klar! Wenn eine 2060 wirklich auf ihr llw-Featureset zugreifen muss, schlägt sie sich mit Vega umher!

Sie ist das ältere Stück Silizium in Hardware und das Featureset hat kaum Geschwindigkeitsvorteile eher profitiert AMD von DX12, zusätzlich vollgestopft mit dedizierte Zeugs das in der Preisregion bisher niemand braucht, kaum sinnvoll nutzen kann und die Hardware das auch nicht schafft. Nur mal so, unter DLSS braucht es weniger VRAM weil die Auflösung deutlich niedriger ist als native Ausgangsauflösungen.

Wolfenstein II - The NVIDIA GeForce RTX 2060 6GB Founders Edition Review: Not Quite Mainstream

Aber genau um zu zeigen, dass die Spiele den VRAM nicht benötigen, hab ich doch gerade eine 2080TI mit 11 GB VRAM verlinkt. Denn hier können die Spiele bedenklos so viel VRAM fressen wie sie wollen und wie wir sehen, nutzen viele Games nicht mal 4 GB in 1080p trotzdessen, dass 11 GB zur Verfügung steht.

Bezüglich Wolfenstein braucht man nur Image-Streaming von Ultra auf High herabsetzen, dann gibt es unter nativer WQHD Auflösung mit Raytracing keine Probleme mit dem VRAM. All das ohne Einfluss auf die Bildqualität.

Ich hab keine Ahnung was du mit den anderen Sachen meinst.
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Aber genau um zu zeigen, dass die Spiele den VRAM nicht benötigen, hab ich doch gerade eine 2080TI mit 11 GB VRAM verlinkt. Denn hier können die Spiele bedenklos so viel VRAM fressen wie sie wollen und wie wir sehen, nutzen viele Games nicht mal 4 GB in 1080p trotzdessen, dass 11 GB zur Verfügung steht.

Bezüglich Wolfenstein braucht man nur Image-Streaming von Ultra auf High herabsetzen, dann gibt es unter nativer WQHD Auflösung mit Raytracing keine Probleme mit dem VRAM. All das ohne Einfluss auf die Bildqualität.

Ich hab keine Ahnung was du mit den anderen Sachen meinst.
Du solltet dir Gedanken darüber machen, welche Komponente die Textuierungsleistung und damit auch die Comperessionsrate direkt beeinflusst. Ein Feature das ermöglicht das es eine GPU allgemein unterstützt, oder die allgemeine Rohpower? Man sieht doch was passiert wenn die 2060 llw ran muss! Sie bricht einfach ein, normal sie bietet ja kaum mehr als eine 1070.

Du meinst DLSS hat keinen Einfluss auf die Bildqualität? Dann bist du blind, schon dann wenn du noch ein Qualitätslevel runter schalten musst.

Natürlich kann man sich alles so hinoptimieren das es passt, macht ja auch Sinn. Nur schreibe bitte nicht es sei nicht sichtbar. Die 2060 ist von einer 5700xt meilenweit weg, diesem veralteten Featuresetkrüppel, denn die RX prügelt sich mit einer 2070 und 2070s umher.

Die 5600xt wird auf dem gleichen Level sein, wie die 2060. Eben ohne Raytracing, was in dem Preisbereich und der Leistungsfähigkeit der Hardware einfach ein Gimmick mit nettem Namen ist. Ich hätte keine Lust mit so einer Karte zu solchen Preisen, mit schöngerechneten Auflösungen auf 720-900p dann auf einem nativen 1080p Bildschirm umherzueiern. Bevor das Nvidia nicht bereinigt, kauf ich sowas nicht und viele andere tun es anscheinend auch nicht, nicht mal Nvidiafans! Nur deshalb gibt es den Shitstorm gegen AMDs Hardware in Foren.

Verbockt hat es Nvidia und nicht AMD!
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Man sieht doch was passiert wenn die 2060 llw ran muss! Sie bricht einfach ein, normal sie bietet ja kaum mehr als eine 1070.

Grundsätzlicher Unfug, eine 2060 ist bei modernen Engines ähnlich stark wie Navi und setzt sich von der 1070 und auch teilweise von der 1080 ab, vor allem in Wolfenstein und CAS, was nochmal 5 bis 10% Mehrleistung bringt.

Du meinst DLSS hat keinen Einfluss auf die Bildqualität? Dann bist du blind, schon dann wenn du noch ein Qualitätslevel runter schalten musst.

Wenn DLSS so arbeitet wie in Youngblood oder Delver Us the Moon, dann sieht das Bild stellenweise besser aus als die native Auflösung, ich würde sagen, es bewegt sich insgesamt auf demselben Level.

Nur schreibe bitte nicht es sei nicht sichtbar.

Dann schau es dir doch mal explizit an, anstatt immer nur darüber zu reden.

Die 2060 ist von einer 5700xt meilenweit weg..

18% langsamer, ist kein besonders großer Abstand.
Grafikkarten von AMD und Nvidia im Test: Testergebnisse im Detail - ComputerBase

Eben ohne Raytracing, was in dem Preisbereich und der Leistungsfähigkeit der Hardware einfach ein Gimmick mit nettem Namen ist.

Das ist für die nächsten Jahre, die ja bei einer solchen Investition eine Rolle spielen, definitiv nicht so, egal wie DXR später umgesetzt wird, die 5600XT wird da ohne fixed function units keine Chance haben.
Und gerade hier zieht auch DLSS als Feature, weil es die Grafikqualität unter Umständen sogar trotz niedrigerem Ausgangsmaterial stellenweise gegenüber nativer Auflösung steigern kann.

Ich hätte keine Lust mit so einer Karte zu solchen Preisen, mit schöngerechneten Auflösungen auf 720-900p dann auf einem nativen 1080p Bildschirm umherzueiern.

Dann kauf dir bitte eine Radeon. Beschwere dich aber dann spätere nicht, wenn du solchen Features hinterhertrauerst.

Bevor das Nvidia nicht bereinigt...

Du tust so als sei DLSS ein Fehler. Das ist aber leider falsch. In Metro, Youngblood, Deliver Us the Moon und Control funktioniert es mittlerweile ausgezeichnet.

, kauf ich sowas nicht und viele andere tun es anscheinend auch nicht, nicht mal Nvidiafans!

Wenn der Preis zum AMD Pendant ähnlich ist, gibt es nichts was dagegen spricht, die Features mitzunehmen, es sei denn du möchtest unbedingt AMD kaufen.
Ansonsten ist es wie immer: Reine Desinformationkampagne ala olletsag.
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Grundsätzlicher Unfug, eine 2060 ist bei modernen Engines ähnlich stark wie Navi und setzt sich von der 1070 und auch teilweise von der 1080 ab, vor allem in Wolfenstein und CAS, was nochmal 5 bis 10% Mehrleistung bringt.



Wenn DLSS so arbeitet wie in Youngblood oder Delver Us the Moon, dann sieht das Bild stellenweise besser aus als die native Auflösung, ich würde sagen, es bewegt sich insgesamt auf demselben Level.



Dann schau es dir doch mal explizit an, anstatt immer nur darüber zu reden.



18% langsamer, ist kein besonders großer Abstand.
Grafikkarten von AMD und Nvidia im Test: Testergebnisse im Detail - ComputerBase



Das ist für die nächsten Jahre, die ja bei einer solchen Investition eine Rolle spielen, definitiv nicht so, egal wie DXR später umgesetzt wird, die 5600XT wird da ohne fixed function units keine Chance haben.
Und gerade hier zieht auch DLSS als Feature, weil es die Grafikqualität unter Umständen sogar trotz niedrigerem Ausgangsmaterial stellenweise gegenüber nativer Auflösung steigern kann.



Dann kauf dir bitte eine Radeon. Beschwere dich aber dann spätere nicht, wenn du solchen Features hinterhertrauerst.



Du tust so als sei DLSS ein Fehler. Das ist aber leider falsch. In Metro, Youngblood, Deliver Us the Moon und Control funktioniert es mittlerweile ausgezeichnet.



Wenn der Preis zum AMD Pendant ähnlich ist, gibt es nichts was dagegen spricht, die Features mitzunehmen, es sei denn du möchtest unbedingt AMD kaufen.
Ansonsten ist es wie immer: Reine Desinformationkampagne ala olletsag.

Du kannst Zaubern, geil, also ein hochskaliertes Bild egal wie, schaut besser aus wie eine native Auflösung, yea.. als Beispiel ein 1080p Bild auf 4 K hochskaliert schaut natürlich besser aus als ein Natives 4k Bild, ganz sicher....... warte immer noch auf deutlich mehr als 6 Spiele, sonst sag ich einfach mal wieder, Schaffe gelogen

Aha 18% sind jetzt nicht viel, aber wie viel ist eine Intel in realer Auflösung schneller in Games als ein AMD Pendant, da sind 3, 4% plötzlich kaufentscheidend, bist du inkonsequent
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Du kannst Zaubern, geil, also ein hochskaliertes Bild egal wie, schaut besser aus wie eine native Auflösung, yea.. als Beispiel ein 1080p Bild auf 4 K hochskaliert schaut natürlich besser aus als ein Natives 4k Bild, ganz sicher....... warte immer noch auf deutlich mehr als 6 Spiele, sonst sag ich einfach mal wieder, Schaffe gelogen

Aha 18% sind jetzt nicht viel, aber wie viel ist eine Intel in realer Auflösung schneller in Games als ein AMD Pendant, da sind 3, 4% plötzlich kaufentscheidend, bist du inkonsequent

Raytracing- und DLSS-Spiele: Liste unterstuetzter Games - PC Magazin

30 sind es da Serious Sam zweimal in der Liste ist.
Aber inkl Spielen die noch nicht final erschienen sind wie Vampire Masquerade und Atomic Heart. Und einigen Spielen die vorsichtig ausgedrückt eher dürftig im Gameplay sind.
 
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Dann informiere dich mal über die neue Implementation in Wolfenstein. DLSS schlägt die native Auflösung mittlerweile
Ich bin zwar aus Bequemlichkeit und wegen ein paar Anwendungen und Games Windows-Nutzer, dennoch ist diese Implementation wieder "nur" der Weg, den Nvidia geht.
Versteht mich nicht falsch: Die Idee dahinter ist gut, die Umsetzung wird immer besser. Was wurde aus anderen Technologien?
Trotz GSync öffnet sich Nvidia immer weiter für FreeSync-Monitore und PhysX kam nie über die Einstufung "Spielerei" hinaus und landet nun meistens als Implementation für die CPU in einem Spiel, wenn es überhaupt genutzt wird. Nach Jahren des Stillstands im Mainstream bei 4 Kernen / 8 Threads ist nun bei Intel und AMD mit mindestens 6 Kernen bei Gamern genug CPU-Zeit für eine grundlegende Darstellung übrig.
Ohne DLSS muss man für höhere Auflösungen ganz klassisch Details, Sichtweite und ggf. Schatten, Texturen eine oder mehrere Stufen niedriger einstellen, was bisher eben auch funktionierte. Je nach nativer Monitor-Auflösung kann man das ja noch mit Downsampling / VSR kombinieren. Ich schweife ab, aber eine RTX 2070 non-Super und 2060 Super haben eben auch weniger Tensor-Cores.

Ob und wie sich DLSS durchsetzt, wird die Zeit zeigen. :)
Vermutlich trifft es da gut, es ist nur eine Vermutung, hierzu nochmal das Video von Gamers Nexus, welcher mit seiner Community sprach und wo es nicht um übertaktete oder undervoltete Karten ging.
Bei Nvidia gibt es die Tools der Partner.
Die meisten Nutzer werden gar keine Tools installieren, in Foren wie diesem ist die Zahl der Nutzer natürlich relativ hoch. Insgesamt habe ich nichts gegen Nvidia, der AMD-Treiber und dessen Panel wirken inkl. Auto-OC-Funktion, das Overlay und den sonstigen Features nur viel frischer.
Muss man sich für Geforce-Experience und das Auto-Update eigentlich noch anmelden?
Die kommen bei den problembehafteten Radeon Karten, sofern sie mal 1,5 Jahre am Markt sind, sicherlich ähnlich rüber.
Je länger Karten am Markt sind, desto höher sind die Ausfallraten.
...
Ein bekannter Shopbetreiber, den ich hier nicht nenne werde, weil diese Informationen nicht für die Öffentlichkeit bestimmt sind. Aber du kannst ja mal die RMA Quoten der Radeon 5700XT Karten nehmen, welche teilweise bei 4, 5 und 6% liegen, was so kurz nach Launch relativ hoch ist und die Quoten von Turing nach einem halben Jahr teilweise übersteigt.
Ich habe letztes Wochenende für einen Freund einen kompletten PC gebaut (Ryzen 7 3700X, Asrock X570 Steel Legend, 2x 16 GB G.Skill DDR4-3200) um seinen alten i5 2500K komplett zu ersetzen. Die Grafikkarte wurde eine XFX Radeon RX 5700 DD, da diese schon letzten Monat für 285€ gekauft wurde. Das Asrock wurde es einfach, weil Board-Layout, Ausstattung für den Preis gefielen.
Gigabyte fiel wegen problembehafteter BIOS-Updates in der Vergangenheit raus (B450 Aorus M) und Asus, weil mir die einfache Verdreifachung der Komponenten der Spannungsversorgung ohne Doppler nicht zusagt.

Ich habe neben dem aktuellsten BIOS noch die aktuellen Chipsatztreiber vom 16.01.20 und den Crimson 20.1.2 installiert. Die Tests in Rage 2, Star Citizen und Red Dead Redemption 2 zeigten keinerlei Probleme oder Auffälligkeiten.

Was ich eigentlich sagen will:
Man liest vielerorts von Problemen mit der 5700XT, kann es sein, dass diese öfter betroffen ist als die non-XT?
Eine weitere Möglichkeit wäre das BIOS oder die Umsetzung beim jeweiligen Hersteller, alles vor AGESA 1.0.0.4 habe ich persönlich quasi nie live gesehen (in Verbindung mit Ryzen 3000 und einer AMD Navi-GPU).
Die dritte Variante wären in den letzten Monaten Treiberprobleme, vielleicht auch in Verbindung mit den aktuellen Ryzen-CPUs und deren BIOS (PCIe 4.0).

Viele mit Problemen sprechen in Foren vom 19.7.5 als bestmöglichen Treiber. Vielleicht hat sich die Situation auch gebessert, zumindest wir haben nichts vor 20.1.1 probiert und es gab keine Probleme (trotz Nutzung von Anti-Lag, was manche als Verursacher sehen).
Damals hat man recht prominent darüber berichtet, der Witz war nur, dass damals die Ausfallraten auch noch relativ gering waren und das ganze ein Spiel auf Zeit ist.
Wenn ich mich recht erinnere, traf es damals vor allem die ersten Chargen der RTX 2080 Ti, teils auch 2080, welche nach 2 Wochen Gaming-Betrieb Anzeichen defekter Speicher aufzeigten. Da kann einem bei dem gezahlten Preis schon etwas die Hutschnur platzen. Das Pech einer defekten Karte kann auf der anderen Seite aber immer und bei jedem Hersteller zuschlagen. Meine Ersatz-Karte ist eine laute R9 290 im Referenz-Design von 2013, welche noch immer läuft.
ich sehe den V-ram Bedarf, trotz eigener 24GB Karte deutlich weniger relevant an als viele, ganz einfach weil man bei einer Mittelklassekarte nicht den Anspruch an maximale Details hat und es diese auch nicht immer braucht um sehr schöne Texturen zu genießen.
Das stimmt, man kann einfach nicht in jeder Preisklasse erwarten alles auf "maximal" zu stellen und flüssig zu spielen. Games, deren Ultra-Settings nicht das Maximum darstellen, zeigen gut, wie schnell selbst teuerste Hardware an die Grenzen gebracht werden kann, wenn man nicht weis, was man gerade macht.

Mir persönlich geht es bei der Vorliebe für 8 GB-Empfehlungen eher darum, dass beispielsweise bereits Middle-Earth: Shadow of War 2017 8 GB VRAM in 1080p gut füllen konnte und man schon seit Jahren in Form der R9 390, RX 480 / 580 jeweils 8 GB VRAM um die 300€ bekommt.
Ich möchte Intel und AMD zwecks der Vergleichbarkeit halber mit gleich teurem RAM vergleichen, damit sich die Aussagekraft der Tests erhöht
Sicherlich, deshalb kann man doch gerne sämtliche Prozessoren innerhalb deren Spezifikationen testen, um die Leistung von OEM Systemen von der Stange zu ermitteln, da hat doch überhaupt niemand etwas dagegen.
In diesem Punkt stimme ich dir zu. Es sollte Tests nach Spezifikation geben, allerdings sollte man diese mittlerweile erweitern um zusätzliche Tests, da keiner mehr unter DDR4-3000 kauft.
 
Zuletzt bearbeitet:
AW: GPU-Verkäufe bei Mindfactory: Radeon RX 5700 XT deutlich vor GeForce RTX 2060 Super

Nein, die Frage ist, wie MF die RMA Quote berechnet. Zurückschicken wegen diverser Probleme leitet doch nicht formal einen RMA Prozess ein. Das glaube ich nicht.

Das ist sogar mehr als wahrscheinlich, und solange eine Quote nicht überschritten wird, werden sie auch Karten über die RMA abwickeln, die aufgrund von "gefällt mir doch nicht" zurück gegeben werden

Ganz einfach deswegen weil sich solche Karten nicht als neu verkaufen lassen und sie durch die RMA eine Gutschrift beim Distri oder eine neue Karte bekommen. Zögerlich werden sie erst nach EOL werden, dann gibts uU reparierte Karten retour.
Erst wenn Quoten über jenen anderer Händler liegen und Distris nachfragen werden "neuwertige" fehlerfreie Karten in den Abverkauf geben

Welche Rückgaben tatsächlich in die RMA Quote genommen werden und welche nicht lässt sich aber ohne Kenntnis über die internen Abläufe nicht sagen, dies gilt aber für alle Produkte zu denen es eine RMA Quote gibt, ganz egal welcher Name da drauf steht
 
Zurück