RTX 3080 oder RX 6800 XT? Umfrage zeigt wahres Drama für AMD

Auch wenn es weh tut.

MSI RTX3090 gekauft für unter UVP , als 2te Wahl, weil die Verpackung schon mal geöffnet wurde.

Die Karte selber war unbenutzt.

Jetzt wohl erstmal Ruhe mit aufrüsten
Ja, konnte heute ne 3090 FE auf NBB schießen für die UVP. Bis die 3080ti rauskommt dauert es noch und dann wird deren Straßenpreis wohl auch bei 1300 bis 1400 liegen und dann kann ich mir auch direkt die 3090 jetzt holen, zumal ich eine der beiden Karten (3080, 3090) jetzt echt mal langsam brauchte, da im Januar ein großer Renderingauftrag für einen Wettbewerb ansteht. AMD ist ja leider noch seltener als ne 3080. Also Pech gehabt AMD :/
 
Zur Info, ich hatte einfach nur Steam Nutzerzahlen gegoogelt und dann kam halt 1 Mrd. Accounts.
Mir ist auch klar, dass es nicht so viele aktive Spieler gibt.

Von AMD nicht einmal etwas kaufbares gesehen. Das kann man nun wirklich Paperlaunch nennen.
 
Eben darum, damit das Thema RayTracing es überhaupt aus der Nische schaffen kann, wo es noch immer drin steckt.
Und wieso wird darin investiert? Nische oder nicht, RT hat Potential und ist ein wichtiger Fortschritt im Gaming-Bereich.

Wenn ich hier Kommentare durchlese, die was von "Nische" reden, dann will man damit in erster Linie sagen "Ist unwichtig. Lohnt nicht".

Es lohnt sich aber offensichtlich. Mal vom ganzen Rest rund um und innerhalb des Spiels abgesehen, zeigt Cyberpunk 2077 etwa ziemlich gut, wie RT auszusehen hat. Die Unterschiede muss man nicht gerade mit der Lupe suchen. Und dass RT sehr performancelastig ist, ist halt so. Fortschritt kommt nicht von heute auf morgen.

Ich würde nicht sagen, dass RT "Nische" ist. Vielmehr steckt es einfach noch in den Kinderschuhen. Immerhin ist es medial durchaus in den Köpfen der Gamer angekommen, auch Konsolen sei Dank.
 
Bei mir wird es wahrscheinlich eine RTX 3070 werden, wenn die einmal tatsächlich für 500€ verfügbar sein sollte. Mehr bin ich einfach nicht gewillt für eine GPU auszugeben.
Vielleicht im Frühjahr, wenn sich die Situation etwas entspannt. Vorher wird sowieso erst einmal ein 4k Monitor angeschafft.

Kaufentscheidung ist Raytracing - welches mit DLSS 2.0 tatsächlich flüssig läuft und gut aussieht. In welcher internen Auflösung das Bild berechnet wird ist mir völlig egal, solange das Endergebnis überzeugt.
Für AMD ist es halt noch die erste Raytracing Gen, da wird man noch eine Gen warten müssen.
 
Ich würde nicht sagen, dass RT "Nische" ist. Vielmehr steckt es einfach noch in den Kinderschuhen. Immerhin ist es medial durchaus in den Köpfen der Gamer angekommen, auch Konsolen sei Dank.
Kinderschuhe treffen es glaub ich sehr gut.
Kann mich noch an die Matrox Mystic erinnern, ich glaube 97 oder um den Dreh war das.
Da hieß es auch "ist Spielerei, braucht kein Mensch etc.", dann das selbe mit der ersten Voodoo 3D.
Irgendwo muss nun mal der Anfang gemacht werden und der Anfang ist nie perfekt, aber ohne Ihn gibt es keine Weiterentwicklung.
 
Erinnert mich an die Personen, die mehrere CPUs kaufen um die beste zu selektieren und den Rest wieder zurückschicken.... da darf jeder gerne selber urteilen, was man davon halten mag...
Ich bin überzeugt davon, dass es von dieser Sorte Mensch eine ganze Menge hier im Forum gibt, bzw es fällt einfach auf, dass einige auffällig häufig 'goldene Chips' ergattern können. Man kauft dann halt 2x bei MF, 2x bei Alternate, 2x bei CK und behält einfach die beste. Dürfte keine Seltenheit sein. Für einen guten Chip tun manche vieles.
 
Schade, dass es von AMD nirgends auch nur eine verfügbare Karte gibt, so bekommt jetzt nach langem Ringen mit mir selbst eine MSI Suprim X 3080 einen Platz in meinem Gehäuse.

Obwohl ich echt gern mal wieder AMD gekauft hätte :)
 
Und wieso wird darin investiert? Nische oder nicht, RT hat Potential und ist ein wichtiger Fortschritt im Gaming-Bereich.

Wenn ich hier Kommentare durchlese, die was von "Nische" reden, dann will man damit in erster Linie sagen "Ist unwichtig. Lohnt nicht".

Es lohnt sich aber offensichtlich. Mal vom ganzen Rest rund um und innerhalb des Spiels abgesehen, zeigt Cyberpunk 2077 etwa ziemlich gut, wie RT auszusehen hat. Die Unterschiede muss man nicht gerade mit der Lupe suchen. Und dass RT sehr performancelastig ist, ist halt so. Fortschritt kommt nicht von heute auf morgen.

Ich würde nicht sagen, dass RT "Nische" ist. Vielmehr steckt es einfach noch in den Kinderschuhen. Immerhin ist es medial durchaus in den Köpfen der Gamer angekommen, auch Konsolen sei Dank.

Naja, RT hat vielleicht Potential, aber irgendwie ist es auch mittlerweile etwas enttäuschend. Ich hab mir im Zusammenhang mit den aktuellen GPU Launches weil ich eventuell auch aufrüsten wollte viele Side-by-Side Vergleiche zu Raytracing auf Youtube angesehen. Durchwachsen ist da noch ein overstatement.

Bei Metro Exodus ist mit Raytracing einfach alles irgendwie heller. Einen sehr ähnlichen Effekt krieg ich auch durch Anpassungen in meinem Monitormenü hin.

Bei Control sehen alle Flächen (Fußböden, Wände, Decken) mit Raytracing so aus, als wären Sie grade von einer Horde Sklaven zehn Jahre lang mit der Zahnbürste poliert worden. Inwiefern das jetzt das Nonplusultra sein soll, ist mir unklar. Die Realität sieht jedenfalls nicht so aus. Das Spiel sieht ohne Raytracing eigentlich sogar fast besser aus (weil weniger künstlich). Aber das ist natürlich meine persönliche subjektive Meinung.

Andere Spiele ähnlich. Einen richtigen Wow-Effekt hatte ich jedenfalls definitiv nirgends. Wegen mir sieht die Sache bei Cyberpunk anders aus, das kann ich nicht beurteilen. Aber selbst wenn, ist das genau ein einziges Spiel.

Das ist die traurige Bestandsaufnahme zu Raytracing satte zwei Jahre nach Markteinführung. Wenn das nicht Nische ist, weiß ich nicht, was Nische sein soll.

Das Problem für Raytracing ist, dass es wegen dem grausigen Kosten/Nutzen Verhältnis derzeit eigentlich nur am absoluten Top-High-End überhaupt irgendwie interessant ist. Für den handelsüblichen Gamer gibt es sinnvollere Wege, die Optik zu verbessern. 1440p statt 1080p, 4k statt 1440p, oder einfach nur ein besserer Monitor mit der gleichen Auflösung wie der alte. Monitore sind ohnehin die am meisten unterschätzte Komponente in vielen Setups.
 
Sehe ich ganz genau so. Ich tendiere mehr zur 3080, wollte mir anfangs die ASUS TUF holen, aber 880 (im Besten Fall!) statt 699 (ja, die Non-OC-Version sollte tatsächlich das Gleiche wie die FE kosten) sind mir dann echt ne Ecke zu krass.
Schwierige Entscheidung, bis zum Release der 6800XT war ich innerlich eher auf AMD eingestellt, weil Nvidia mir zu sehr mit dem Speicher geizt. Was AMD nun geliefert hat ist außer Frage top aber RT und DLSS sind weiterhin alternativlos und dann kommt der Preis dazu. Wenn ich eine Grafikkarte kaufe, dann einmal und über min 2 Generationen und da sehe ich im Moment bei der 3080 die Nase vorn (trotz geringerem Speicher).
Ich schaue im März noch einmal in die Shops was dann zu haben ist, im Moment steht auf meinem Freizeitplan eh nur Baustelle.
 
Ich wollte halt mal ins RT Zeitalter einsteigen. Natürlich auch wegen Cyberpunk aber auch wegen Control, Metro, etc. Dann ist natürlich die Frage was kauft man aktuell. AMD hat nicht nur das Problem das sie nicht lieferbar sind bzw. zu Preisen bei denen man völlig abschnallt sondern auch noch nicht fertig sind. Der DLSS Pendant kommt halt erst noch. Irgendwann. Vorher wird man auch keinen Cyperpunk-Patch für AMD RT brauchen denn ich glaube nicht das nativ das so der Brüller wird was die Performance angeht. Sieht man ja bei NV.

Also wurde es bei mir jetzt eine 3070. Auch wenn mich die 8 GB doch auch jetzt schon etwas ankotzen. Aber mit meiner Bildschirmauflösung von 2560x1080 noch erträglich.

Aber ja, ich betrachte die 3070 aktuell eher als Übergangslösung die zu einem halbwegs akzeptablen Preis zu erhalten war. Als Aufpreis zur UVP hätte ich bei 3080 und erst recht bei AMD noch mehr bezahlt und die Verfügbarkeit ist halt auch besser gewesen.

Aktuell funktioniert sie ja auch. Jetzt mal abwarten wann sich der Markt und die Preise beruhigen und wann AMD jetzt mal Feature-Complete ist und was das DLSS Gegenstück denn taugen wird. 700+ € für unfertige Ware in der Hoffnung es wird dann schon passen? Irgendwie schon bissl gaga...
 
Naja kein plan was ich kaufe,, da RT ehr son Nieschen ding ist, ists völlig wumpe was die Neue Karte dort kann. Außerdem kostet es bisher haupsächlich Leistung, aber optisch nur selten wirklich sooo viel bringt wie es am Ende kostet ist es kein wirklich relevantes Thema für mich die nächsten 2-3 Jahre. Dann kaufe ich bis frühling Sommer halt einfach kein Spiel was nicht zur 1080Ti ab 1440p in h.S. passt. Bis dahin hat auch Cyberpunk 2077 sich aus dem (User-als-Tester") Status erhoben und kostet nur noch die hälfte^^

Zum sinvoll aufrüsten im High End bleiben für schlappe 1000€ leider nur eine 80er Ti oder eine 6900XT. Obwohl sich keiner der beiden real rechnet im Verhältniss zur jeweils nächst kleineren
 
Die einzigen dramatischen Zustände die ich die letzten Wochen sehe sind, dass alle CPUs und GPUs die AMD und NV rausdrücken sofort weggekauft werden und zwar offensichtlich ziemlich egal zu welchem Preis. Dramatisch ist das vielleicht - aber nur positiv für die Hersteller....
Was anderes, erinnerst du dich dran, neulich drüber philosphiert zu haben, dass nvidia ja wohl wieder zu TSMC wechseln könnte und ich dieses verneint habe? ;)


Wie ich sagte, das wird mit Lederjacke und TSMC nix mehr ;)
 
? Meinst Du mich?
Bist du der Chefredakteur der PCGH ?
Was anderes, erinnerst du dich dran, neulich drüber philosphiert zu haben, dass nvidia ja wohl wieder zu TSMC wechseln könnte und ich dieses verneint habe? ;)


Wie ich sagte, das wird mit Lederjacke und TSMC nix mehr ;)
Wie denn auch wenn AMD rund 80-90% der 7nm Kontingente aufkauft (CPU´s, GPU`s, Konsolen) :ugly: ? Bei 5nm wirds nicht anders sein.
Bei mir wird es wahrscheinlich eine RTX 3070 werden, wenn die einmal tatsächlich für 500€ verfügbar sein sollte. Mehr bin ich einfach nicht gewillt für eine GPU auszugeben.
Vielleicht im Frühjahr, wenn sich die Situation etwas entspannt. Vorher wird sowieso erst einmal ein 4k Monitor angeschafft.

Kaufentscheidung ist Raytracing - welches mit DLSS 2.0 tatsächlich flüssig läuft und gut aussieht. In welcher internen Auflösung das Bild berechnet wird ist mir völlig egal, solange das Endergebnis überzeugt.
Für AMD ist es halt noch die erste Raytracing Gen, da wird man noch eine Gen warten müssen.
4K, Raytraycing, RTX 3070....wo liegt der Fehler :ugly: ??
 
Zuletzt bearbeitet:
das einzige Drama ist Nvidia, die am Grafikspeicher geizen.
Eigentlich ist das einzige Drama das viele glauben das der Grafikspeicher das wichtigste ist. Es gibt sehr viele Forenuser die hier die tollsten verlogenen geschichten bzgl. Vram erzählen. Und manche glauben das auch noch. Das Drama hatten wir ja bei der 970 schon, wo manche ein Riesen Fass aufgemacht haben weil der Speicher 500 MB weniger war. Aber gemerkt hat es keiner.

Es ist total idiotisch zu sagen das eine 3080 keine Zukunft hätte wegen 10 GB Grafikspeicher. Aber leider denken die meisten das Sie damit im Recht sind. AMD macht das ein bisschen klüger. Die machen einfach mehr Grafikspeicher drauf um die Kunden anzulocken. Das dieser dann langsamer ist und man unterm Strich auch weniger Leistung hat wenns drauf ankommt, ist ja unwichtig. Da den meisten nur wichtig ist das 16 GB auf der Verpackung steht.

Das ist wie wenn man mit PCI Express 4.0 argumentiert. Bringt zwar nix, aber man brauch es unbedingt.
 
Schwierige Entscheidung, bis zum Release der 6800XT war ich innerlich eher auf AMD eingestellt, weil Nvidia mir zu sehr mit dem Speicher geizt. Was AMD nun geliefert hat ist außer Frage top aber RT und DLSS sind weiterhin alternativlos und dann kommt der Preis dazu. Wenn ich eine Grafikkarte kaufe, dann einmal und über min 2 Generationen und da sehe ich im Moment bei der 3080 die Nase vorn (trotz geringerem Speicher).
Ich schaue im März noch einmal in die Shops was dann zu haben ist, im Moment steht auf meinem Freizeitplan eh nur Baustelle.

Ja, außerdem ist noch ein Punkt, das Nvidia zwar mit dem Speicher geizt, AMD aber wohl mit dem Speicherinterface, was nicht so offensichtlich ist. Dadurch kommt es ja auch, das die Radeons mit höherer Auflösung eher abgeschlagen sind, obwohl der Speicher eigentlich das Gegenteil bewirken sollte.
 
Eigentlich ist das einzige Drama das viele glauben das der Grafikspeicher das wichtigste ist. Es gibt sehr viele Forenuser die hier die tollsten verlogenen geschichten bzgl. Vram erzählen. Und manche glauben das auch noch. Das Drama hatten wir ja bei der 970 schon, wo manche ein Riesen Fass aufgemacht haben weil der Speicher 500 MB weniger war. Aber gemerkt hat es keiner.

Es ist total idiotisch zu sagen das eine 3080 keine Zukunft hätte wegen 10 GB Grafikspeicher. Aber leider denken die meisten das Sie damit im Recht sind. AMD macht das ein bisschen klüger. Die machen einfach mehr Grafikspeicher drauf um die Kunden anzulocken. Das dieser dann langsamer ist und man unterm Strich auch weniger Leistung hat wenns drauf ankommt, ist ja unwichtig. Da den meisten nur wichtig ist das 16 GB auf der Verpackung steht.

Das ist wie wenn man mit PCI Express 4.0 argumentiert. Bringt zwar nix, aber man brauch es unbedingt.
ich habe nicht gesagt das die 3080 keine Zukunft hat. Aber es wäre aber für alle das beste wenn 2020/21 Nvidia mehr Grafikspeicher verbauen würde. Für 700-1100€ ist das dass mindeste. Schadet doch keinen , und ich sehe keinen Grund die 8/10Gb zu verteidigen.
 
Zurück