Radeon RX 6000 offiziell: RX 6900 XT im Dezember, RX 6800 XT und RX 6800 im November - alle Daten und Preise

Bei keinem Rechner den ich die letzten Jahre für Bekannte gebaut habe war die Vorgabe das der "in" sein muss sondern es ging zu 95% darum für möglichst wenig Geld die Anforderungen zu erfüllen.
Joo, und bis auf meinen eigenen Rechner habe ich alle PCs der letzten Jahre mit Ryzen ausgestattet, 2600, 3600, 3700X... P/L stand da immer im Fokus.
Wirklich "in" war bei Hardware auch nur :hail:3dfx
 
Ach wie schön... diese Diskussionen hier.
Die einen schwören auf DLSS, die anderen auf 16GB Vram...

Wenn das auf beiden seiten die einzigen Argumente sind. Dann heisst das, das beide entlich wieder auf Augenhöhe sind.

3080 oder 6800XT... sind beides tolle Karten und es macht bestimmt mit beiden Spass zu zocken.

Wer die Eierlegende Wollmilchsau mit viel Speicher und DLSS haben will muss nach wie vor tief in die Tasche zur 3090 greiffen.

Ansonsten denke ich kann man diesmal die Karte nehmen, welche einem besser gefällt. Den Preislich wie auch Leistungstechnisch nehmen die sich nicht mehr viel.
Würde Nvidia die 3080 mit 20GB bringen, für unter 999€, hätten sie die Eierlegende Wollmilchsau. Das wollen oder können Sie aber scheinbar nicht. Stattdessen werden "Guides" unters Volk gebracht, warum 8GB 2020 der letzte stand der Technik sein sollen.

Heute bin ich irgendwie dankbar keine 3090 für 1500€ bekommen zu haben....

Der gesamte (Paper)Launch der 3000 reihe war ein PR Desaster. Nvidia Kunden wurden vor den Kopf gestoßen.

Anstatt dann Probleme offen und ehrlich zu kommunizieren und Lösungen zu finden (Bestellungen der founders für Kunden möglich machen und nach und nach abzuarbeiten), wurde der Verkauf gestoppt (out of stock). Dem Kunden wurde damit gesagt "f... dich, wir wollen dich gar nicht".

Dann wurden Pressemeldungen rausgehauen, das es ja kaum zu erwarten war, das die Kunden die Karten auch kaufen wollten. Bei einer Auslieferung von 3-10% im Bezug auf die Bestellungen, heißt das nichts anderes, als das Nvidia sich mindestens um den Faktor 10 bei der Bedarfsanalyse verrechnet hat.....setzen 6.

Weiter geht es mit tarnen täuschen und verpissen. Keine Zahlen, keine Erklärungen, nur erwähnte pseudoguides ala "8GB sind die neuen 16" und "unsere Kunden sind so dämlich, die glauben uns das schon".
 
Schaut mal her, ich hab mit meiner ollen 970 bis heute überlebt und ich muss seit Kauf Sep'14 mit 3,5gb leben. Gibt schlimmeres. Fahrt mal euren Fanboy Kamm runter. Hier gehts ja wieder ab, alle im Verteidigungsmodus. Ich brauch VRAM, also wirds bei mir ne AMD und fertig :-)
 
Für mich ist die Thematik mit DLSS und GSync eigentlich eher ein Grund, Nvidia nicht zu kaufen, als ein Kaufargument. Dieser ganze proprietäre Scheiß hemmt einfach nur den technischen Fortschritt insgesamt.

Lustigerweise habe ich mich aus genau denselben Gründen vor 20-25 Jahren noch FÜR Nvidia entschieden. Damals war mir der DirectX-Ansatz vom Underdog Nvidia einfach sympathischer als der proprietäre Mist vom Marktführer 3DFX ("Glide").


Wo ist denn Glide heute?
Naja, Glide bot hier aber mehr als noch DX zu seiner Zeit und es lief performanter und die API war einfacher zu nutzen als DX oder OpenGL. 3dfX wurde dann von nVidia übernommen. Und die Pleite kam nicht wegen dem Grafikzeug, sondern weil man sich einfach übernommen hatte, mit dem Kauf von GigaPixel, was hier der ausschlaggebende Punkt letztlich war.

Die letzte Voodoo, die ich hatte, war die 5500 TV. War schon ein schnuckeliges Kärtchen gewesen, war aber leider dann in Konkurrenz zu nVidia und AMD natürlich zu schwach.
 
Interessant wäre es auch zu wissen, ob Smart Access Memory und Rage auch auf B450 Boards mit der 5000er Ryzen reihe funktioniert, oder erst ab 500er Chipsatz.
 
Die AMDler: rAgEmOdE iSt KeIn Oc :ugly:
AMD: ragemode one click overclocking
Bei der 3080 / 3090 braucht es dafür noch nicht mal einen Klick die ist mit den default settings bereits im rAgEmOdE.
(320 /350W) wer bei den Karten 5-10% OC will befindet sich bereits in aberwitzigen Regionen von ca. 400W wieder.
Die 3080(90) sind eine Verzweiflungstat seitens NVIDIA und bereits so auf heißer Nadel gestrickt das kaum mehr OC Spielraum vorhanden ist.

Eine Sapphire Nitro+ / Toxic wird der 3080/90 aber so was von den Arsch versohlen, das die Karte eigentlich erst ab 18 erhältlich sein sollte. (unangemessene Gewaltdarstellungen .........)
patrick schur.png
 
Würde Nvidia die 3080 mit 20GB bringen, für unter 999€, hätten sie die Eierlegende Wollmilchsau. Das wollen oder können Sie aber scheinbar nicht. Stattdessen werden "Guides" unters Volk gebracht, warum 8GB 2020 der letzte stand der Technik sein sollen.

Heute bin ich irgendwie dankbar keine 3090 für 1500€ bekommen zu haben....

Der gesamte (Paper)Launch der 3000 reihe war ein PR Desaster. Nvidia Kunden wurden vor den Kopf gestoßen.

Anstatt dann Probleme offen und ehrlich zu kommunizieren und Lösungen zu finden (Bestellungen der founders für Kunden möglich machen und nach und nach abzuarbeiten), wurde der Verkauf gestoppt (out of stock). Dem Kunden wurde damit gesagt "f... dich, wir wollen dich gar nicht".

Dann wurden Pressemeldungen rausgehauen, das es ja kaum zu erwarten war, das die Kunden die Karten auch kaufen wollten. Bei einer Auslieferung von 3-10% im Bezug auf die Bestellungen, heißt das nichts anderes, als das Nvidia sich mindestens um den Faktor 10 bei der Bedarfsanalyse verrechnet hat.....setzen 6.

Weiter geht es mit tarnen täuschen und verpissen. Keine Zahlen, keine Erklärungen, nur erwähnte pseudoguides ala "8GB sind die neuen 16" und "unsere Kunden sind so dämlich, die glauben uns das schon".
Also die 3090... ist für mich immer abgesehen vom Preis immer noch die Karte to go...

Es ist quasi die Eierlegende Wollmilchsau. Weil man sich weder für den VRAM noch für DLSS entscheiden muss...

Sie bietet selbe Leistung wie die 5900XT... hat aber schnelleren und mehr Speicher. Die Möglichkeit für DLSS und von Raytracing ganz zu schweigen.

Ich für mein Teil bleibe dabei.

Aber ob einem das den Aufpreis von 500 Dollar Wert ist. Muss jeder für sich entscheiden
 
naja
als RTX 2080 Nutzer sehe ich RT immer noch als lol-Faktor an.
Finde ich total überbewertet solange man die fetten Einbrüche bei den FPS hat.
Ab ~20% weniger FPS wird es für mich interessant.

Alleine der mehr Speicher der AMD Karten wiegt da deutlich mehr; RT Demos kann man mit den Karten sich auch anschauen aber wenn bei der RTX 3080 der Speicher voll ist wird es schlagartig weniger spassig.
Bin froh das es noch ehrliche Nvidia User gibt, die sich nicht eine klare Lüge einbrennen müssen, nur um es sich für sich zurechtzubiegen. Macht doch mal auch ehrlich den Realitätscheck, hier gauss machts vor:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Naja, Glide bot hier aber mehr als noch DX zu seiner Zeit und es lief performanter (...)
So ungefähr das hat mir damals der Verkäufer Arlt erzählt als ich die Diamond Viper bestellt hab und er mich zur Voodoo bequasseln wollte: "Glide ist schneller, und eigentlich unterstützen es doch alle Spiele".

2 Jahre später hatte ich immernoch die Viper und längst nicht mehr alle Spiele haben Glide unterstützt. Das ist halt das Schicksal von proprietären Standards.

Immerhin hatte der Typ vom Arlt damals wenigstens ein valides Argument mit "fast alle Spiele". Heute bei DLSS heißt es "es gibt vereinzelt Spiele, und nächstes Jahr kommt bestimmt auch noch eins raus". :ugly:
 
die 3090 kostet UVP 1500€ und ist keine schlechte Karte, der Vorteil ggü der 3080 sind 10% Mehrleistung und halt eine "sinvolle" Ramaustastung. Wobei 16 oder 20 es auch getan hätten.

So wird jeder der eine rtx3000 Karte länger als ein Jahr betreiben will, gezwungen den exorbitanten Aufpreis zu zahlen, welcher nicht gerechtfertigt ist. Abgesehen das ja mittlerweile Schwarzmarkpreise jenseits von 2000€ aufgerufen werden (lieferbar).
 
Also die 3090... ist für mich immer abgesehen vom Preis immer noch die Karte to go...

Es ist quasi die Eierlegende Wollmilchsau. Weil man sich weder für den VRAM noch für DLSS entscheiden muss...

Sie bietet selbe Leistung wie die 5900XT... hat aber schnelleren und mehr Speicher. Die Möglichkeit für DLSS und von Raytracing ganz zu schweigen.

Ich für mein Teil bleibe dabei.

Aber ob einem das den Aufpreis von 500 Dollar Wert ist. Muss jeder für sich entscheiden

so sehe ich das auch wenn ich bei der 6900xt nur wüsste wie die mit raytracing performt würde nichts bringen da sie kein dlss besitzt und beim inifinity cache bin ich auch gespannt ob man da wirklich save ist in jedem game. die 3090 ist mir aber zu teuer. amds grösstes problem ist das es mir noch zu lange dauert für die 6900xt. das ist 2 tage vor cyberpunk release und ich habe die 3080 gerade für cyberpunk und rtx und dlss gekauft. wie du sagtest die eierlegende wollmilchsau ist die 3090 aber zu teuer
 
Bin froh das es noch ehrliche Nvidia User gibt, die sich nicht eine klare Lüge einbrennen müssen, nur um es sich für sich zurechtzubiegen. Macht doch mal auch ehrlich den Realitätscheck, hier gauss machts vor:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das ist vor allem eines: eine Meinung. Jeder hat eine - und das ist auch gut so (wenngleich man heutzutage viel mehr Meinungen aufgedrückt bekommt als gut ist ;)).

MfG
Raff
 
Bin froh das es noch ehrliche Nvidia User gibt, die sich nicht eine klare Lüge einbrennen müssen, nur um es sich für sich zurechtzubiegen. Macht doch mal auch ehrlich den Realitätscheck, hier gauss machts vor:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
also das ist nicht so wenn bei der 3080 der vram ausgeht muss eine texturstufe runter und fertig aber was mache ich cb bei cyberpunk wo 5 rtx techniken eingesetzt werden und amd ohne dlss das nicht nutzen kann. dann heisst das für mich das die amds viel mehr kompromiss sind als der vram. und metro exodus war hammer mit raytracing. sowie control auch. bei shadow of the tomb raider braucht man es nicht wirklich die schatten sind das unwichtigsten von raytracing. die wahl ist sehr schwer diesesmal
 
Zurück