Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

Soso, deswegen waren die "Igors und seine Freunde" -Leaks so schlecht, jo 2 Watt daneben, schlimm.
Igor hat dieses Jahr so oft recht gehabt, da verzeih ich ihm auch mal eine Ente, wobei ich dies allerdings
nicht im Fall der 6800XT denke. Vll ähnlich 2-5 Watt vertippt oder so, wenn überhaubt.
Zumal die TDP der Karten doch hauptsächlich vom Bios bestimmt wird und das kann AMD auch in letzter Minute noch anpassen. Und die Partner machen bei ihren großen Karten eh ihr eigenes Ding.
 
Mit 10 GB und 8 GB geht den Nvidiakarten schneller der Speicher aus als bei AMD.
Das sind wieder Karten wie die 970 für den Moment gut, aber auf Dauer...
Klar kann man sich freuen und klar habe ich auch die Preisentwicklung der letzten Jahre (jahrzehnte triffts besser, wir haben seit 1982 Computer im Haus...) verfolgt. Bloß geärgert hab ich mich nicht darüber, warum auch? Die Firmen wären ja dämlich nicht möglichst hohe Preise zu nehmen! So ist halt Marktwirtschaft. Deswegen begrüße ich es durchaus, dass die aktuellen Produkte (schon seit einigen Jahren, wenn man ehrlich ist) absolut auf Augenhöhe sind.

Diese Verklärung von AMD ist es, die ich lachhaft finde. Das ist ein Unternehmen wie alle anderen auch und würde in vergleichbarer Lage auch hohe Preise nehmen (haben sie in der Vergangenheit ja auch schon).
Mit den hohen Preisen ist die eine Seite, 7 Jahre gefühlt den selben Prozessor zu bauen nur weil man keine
Konkurrenz hatte die andere. Intel merkt so langsam wie dumm des war.
Wozu gab es das 1151v2 und das 1200 Board? Im nach hinein haben es ja Modder geschafft auf dem z170
9900K und co hinbekommen... Leider zu Spät und mein Board hatte ich dann schon verkauft und bin nach
3 mal Intel sauer zu AMD gewechselt und auf dem alten B350 Board das ich meiner besseren hälfte gab,
passt noch der 3600X, meine kleine Schwester bekommt dann den 1600 der ohne murren 3,8 Ghz schafft.
Verschaukeln können Intel sich mit ihren Comedylake alleine.
Ohne AMD würden wir immernoch 300 Tacken für nen 4/8 bezahlen der mittlerweile für 81 € von Intel
verkauft wird und an dem ist nichts anders als an einem 6700, und kaum was anders als an den anderen
4/8 CPUs von Intel was darauf schließen läst das die 220 Tacken gewinn gemacht hatten. (jaja Vereinfacht)
Und du wunderst dich das man da AMD mehr mag?
 
Dann hoffen wir mal, dass das auch so zum Release ist und keine Nebelkerze sein wird.
Einerseits ist das erfreulich, weil sich endlich wieder was tut bei den Grafikkarten und Nvidia die Preise runterschrauben muss, andererseits hab ich 1700€ in einer 3090 verbrannt :(
Wer hat, der kann. Andere verbrennen (deutlich) mehr Kohle in andere "Spielzeuge" oder investieren sie... in das Leben;)

Gruß
 
Mit den hohen Preisen ist die eine Seite, 7 Jahre gefühlt den selben Prozessor zu bauen nur weil man keine
Konkurrenz hatte die andere. Intel merkt so langsam wie dumm des war.

Dennoch gab es genug Leute, die die Dinger weiter gekauft haben. So dumm war das also nicht von Intel. Dumm und den Aktionären nicht zu erklären wäre eher gewesen ohne Anlass (sprich Wettbewerb) gigantische Summen in eine Weiterentwicklung der zu dem Zeitpunkt mit weitem Abstand leistungsfähigsten Arch zu stecken.

Intels Hauptproblem ist aktuell nicht, dass sie keine neue Arch haben, sondern fertigungstechnisch hinten dran sind (so wie es AMD jahrelang eben auch war). Dafür halten sich die CPUs noch verdammt gut!

D.h. für die allermeisten PCs ist es schlicht egal was man verbaut, die extremen Leistungen von AMD bei Mehrkernanwendungen ist nur für die allerwenigsten Anwender von Bedeutung. Auch wenn man es kaum glauben mag, die allermeisten setzen ihren PC weder privat, als auch geschäftlich nicht dazu ein abendfüllende Spielfilme zu rendern, FEM Analysen durchzuführen oder auch nur die neuesten AAA Spiele zu spielen. Deswegen werden auch größtenteils eher die kleinen CPUs der jeweiligen hersteller verwendet bei denen der Unterschied eher sehr klein ist.

Und nur eben diese "Randgruppe", die ihrem PC wirklich die Sporen geben profitieren von der neuen Entwicklung + zusätzlichen Kernen. Alle anderen sind mit einem stinknormalen 4-Kerner (der auch schon etwas älter sein darf) gut bedient. Ganz nebenbei ist im Teillastbereich in dem diese PCs überwiegend gefahren werden die Verbrauchsunterschiede zu vernachlässigen.

Deswegen, ja klar würde Intel heute anders da stehen wenn sie zumindest ihre 10nm / 7nm Fertigung im Zeitplan ins Ziel gebracht hätten. Aber technische Probleme nicht gelöst zu bekommen ist jetzt nicht direkt dumm, eher überambitioniert in diesem Fall.
 
Dennoch gab es genug Leute, die die Dinger weiter gekauft haben. So dumm war das also nicht von Intel. Dumm und den Aktionären nicht zu erklären wäre eher gewesen ohne Anlass (sprich Wettbewerb) gigantische Summen in eine Weiterentwicklung der zu dem Zeitpunkt mit weitem Abstand leistungsfähigsten Arch zu stecken.
Ich denke das, wenn Intel etwas vom vorhandenen Gelt früher investiert hätte, wäre es deutlich weniger was das Intel gekostet hätte, als der momentane Wertverlust der Intel Aktie. Ganz davon abgesehen das sie massiv Aktien zurückgekauft hatten und mit dem Move doppelt Gelt verbraten hatten. Von 12 bis Mittag denken ist DUMM.
Intels Hauptproblem ist aktuell nicht, dass sie keine neue Arch haben, sondern fertigungstechnisch hinten dran sind (so wie es AMD jahrelang eben auch war). Dafür halten sich die CPUs noch verdammt gut!
Bestreite ich ja nicht, nur die Methode die Intel anwendet war schon sehr meh..
D.h. für die allermeisten PCs ist es schlicht egal was man verbaut, die extremen Leistungen von AMD bei Mehrkernanwendungen ist nur für die allerwenigsten Anwender von Bedeutung.
Heutige Internetseiten überfordern schon manchmal 2/4 CPUs, hat man noch andere Sachen auf wird es
schon Haarig mit 4/4 CPUs
Auch wenn man es kaum glauben mag, die allermeisten setzen ihren PC weder privat, als auch geschäftlich nicht dazu ein abendfüllende Spielfilme zu rendern, FEM Analysen durchzuführen oder auch nur die neuesten AAA Spiele zu spielen.
Mein Vater hat oft mehr als 13 Tasks im Firefox auf, Solitär, Office und Itunes am rennen. Der hatte sich so
über den i5 aufgeregt da er trotz Beratung ein 4/4 Laptop mit Stromspar CPU und 4 GB Ram aufgeschwatz
bekam. Ich hab ihm zu nem 4600H Laptop geraten mit 16GB Ram, der Feiert das Teil richtig. Viele
meiner Familienmitglieder wollen den jetzt auch haben.
Deswegen werden auch größtenteils eher die kleinen CPUs der jeweiligen hersteller verwendet bei denen der Unterschied eher sehr klein ist.
Das war ein mal...
Und nur eben diese "Randgruppe", die ihrem PC wirklich die Sporen geben profitieren von der neuen Entwicklung + zusätzlichen Kernen. Alle anderen sind mit einem stinknormalen 4-Kerner (der auch schon etwas älter sein darf) gut bedient. Ganz nebenbei ist im Teillastbereich in dem diese PCs überwiegend gefahren werden die Verbrauchsunterschiede zu vernachlässigen.
Das sehe ich anders, hab noch mehrere Beispiele wo es klar zu deutlichen Einschränkungen kam mit 4 Kernen
Deswegen, ja klar würde Intel heute anders da stehen wenn sie zumindest ihre 10nm / 7nm Fertigung im Zeitplan ins Ziel gebracht hätten. Aber technische Probleme nicht gelöst zu bekommen ist jetzt nicht direkt dumm, eher überambitioniert in diesem Fall.
Wie es gekommen wäre lässt sich leider schwer erahnen.
Ohne AMD wären wir stagniert, davon bin ich überzeugt.
 
Ich denke das, wenn Intel etwas vom vorhandenen Gelt früher investiert hätte, wäre es deutlich weniger was das Intel gekostet hätte, als der momentane Wertverlust der Intel Aktie. Ganz davon abgesehen das sie massiv Aktien zurückgekauft hatten und mit dem Move doppelt Gelt verbraten hatten. Von 12 bis Mittag denken ist DUMM.

Ne, ich glaub du verstehst nicht woran es hängt. Die Arch ist nach wie vor sehr gut. Ok, die Kernmonster von AMD lassen sich damit nicht so einfach kontern. Das Problem ist die hinterherhinkende Fertigung. 14nm++++ ist halt nicht mehr das Optimum. Die Weiterentwicklung ist mMn auch rechtzeitig begonnen worden, jedoch offenbar etwas überambitioniert. D.h. das Problem ist nicht, dass man es nicht rechtzeitig angegangen ist, sondern eher, das man sich da komplett vertan hat.
Core in einer aktuellen Fertigungstechnologie wäre sehr wohl absolut konkurrenzfähig, davon bin ich überzeugt.
Das ist also eher nicht dumm gewesen, weil man zu lange nichts getan hat, sondern eher unvorsichtig bei der Planung gewesen ist.

Heutige Internetseiten überfordern schon manchmal 2/4 CPUs, hat man noch andere Sachen auf wird es
schon Haarig mit 4/4 CPUs

Was für Seiten sind denn das? Schick mir mal nen Link, ich schmeiß die Kiste extra für dich an!

Also ich habe hier u.a. einen Ivy i5, der ist als Surfmaschine noch nie auch nur annährend in die Knie gegangen (24GB). Egal wo ich war und wieviel Tabs auf waren oder auch was nebenher noch lief.

Mein Vater hat oft mehr als 13 Tasks im Firefox auf, Solitär, Office und Itunes am rennen. Der hatte sich so
über den i5 aufgeregt da er trotz Beratung ein 4/4 Laptop mit Stromspar CPU und 4 GB Ram aufgeschwatz
bekam. Ich hab ihm zu nem 4600H Laptop geraten mit 16GB Ram, der Feiert das Teil richtig. Viele
meiner Familienmitglieder wollen den jetzt auch haben.

FInde den Fehler... Mit 4GB Ram kannst du als Prozzi reinhängen was du magst. Klar geht der in die Knie - Aber nicht wegen ein bissle Firefox und Gedöns...

Das war ein mal...

Das sehe ich anders, hab noch mehrere Beispiele wo es klar zu deutlichen Einschränkungen kam mit 4 Kernen

Ne, das ist immer noch so. Eine reine Officekiste - und das sind nunmal die allermeisten Rechner - kann auch heute mit 4 Kernen locker flockig den Ansprüchen genügen (kleine APU rein und gut). Für ein bissle Office, SAP und Internet brauchts keine 8 Kerne. Bis vor einiger zeit hatten wir noch einen CAD (!) Laptop, der nur einen 2-kernigen i7 drin hatte (frag mich nicht wie alt), dazu ne Quadro Karte und 32GB Ram. CAD ging nicht mehr (zumindest keine größeren Baugruppen), aber alles andere (sprich Office) war absolut uneingeschränkt damit zu bewältigen.

Nur weil es jetzt CPUs mit 6-32 Kernen gibt, heißt das ja nicht, das die ein normaler Mensch auch braucht. Dessen Anforderungen sind in den letzten Jahren kaum gestiegen. Sogar mit nem 2 Kerner und ausreichend Ram kann man noch im Office ungestört arbeiten - viele Laptops in den Firmen sind noch mit solchen Dingern bestückt - und da wird gearbeitet mit.

Wie es gekommen wäre lässt sich leider schwer erahnen.
Ohne AMD wären wir stagniert, davon bin ich überzeugt.

Keine Frage, durch die Konkurrenz ist die Entwicklung beschleunigt worden. Aber das ist weder Intel anzulasten, noch AMD. Die einen mussten nicht mehr tun, die anderen konnten nicht. So ist das halt.

Jedenfalls ist es albern, wenn man hier immer liest, das Intel uns verarscht hat. Niemand war gezwungen jeden noch so lächerlich kleinen "Fortschritt" in Form von neuen CPU Gens inklusive neuer Sockel zu kaufen. Jeder hat gewusst, dass es sich nur um eine minimalste Weiterentwicklung handelte und wer dann trotzdem kauft, der darf sich nicht aufregen.
 
Einfach mal play drücken und die Stelle sich anhören.
Es geht ums Duell vs RTX 3080 und da gewinnt bei den 10 gezeigten Spielen AMD in 5 Games in 4k 2 Games unentschieden und 3 Games kann Nvidia für sich entscheiden. Geht man aber runter auf 1440p, gewinnt AMD nicht mehr in 5 Games sondern in 8 Games und verliert nur in 2 Games und das ist nur die 6800XT, also nicht die Speerspitze.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
@Zappaesk
Mein altes MB Pro mit 2/4 i5 und 8 GB Ram meckert schon bei PCGH und YT.
Mein Vater hat oft Medizinische Seiten mit Datenbanken auf und Börse und Nachrichten, etc.
Mal davon ganz abgesehen das alles was man macht Subjektiv bleibt, seit ich den i3 gegen den R5 1600
getauscht hatte, momentan 3600X, will ich den nicht mehr missen. (außer in SC2, da war der i3 Killer)
Für den einen reicht ein alter i3/5 locker mich Nervt das schon wenn ich nicht an meinen Desktop surfen kann.
 
Zuletzt bearbeitet:
Langsam gehts bei mir nur noch drum. Was ist schneller verfügbar? 3080 FE oder das Gegenstück von AMD xD

2 Monate nach Vorstellung und ich kann immer noch nicht die Karte einfach so kaufen. Unglaublich.
 
Glaub nicht das da 16 GB wirklich helfen würden bei dem alten i5...
Ich denke das alles etwas Harmonischer läuft auf meinem 6/12 und der nie
überfordert ist, wenn ich nicht zocke ist der Ram verbrauch zwischen 3 und 5 GB.
Ich nutze allerdings schon eine SSD seit fast 10 Jahren im Desktop und mag es wirklich
wirklich Smooth. Ich hab momentan ne Viper verbaut die kommt allerdings bald in den
Desktop von meiner besseren Hälfte, dann wirds ne 980 Pro...
BTT
Danke Duvar, Danke Fliegendes Spagetti Monster, Danke Wotan, Danke Dodojesus.
Ich habe so sehr gebetet das dies eintrifft.
jetzt muss ich nur noch die Finanziellen Mittel bei meiner Staatskasse bewilligt bekommen.
 
Nur weil es jetzt CPUs mit 6-32 Kernen gibt, heißt das ja nicht, das die ein normaler Mensch auch braucht. Dessen Anforderungen sind in den letzten Jahren kaum gestiegen. Sogar mit nem 2 Kerner und ausreichend Ram kann man noch im Office ungestört arbeiten - viele Laptops in den Firmen sind noch mit solchen Dingern bestückt - und da wird gearbeitet mit.

Ähm, das hier ist aber eine Gaming-Website, keine Office-Website.
Dann lass noch irgendwelche Renderer laufen, vielleicht noch BOINC oder FAH und noch ein paar Virtual-Machines und dann kommen einem mehr Kerne und mehr RAM sehr gelegen.
 
Etwas ernüchternd lesen sich dann die Ergebnisse beim Port Royal-Test mit Raytracing-Implementierung, wo zur besseren Vergleichbarkeit ebenfalls ein 4K-Wert zitiert wurde. Hier führt die Ampere-Karte plötzlich mit 122 Prozent, während die Radeon RX 6800 XT eine Geforce RTX 2080 Ti, die bei 96,1 Prozent steht, gerade so auf Distanz hält.
imho wird es für Port Royal keinen DXR 1.1 Patch geben, RDNA2 sollte aber gerade von DXR 1.1 deutlich mehr profitieren. Insofern sind die momentanen Raytracing Werte nur ein Hint aber sicher nicht von dauer.
 
Ja gut das 3D Markt soviel aussagt wie Cinebench zu Gaming.
Schaut man sich 3D Mark an waren immer AMD GPUS deutlich weiter vorne als ihre
Gaming Leistung.
Außerdem ist der 3D Mark echt alt und gar nicht optimiert auf Ampere. Deren Shader Leistung kommt
erst wirklich zu tragen wenn Fließkomma ins Spiel kommt. Siehe Doom eben, sobald man auf Ampere wirklich
optimiert legen die Karten deutlich zu.

Das zeigt eher das RDNA 2 einen Aufbau hat der sich nicht groß geändert hat.
Bei Ampere ist mehr Last ein riesen Unterschied zu weniger Last und genau das ist wichtig.
Ampere wird umso stärker bei hoher Last unter 4K brauchst Ampere gar nicht kommen.
Daran sieht man auch schon das die Architektur auf RT Last ausgelegt wurde und 4K für eine 3080
der Standard sein soll.

Das 3D Mark eigentlich Alt ist muss man nicht mehr erwähnen und eigentlich wäre es Zeit für einen neuen 3D Mark.
Oder man kann diesen Synthetischen Müll einfach gleich mal zu grabe tragen. Den es bringt einem nichts eine tolle Zahl zu haben,
wenn es in Games dann nicht so ist.
Gerade da die Last immer mehr wird, wird Ampere mit der Zeit immer mehr Unterschied machen zu der 2000er Generation.
Man wird nicht Jahre lang nur Schatten, Beleuchtung und Reflexionen von RT haben. Da wird noch wesentlich mehr kommen
und es wird Standard werden. Wenn AMD dann nicht auf dem gleichen Level ist, heißt es ganz einfach auf AMD musst Settings ausschalten,
ob das toll ist wenn man 700 Euro für GPUS zahlt sollte eigentlich klar sein. Später wird man sowieso die RT Effekt gar nicht mehr ohne DLSS schaffen.
 
Ähm, das hier ist aber eine Gaming-Website, keine Office-Website.
Dann lass noch irgendwelche Renderer laufen, vielleicht noch BOINC oder FAH und noch ein paar Virtual-Machines und dann kommen einem mehr Kerne und mehr RAM sehr gelegen.

Klar ist das ne Gamingseite, nur darum geht's ja gar nicht. Und klar, ich weiß schon wie man Kerne auslastet.
 
Schaut man sich 3D Mark an waren immer AMD GPUS deutlich weiter vorne als ihre
Gaming Leistung
Ist das so? Wenn ich auf guru3d vergleiche sehe ich eher eine recht ähnliche Leistung in 3D Mark gegenüber der Spieleleistung.
In Time Spy etwa mittig zwischen 2070 und 2070s, leistungsmäßig also genau wie in den Spieletests. In Firestrike nur minimal schneller als die 2070s. Von einem großen Unterschied oder "deutlich weiter vorne als ihre
Gaming Leistung" ist da nichts zu sehen.
 
Das zeigt eher das RDNA 2 einen Aufbau hat der sich nicht groß geändert hat.
Bei Ampere ist mehr Last ein riesen Unterschied zu weniger Last und genau das ist wichtig.
Ampere wird umso stärker bei hoher Last unter 4K brauchst Ampere gar nicht kommen.
Daran sieht man auch schon das die Architektur auf RT Last ausgelegt wurde und 4K für eine 3080
der Standard sein soll.
Ach ja und zuvor war die Day 1 Performance die Pascal, Turing im Unterschied zu Vega abrufen konnte der goldene Gral und jetzt wo sich die Vorzeichen geändert haben, ist es auf einmal die nachträgliche Optimierung.
Ja bei 4K performt sie tendenziell besser als in niedrigeren Auflösungen nur gut das die 3080 so üppig mit gleich 10GB ausgestattet wurde.
Aber selbst da scheint sie in 5 von 10 Spielen den kürzeren, 2 x untentschieden und 3 wins zu ziehen. (siehe Duvars video)
Bei 1080p / 1440p ist sie aufgrund ihres Auslastungsproblems momentan und auch in Zukunft nicht zu gebrauchen obwohl sie anhand ihrer 10GB prädestiniert wäre für niedrigere Auflösungen. (Unterliegt bei dieser Auflösung auch in 8 von 10 Spielen der 6800XT)

Aber die Hoffnung stirbt ja bekanntlich zuletzt, aber wenn es dich beruhigt NVIDIA wird sicherlich noch den einten oder anderen Rubel rollen lassen, um noch das einte oder andere Vorzeigespiel präsentieren zu können, das von der up to 2x floating point performance gebrauch macht.

Ist doch wirklich komisch wenn NVIDIAs GPUs ab morgen schwefelhaltige Fürze absondern würden, würde der erste
sicher nicht lange auf sich warten lassen um hier im Forum kund zu tun wie faszinierend diese doch riechen würden und das man doch ohne keine richtige gaming experience mehr erfahren könne.
 
Zuletzt bearbeitet:
@sandworm
Mal ganz davon abgesehen das das AMDs große stärke ist :D.
Siehe den Abstand von der RX570 zur GTX1060 oder den der RX590 zur 1070/1660/S/TI.
DX 11 wurde, meines erachten nach, viel zu lange durch Nvidias Politik am leben gelassen.
Teils weil sie DX11 und DX12_FL11.X sehr dominiert hatten, allerdings auch weil sie bei DX 12
ziemlich mies bei der Preisleistung ausschauen.
In DX 12_FL12.X konnte nur eine 2080S oder TI einen wirklichen Mehrwert bieten, zu
lächerlichen Preisen allerdings. AMD hatte mit der 5700 eine Preiswerte 1440P Karte.
Ich finde es sehr lustig das man davon ausgegangen ist das Nvidia auf einmal besser wird in DX12.
Alle Zeichen waren hier klar das AMD stärker Performen würde.
Aber hey, wenn Nvidia Treibermäßig was nettes hinlegt ist das doch auch ok, kommt nicht oft vor
aber gönnen würde ich das allen.
 
Ampere wird erst ab 4K richtig performant weil es eine Arch ist die für AI Berechnungen entwickelt wurde ,so wie Vega damals bei AMD ,RDNA2 ist aber ne reine Gaming Arch und performt so besser in niedrigeren Auflösungen wird wohl die Beste Wahl für alle 1440p/144 HZ Zocker .
Nvidia hat mit Turing schon besser in Vulkan und DX12 ausgesehen aber Async Compute ist immer noch nicht deren Stärke.
Mal sehen was NV mit dem GA103 bringt wenn der von TSMC kommt uind dann wohl auch mit mehr Speicher. Das hiesse aber das die auf GA 102 basierenden 3090/3080 schon Auslaufmodelle sind .
 
Zurück