Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

Die Beta wurde mittlerweile extrem verbessert, vor allem die Leistung. Was schon lustig ist wenn man bedenkt die meisten Leute glauben RT-Leistung sei nur von den Cores abhängig und sich brav ne neue Ampere kaufen (bzw. bestellen) statt den Entwicklern mal mehr Druck zu machen was Optimierungen angeht. Ist wie gesagt mittlerweile sehr gut spielbar @ 1440p & DLSS 2.0, mit ner ollen 2070, mit der man ja laut einigen Experten hier eigentlich nicht mal darüber nachdenken sollte RT zu aktivieren.

Kein Thema, sieht gut aus.

Ich spiele mit meiner 1080 eben Vanilla mit Mods, sieht auch sehr gut aus und kostet hmmmm, NIX!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Du siehst, es geht auch ohne RT in hübscher.... ;)
 
Zuerst hat Team Red mit Team Blue den Boden aufgewischt und nun ist Team Green dran.
Danke Lisa Su für den Wettbewerb und den damit verbundenen Fortschritt:-X
Noch beeindruckender sind mit welchen mini Ressourcen AMD gleich zwei Goliathe in Schach hält.

Nein weder Nvidia noch Intel sind höherer Gewalt ausgesetzt, auch die Maschinen entwickeln kein eigenleben (Intels Fertigungsprobleme), es sind ganz einfach Management und Entwicklungsfehler bzw. die richtigen Entscheidungen und kompetente Ingenieure bei AMD
 
Ich bin da noch vorsichtig. Die Leistung glaube ich. Keine Frage. Was wir einfach nicht wissen ist
- Preis
- Lautstärke

Ich hatte jetzt sehr lange AMD Grafikkarten. Sie sind nicht schlecht. Ganz bestimmt besser als das was ihnen immer nachgesagt wird. ABER: AMD kocht auch nur mit Wasser. Die Treiber sind schwergewichtig geworden, die Optimierungen in Spielen zum Teil haarsträubend bis nicht vorhanden. Und bisher kämpften die Karten mit ihren Kühllösungen. Das Fine Vine Thema gilt auch nicht mehr direkt. Manche Themen bekommen sie seit Monaten nicht in den Griff. Und es war bisher immer holprig mit den ersten Treibern einer neuen Generation.

Sicher, diesmal sieht nVidia auch nicht viel besser aus und das ist dann der große Moment für AMD den ich ihnen schon lange gönne. Aber mal realistisch betrachtet können Preis und Lautstärke (ggfs. auch Stabilität) theoretisch noch immer für lange Gesichter sorgen.

Bitte versteht mich nicht falsch. Ich gönne AMD wirklich die Führungsrolle. Aber tut euch selbst einen gefallen und bremst den Hype Train etwas. Der ist schon zu oft im Tunnel stecken geblieben.
 
Ich bin ja wirklich mal auf die Tests der Karten gespannt. Wenn die Leaks stimmen, wäre das aus leistungstechnischer Sicht richtig geil. Interessant wäre dann nur der Stromverbrauch und die Lautstärke.

Aber ich frage mich nach wie vor, ob AMD noch ein Äquivalent zu nVidias DLSS bringt. Schön wäre es ja. Solange es gut umgesetzt ist.
 
Noch beeindruckender sind mit welchen mini Ressourcen AMD gleich zwei Goliathe in Schach hält.

Nein weder Nvidia noch Intel sind höherer Gewalt ausgesetzt, auch die Maschinen entwickeln kein eigenleben (Intels Fertigungsprobleme), es sind ganz einfach Management und Entwicklungsfehler bzw. die richtigen Entscheidungen und kompetente Ingenieure bei AMD
Naja aber richtige Innovationen wie Raytracing und DLSS haben sie auch nicht erfunden.
Ich weiß man wird wieder sagen, dass das alles natürlich Müll ist den nie Jemand brauchen wird..

Aber ich finde Raytracing wahnsinnig schön. Nvidia hatte einen wahnsinns Vorsprung mit der 1080ti und sie hätten einfach nur die Performance steigern können bei der 2000er Serie. Aber sie haben sich dazu entschlossen etwas neues einzuführen und an dieser Technik immer weiter zu arbeiten. DLSS ist auch wie Zauberei, wenn man das mal live gesehen hat.

Finde es einfach schade, dass sowas so selten wertgeschätzt wird.
 
@olimon0
Nvidia hat diese auch nicht erfunden sondern allerhöchstens weiterentwickelt.
KI basierte Verbesserungen in Grafik und Raytracing Render sind schon etwas älter.
Nicht falsch verstehen als Ansätze diese in Echtzeit zu Rendern ist klasse aber selbst das ist nichts
neues, das wir sowas im Gamingbereich haben ist allerdings Nvidia zu verdanken.
 
ja, weil nicht alle 16:9 monitor benutzen.
21:9 wird von DLSS nicht unterstützt. bei mir sind RT-FPS bei 50 festgenagelt

Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
Ist das nicht nur für DLSS1 nicht möglich gewesen? Dachte DLSS 2.0 Games hätten das an Bord und jetzt sollten eh keine DLSS 1.0 Games mehr kommen in Zukunft, oder?

Naja, dann kann ich auch noch länger mit dem Neubau eines Systems warten ohne viel zu verpassen. Shit.
 
Zuletzt bearbeitet:
Also für mich werden letzt Endlich vorallem meine Monitore entscheiden ob AMD oder Nvidia. Da ich 3 G-Sync Monitore habe, welche für sich schon so viel gekostet haben wie ein kleinwagen, werdr ich bei Nvidia bleiben.

Wegen dem Speicher gibt es halt ne 3090... mein ganzes System ist sowieso Preis Leistungstechnisch völlig "unvernünftig"

Aber muss es denn immer vernünftig sein, wenns Spass macht?

Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?
 
Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?

Weil Gsync deutlich besser funktioniert. Adaptive Sync kommt für mich nur bei OLEDs in Frage weil da das fehlende Adaptive Overdrive bei normalem Adaptive Sync/FreeSync nicht auffällt. Bei IPS oder VA Bildschirmen ist Adaptive Sync/FreeSync für mich aber unbenutzbar ;)
 
Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
DLSS 2.0 kann doch Ultrawide. Gib einfach bei YT "DLSS 2.0 Ultrawide" ein. Da läuft Control bis Death Stranding.

Wüsste jetzt nicht dass es ab Version 2.0 nicht gehen sollte.
 
LOL gauss dreht durch auf Twitter^^

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
Ist das nicht nur für DLSS1 nicht möglich gewesen? Dachte DLSS 2.0 Games hätten das an Bord und jetzt sollten eh keine DLSS 1.0 Games mehr kommen in Zukunft, oder?

Naja, dann kann ich auch noch länger mit dem Neubau eines Systems warten ohne viel zu verpassen. Shit.
Oh AMD bekommt auch was DLLS ähnliches + später gibts noch paar andere Leaks bzgl der Gaming Performance welche sehr gut sein soll:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Mensch, falls das so nur im Ansatz stimmt, dann Hut ab. Freut euch doch einfach für AMD. Sie kämpfen an 2 Fronten, von daher können Sie auch zwei gute Produkt-Linien gebrauchen. Und mit ihren CPUs haben Sie es sich schon verdient gute Verkäufe zu erlangen. Vielleicht klappt das ja mit den GPUs auch noch. Scheinbar ging das diesmal mit der Entwicklung in beiden Bereich in die richtige Richtung.
 
Ich verzichte gerne auf überlegene RT-Performance, wenn die Karte dafür auf Augenhöhe mit der 3080 ist und weniger kosten wird. Ich hoffe Mal, die 6800 wird bei 500 - 600€ liegen und die 6900 bei rund 750€.
 
Mensch, falls das so nur im Ansatz stimmt, dann Hut ab. Freut euch doch einfach für AMD. Sie kämpfen an 2 Fronten, von daher können Sie auch zwei gute Produkt-Linien gebrauchen. Und mit ihren CPUs haben Sie es sich schon verdient gute Verkäufe zu erlangen. Vielleicht klappt das ja mit den GPUs auch noch. Scheinbar ging das diesmal mit der Entwicklung in beiden Bereich in die richtige Richtung.

Immer diese martialische Sprache. Da kämpft niemand an irgendeiner Front...

Abgesehen davon an wievielen Fronten kämpft denn dann Nvidia? Oder Intel? Wenn deiner Meinung nach jede Produktgruppe eine Front ist,da kommt da bei praktisch jedem Konzern ne ganze Latte zusammen.

Ich finde es es schön, AMD jetzt im oberen Segment wieder für mehr Konkurrenz sorgen,aauch wwenn ich sicher keine 600€ für ne Grafikkarte hinlegen werde. Im Preisbereich in dem ich normal zuschlage gab's aber den Wettbewerb schon vorher.
 
Echt jetzt bin ich aber so etwas von perplex.

2 x 225W (5700XT) resultieren doch in 450W und das bei einer gaming Taktrate von lediglich ca. 1.7Ghz

Bei gleichem Prozess müsste eine 2GHz + GPU doch deutlich > 500W konsumieren.

Manch einer hier im Forum würde wohl sagen das es bis 600W gehen könnte.

Wie soll das den gehen die bei AMD kochen doch auch nur mit Wasser.
Lag ich den wirklich so total falsch all die Monate zuvor.

Aber zum Glück ist wenigstens die IPC mit Sicherheit im Vergleich zu RDNA1 unverändert geblieben, denn wer sollte schon im voraus damit rechnen das diese sich nach dem doch überraschen hohen Zugewinn von GCN auf RDNA1 nochmals signifikant steigern könnte.
 
Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?
Naja mein erster G-sync monitor ist 3 Jahre alt. Und ich hatte halt eine 1080TI. Da war ja logisch das ich G-symc monitore gekauft habe und nicht Freesync.

Abgesehen davon läuft g-sync was ich so gehört habe, deutlich besser als Free sync (ich selbst kenne nur G-sync)

Vorallem wieso sollte es blöd sein? Blöd wäre ich gewesen, wenn ich mit meiner 1080TI Freesync monitore gekauft hätte, denn die hätten mir nix gebracht.

Und Nvidia bringt ja mit der 3090 auch ne GPU welche annähernd die Leistung bringt die ich möchte. Nämlich 4K 120FPS

Das dies völlig überzahlt ist, ist mir völlig bewusst. Aber bei mir zählt nicht Preis/Leistung... sondern ausschlieslich "Leistung" der Preis ist mir dabei egal.
 
Zurück