• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

h_tobi

Lötkolbengott/-göttin
Die Beta wurde mittlerweile extrem verbessert, vor allem die Leistung. Was schon lustig ist wenn man bedenkt die meisten Leute glauben RT-Leistung sei nur von den Cores abhängig und sich brav ne neue Ampere kaufen (bzw. bestellen) statt den Entwicklern mal mehr Druck zu machen was Optimierungen angeht. Ist wie gesagt mittlerweile sehr gut spielbar @ 1440p & DLSS 2.0, mit ner ollen 2070, mit der man ja laut einigen Experten hier eigentlich nicht mal darüber nachdenken sollte RT zu aktivieren.

Kein Thema, sieht gut aus.

Ich spiele mit meiner 1080 eben Vanilla mit Mods, sieht auch sehr gut aus und kostet hmmmm, NIX!
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Du siehst, es geht auch ohne RT in hübscher.... ;)
 

wtfNow

Software-Overclocker(in)
Zuerst hat Team Red mit Team Blue den Boden aufgewischt und nun ist Team Green dran.
Danke Lisa Su für den Wettbewerb und den damit verbundenen Fortschritt:-X
Noch beeindruckender sind mit welchen mini Ressourcen AMD gleich zwei Goliathe in Schach hält.

Nein weder Nvidia noch Intel sind höherer Gewalt ausgesetzt, auch die Maschinen entwickeln kein eigenleben (Intels Fertigungsprobleme), es sind ganz einfach Management und Entwicklungsfehler bzw. die richtigen Entscheidungen und kompetente Ingenieure bei AMD
 

FR4GGL3

PC-Selbstbauer(in)
Ich bin da noch vorsichtig. Die Leistung glaube ich. Keine Frage. Was wir einfach nicht wissen ist
- Preis
- Lautstärke

Ich hatte jetzt sehr lange AMD Grafikkarten. Sie sind nicht schlecht. Ganz bestimmt besser als das was ihnen immer nachgesagt wird. ABER: AMD kocht auch nur mit Wasser. Die Treiber sind schwergewichtig geworden, die Optimierungen in Spielen zum Teil haarsträubend bis nicht vorhanden. Und bisher kämpften die Karten mit ihren Kühllösungen. Das Fine Vine Thema gilt auch nicht mehr direkt. Manche Themen bekommen sie seit Monaten nicht in den Griff. Und es war bisher immer holprig mit den ersten Treibern einer neuen Generation.

Sicher, diesmal sieht nVidia auch nicht viel besser aus und das ist dann der große Moment für AMD den ich ihnen schon lange gönne. Aber mal realistisch betrachtet können Preis und Lautstärke (ggfs. auch Stabilität) theoretisch noch immer für lange Gesichter sorgen.

Bitte versteht mich nicht falsch. Ich gönne AMD wirklich die Führungsrolle. Aber tut euch selbst einen gefallen und bremst den Hype Train etwas. Der ist schon zu oft im Tunnel stecken geblieben.
 

RedDragon20

BIOS-Overclocker(in)
Ich bin ja wirklich mal auf die Tests der Karten gespannt. Wenn die Leaks stimmen, wäre das aus leistungstechnischer Sicht richtig geil. Interessant wäre dann nur der Stromverbrauch und die Lautstärke.

Aber ich frage mich nach wie vor, ob AMD noch ein Äquivalent zu nVidias DLSS bringt. Schön wäre es ja. Solange es gut umgesetzt ist.
 

olimon0

Kabelverknoter(in)
Noch beeindruckender sind mit welchen mini Ressourcen AMD gleich zwei Goliathe in Schach hält.

Nein weder Nvidia noch Intel sind höherer Gewalt ausgesetzt, auch die Maschinen entwickeln kein eigenleben (Intels Fertigungsprobleme), es sind ganz einfach Management und Entwicklungsfehler bzw. die richtigen Entscheidungen und kompetente Ingenieure bei AMD
Naja aber richtige Innovationen wie Raytracing und DLSS haben sie auch nicht erfunden.
Ich weiß man wird wieder sagen, dass das alles natürlich Müll ist den nie Jemand brauchen wird..

Aber ich finde Raytracing wahnsinnig schön. Nvidia hatte einen wahnsinns Vorsprung mit der 1080ti und sie hätten einfach nur die Performance steigern können bei der 2000er Serie. Aber sie haben sich dazu entschlossen etwas neues einzuführen und an dieser Technik immer weiter zu arbeiten. DLSS ist auch wie Zauberei, wenn man das mal live gesehen hat.

Finde es einfach schade, dass sowas so selten wertgeschätzt wird.
 

Hannesjooo

Software-Overclocker(in)
@olimon0
Nvidia hat diese auch nicht erfunden sondern allerhöchstens weiterentwickelt.
KI basierte Verbesserungen in Grafik und Raytracing Render sind schon etwas älter.
Nicht falsch verstehen als Ansätze diese in Echtzeit zu Rendern ist klasse aber selbst das ist nichts
neues, das wir sowas im Gamingbereich haben ist allerdings Nvidia zu verdanken.
 

Blowfeld

PC-Selbstbauer(in)
ja, weil nicht alle 16:9 monitor benutzen.
21:9 wird von DLSS nicht unterstützt. bei mir sind RT-FPS bei 50 festgenagelt

Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
Ist das nicht nur für DLSS1 nicht möglich gewesen? Dachte DLSS 2.0 Games hätten das an Bord und jetzt sollten eh keine DLSS 1.0 Games mehr kommen in Zukunft, oder?

Naja, dann kann ich auch noch länger mit dem Neubau eines Systems warten ohne viel zu verpassen. Shit.
 
Zuletzt bearbeitet:

XD-User

PCGH-Community-Veteran(in)
Also für mich werden letzt Endlich vorallem meine Monitore entscheiden ob AMD oder Nvidia. Da ich 3 G-Sync Monitore habe, welche für sich schon so viel gekostet haben wie ein kleinwagen, werdr ich bei Nvidia bleiben.

Wegen dem Speicher gibt es halt ne 3090... mein ganzes System ist sowieso Preis Leistungstechnisch völlig "unvernünftig"

Aber muss es denn immer vernünftig sein, wenns Spass macht?

Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?
 

blautemple

Lötkolbengott/-göttin
Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?

Weil Gsync deutlich besser funktioniert. Adaptive Sync kommt für mich nur bei OLEDs in Frage weil da das fehlende Adaptive Overdrive bei normalem Adaptive Sync/FreeSync nicht auffällt. Bei IPS oder VA Bildschirmen ist Adaptive Sync/FreeSync für mich aber unbenutzbar ;)
 

KuroSamurai117

BIOS-Overclocker(in)
Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
DLSS 2.0 kann doch Ultrawide. Gib einfach bei YT "DLSS 2.0 Ultrawide" ein. Da läuft Control bis Death Stranding.

Wüsste jetzt nicht dass es ab Version 2.0 nicht gehen sollte.
 

Duvar

Kokü-Junkie (m/w)
LOL gauss dreht durch auf Twitter^^

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
Da bricht gerade eine kleine (!) Welt für mich zusammen :wall:
Hatte mich so auf Control mit RT mit DLSS gefreut, aber auch ich spiele auf 3440x1440. Hatte Nvidia nicht schon vor über einem halben Jahr gesagt, dass sie DLSS auch für Ultrawide implementieren wollen. War der Annahme, das wäre schon geschehen. Verdammt.
Ist das nicht nur für DLSS1 nicht möglich gewesen? Dachte DLSS 2.0 Games hätten das an Bord und jetzt sollten eh keine DLSS 1.0 Games mehr kommen in Zukunft, oder?

Naja, dann kann ich auch noch länger mit dem Neubau eines Systems warten ohne viel zu verpassen. Shit.
Oh AMD bekommt auch was DLLS ähnliches + später gibts noch paar andere Leaks bzgl der Gaming Performance welche sehr gut sein soll:

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

xeonking

Freizeitschrauber(in)
Mensch, falls das so nur im Ansatz stimmt, dann Hut ab. Freut euch doch einfach für AMD. Sie kämpfen an 2 Fronten, von daher können Sie auch zwei gute Produkt-Linien gebrauchen. Und mit ihren CPUs haben Sie es sich schon verdient gute Verkäufe zu erlangen. Vielleicht klappt das ja mit den GPUs auch noch. Scheinbar ging das diesmal mit der Entwicklung in beiden Bereich in die richtige Richtung.
 

Oberst Klink

Lötkolbengott/-göttin
Ich verzichte gerne auf überlegene RT-Performance, wenn die Karte dafür auf Augenhöhe mit der 3080 ist und weniger kosten wird. Ich hoffe Mal, die 6800 wird bei 500 - 600€ liegen und die 6900 bei rund 750€.
 

Zappaesk

Volt-Modder(in)
Mensch, falls das so nur im Ansatz stimmt, dann Hut ab. Freut euch doch einfach für AMD. Sie kämpfen an 2 Fronten, von daher können Sie auch zwei gute Produkt-Linien gebrauchen. Und mit ihren CPUs haben Sie es sich schon verdient gute Verkäufe zu erlangen. Vielleicht klappt das ja mit den GPUs auch noch. Scheinbar ging das diesmal mit der Entwicklung in beiden Bereich in die richtige Richtung.

Immer diese martialische Sprache. Da kämpft niemand an irgendeiner Front...

Abgesehen davon an wievielen Fronten kämpft denn dann Nvidia? Oder Intel? Wenn deiner Meinung nach jede Produktgruppe eine Front ist,da kommt da bei praktisch jedem Konzern ne ganze Latte zusammen.

Ich finde es es schön, AMD jetzt im oberen Segment wieder für mehr Konkurrenz sorgen,aauch wwenn ich sicher keine 600€ für ne Grafikkarte hinlegen werde. Im Preisbereich in dem ich normal zuschlage gab's aber den Wettbewerb schon vorher.
 

sandworm

Freizeitschrauber(in)
Echt jetzt bin ich aber so etwas von perplex.

2 x 225W (5700XT) resultieren doch in 450W und das bei einer gaming Taktrate von lediglich ca. 1.7Ghz

Bei gleichem Prozess müsste eine 2GHz + GPU doch deutlich > 500W konsumieren.

Manch einer hier im Forum würde wohl sagen das es bis 600W gehen könnte.

Wie soll das den gehen die bei AMD kochen doch auch nur mit Wasser.
Lag ich den wirklich so total falsch all die Monate zuvor.

Aber zum Glück ist wenigstens die IPC mit Sicherheit im Vergleich zu RDNA1 unverändert geblieben, denn wer sollte schon im voraus damit rechnen das diese sich nach dem doch überraschen hohen Zugewinn von GCN auf RDNA1 nochmals signifikant steigern könnte.
 

Richu006

Freizeitschrauber(in)
Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?
Naja mein erster G-sync monitor ist 3 Jahre alt. Und ich hatte halt eine 1080TI. Da war ja logisch das ich G-symc monitore gekauft habe und nicht Freesync.

Abgesehen davon läuft g-sync was ich so gehört habe, deutlich besser als Free sync (ich selbst kenne nur G-sync)

Vorallem wieso sollte es blöd sein? Blöd wäre ich gewesen, wenn ich mit meiner 1080TI Freesync monitore gekauft hätte, denn die hätten mir nix gebracht.

Und Nvidia bringt ja mit der 3090 auch ne GPU welche annähernd die Leistung bringt die ich möchte. Nämlich 4K 120FPS

Das dies völlig überzahlt ist, ist mir völlig bewusst. Aber bei mir zählt nicht Preis/Leistung... sondern ausschlieslich "Leistung" der Preis ist mir dabei egal.
 

Stiffmeister

Software-Overclocker(in)
Könnte schon sein das Amd in bestimmten Szenarien Fps-mässig bei Nvidia anklopft.

Aber es wird wohl niemand ( ausser Igor ?! ) ernsthaft glauben das Amd in dann realen Qualifizierten und Aussagekräftigen Test,s und Benches von Pcgh die Nvidia RTX 3000 er im Gesamt Index schlagen kann , und das mit gleichem Stromverbrauch , und besserem Preis .

Ja wenn man nach dem Kaffee Klatsch von Igors Lab geht , kann man sich auch Gerüchte von Oma anhören .
Die haben die gleiche Aussage Kraft . :D

Igor hört sich nur einfach gerne Laabern , und weil ihm zuhause vieleicht schon keiner mehr zuhört tut er es eben auf You Tube und Co.
Braucht wohl viel Bestätigung was mich bei solchen Menschen nicht wundert :schief:

Igor Hyped die Amd Karten , und weckt Erwartungen bei den Kunden , die Realität später ist dann das andere :cool:
Abwarten, ich glaube schon, dass Igor Recht gut vernetzt ist.
 

Lios Nudin

BIOS-Overclocker(in)
Deutlich näher zusammen liegen die Grafikkarten bei 4K demnach im Time Spy Extreme. Dort befindet sich die Geforce RTX 3080 mit 96,9 Prozent auf Schlagdistanz, allerdings fällt auch die Geforce RTX 2080 Ti mit 84,2 Prozent nicht meilenweit zurück.

Wesentlich interessanter finde ich hier die Rückschlüsse auf den XL Chip. Wenn die XT tatsächlich mit der 3080 abseits RT gleichauf liegt und sich an der UVP der 3080 orientiert, wären 550€ zumindest denkbar.
Falls die Spezifikationen für den XL Chip so eintreten wie vermutet, kann es bei mir dann nicht wie bei der 3080 am Speicher und Straßenpreis scheitern, sondern nur an den verlangten Euronen. Und die XL wäre auch in allen Belangen ein Fortschritt zu meiner vorherigen, bereits verkauften 1080Ti.


9.jpg
 
Zuletzt bearbeitet:

olimon0

Kabelverknoter(in)
Nvidia hat Raytracing auch nicht erfunden. Das gibt es schon seit Jahren.
Die Idee ist alt aber die Umsetzung für die Masse ist innovativ, so meinte ich das.
Es hätte ihnen halt auch egal sein können, ob sie diese Technik voran bringen aber sie haben was riskiert und viel dort hineingesteckt.

Aber wie ich oben geschrieben habe, es wird trotzdem kaum wertgeschätzt.
 

xeonking

Freizeitschrauber(in)
Immer diese martialische Sprache. Da kämpft niemand an irgendeiner Front...

Abgesehen davon an wievielen Fronten kämpft denn dann Nvidia? Oder Intel? Wenn deiner Meinung nach jede Produktgruppe eine Front ist,da kommt da bei praktisch jedem Konzern ne ganze Latte zusammen.

Ich finde es es schön, AMD jetzt im oberen Segment wieder für mehr Konkurrenz sorgen,aauch wwenn ich sicher keine 600€ für ne Grafikkarte hinlegen werde. Im Preisbereich in dem ich normal zuschlage gab's aber den Wettbewerb schon vorher.
Natürlich kämpft AMD an verschiedenen Fronten, genau gesagt an 2 Fronten. Einmal mit oder gegen Intel um CPUs in Desktop/Server Bereich..etc abzusetzen. Die zweite wäre dann wohl gegen Nvidia, gleiche Sache halt nur mit GPUs.

Wie auch immer, mit solchen Produkten wird dann auch AMD langfristig Konkurrenzfähig, was wohl für alle gut ist.
 

ghost13

PC-Selbstbauer(in)
Erst Intel und nun Nvidia
Advanced Micro Devices zeigt Muskeln! Also wenn also bei den Konsolen konnte man ja schon sehen, das da einiges an Leistung kommt, in Form von Navi2x. Das nun alle so überrascht sind...? Ich muss auch Ehrlich zugeben, ich hätte nicht erwartet das Navi2x Nvidia so klar schlägt.

Nun Hoffe ich auf besseren Treiber Support bzw. ein Treiber der auch ein Stabiles Zocken zulässt (Black Screen & verschwinden von FRTC) etc... Es wird also spannend was AMD sonst noch im Portfolio hat. Es ist auch sehr beeindruckend zu sehen, wie gut die RT Benchmarks ausgefallen sind. Bravo Radeon Team!

Für mich ist es an der Zeit aufzurüsten, ich habe Zen 2 ausgelassen und hole mir Zen 3. Bei den Grafikkarten hoffe ich auf eine gute
Verfügbarkeit und einen bezahlbaren Preis. Sapphire wird sicherlich wieder was Geiles abliefern!
Abwarten, ich glaube schon, dass Igor Recht gut vernetzt ist.
Igor ist Top Informiert! Nvidia Fanboys haben gerade eine Leidenszeit. Einmal Gewinnt Grün und dann wieder Rot. Gleich wie bei den CPU's und im Sport etc...
 
Zuletzt bearbeitet:

danyundsahne

Komplett-PC-Aufrüster(in)
Solange weiterhin nur ein Bruchteil der Spiele überhaupt RT nutzen, wird die RX6800 XT auch im Gesamt-Index vorne liegen.
Der Gameparcour wird es in Non-RT Games und RT Games gesplittet. Da wird AMD vermutlich in dem einen gut vorne liegen und in dem anderen RT Parcour dann eben zw. 2080ti und 3080 liegen. Lass die 3070 noch auf ähnlichem RT Niveau liegen wie die 6800XT, da sie hier auch schneller als die 2080ti sein wird.
 

CD LABS: Radon Project

Volt-Modder(in)
Also für mich werden letzt Endlich vorallem meine Monitore entscheiden ob AMD oder Nvidia. Da ich 3 G-Sync Monitore habe, welche für sich schon so viel gekostet haben wie ein kleinwagen, werdr ich bei Nvidia bleiben.

Wegen dem Speicher gibt es halt ne 3090... mein ganzes System ist sowieso Preis Leistungstechnisch völlig "unvernünftig"

Aber muss es denn immer vernünftig sein, wenns Spass macht?

Entschuldige, ist aber ja auch blöd wer sowas macht.
FreeSync kam zwar später, allerdings war dir doch bewusst dass du überteuerte Gold Ketten von nVidia an dich legst?

Naja mein erster G-sync monitor ist 3 Jahre alt. Und ich hatte halt eine 1080TI. Da war ja logisch das ich G-symc monitore gekauft habe und nicht Freesync.

Abgesehen davon läuft g-sync was ich so gehört habe, deutlich besser als Free sync (ich selbst kenne nur G-sync)

Vorallem wieso sollte es blöd sein? Blöd wäre ich gewesen, wenn ich mit meiner 1080TI Freesync monitore gekauft hätte, denn die hätten mir nix gebracht.

Und Nvidia bringt ja mit der 3090 auch ne GPU welche annähernd die Leistung bringt die ich möchte. Nämlich 4K 120FPS

Das dies völlig überzahlt ist, ist mir völlig bewusst. Aber bei mir zählt nicht Preis/Leistung... sondern ausschlieslich "Leistung" der Preis ist mir dabei egal.
Leute, Monitore lassen sich auch weiter verkaufen...
...und wenn es derart teure Exemplare waren, dann sollte es auch recht unproblematisch sein, das in der Praxis zu machen, sofern es eines Tages "von Nöten" wäre. Also, sofern eines Tages wieder HD 5000er-Zeiten anbrechen sollten, Nvidia also einfach mal eine Zeit lang gar kein Angebot vorzuweisen hat. Oder, falls es sogar dazu kommen sollte, dass AMD Nvidia einmal komplett deklassieren würde.
 

LastManStanding

PCGH-Community-Veteran(in)
Erlich gesagt würde ich für diese 6800 oder jehne 6900 bei identischer leistung zur 3080 aber eben mehr VRAM auch ein tausi(+-) an/für "AMD" zahlen. Wenn die Grüchte stimmen wäre das mehr als fair angesichts Nvidias Preispolitik die letzten Jahren.

Ray Tracing ist Heute und in locker 2-3 jahren kaum ein Thema für das breite Publikum inclusive mir.
es müssen erstmal Spiele Enwickler in den nächsten Spielen etwas schmalz einfließen lassen inclusive iherer Engines
 

Zappaesk

Volt-Modder(in)
Natürlich kämpft AMD an verschiedenen Fronten, genau gesagt an 2 Fronten. Einmal mit oder gegen Intel um CPUs in Desktop/Server Bereich..etc abzusetzen. Die zweite wäre dann wohl gegen Nvidia, gleiche Sache halt nur mit GPUs.

Wie auch immer, mit solchen Produkten wird dann auch AMD langfristig Konkurrenzfähig, was wohl für alle gut ist.
Der einzige Kampf, der stattfindet ist der zwischen den Fanlagern in Foren wie diesem hier...

Ansonsten entwickelt halt AMD Produkte für verschiedene Bereiche. So wie jedes andere der genannten Unternehmen auch! Intel würde dann ja deiner Meinung nach an erheblich mehr Fronten kämpfen als nur den zweien. Warum wird das nicht erwähnt? Oder auch Nvidia, die haben auch einen Mehrfrontenkrieg zu bestehen. Alle Konzerne haben das, nur bei AMD ist es natürlich eine Erwähnung wert weil es die besonders schlimm trifft...

Ich weiß nicht warum hier AMD sehr oft als armes kleines Unternehmen dargestellt wird, dass unser aller Mitleid verdient hat, weil es gegen Intel und Nvidia im Markt ganz allein und frierend im Wind bestehen muss und uns im Gegenzug mit billigen, aber schnellen Produkten versorgt. Ja, AMD ist kleiner als diese beiden Konkurrenten, aber das halt mitunter auch deswegen der Fall, weil man nicht immer die idealen Entscheidungen getroffen hat, sondern im Gegenteil das eine oder andere Mal einfach grob daneben gegriffen hat.

Das dies mittlerweile besser geworden ist und die Produkte mindestens auf Augenhöhe sind, hilft ihnen auch groß und stark zu werden... Kein Grund die Kriegskeule auszupacken, so ist es in der Wirtschaft eben!
 

sandworm

Freizeitschrauber(in)
Der Gameparcour wird es in Non-RT Games und RT Games gesplittet. Da wird AMD vermutlich in dem einen gut vorne liegen und in dem anderen RT Parcour dann eben zw. 2080ti und 3080 liegen. Lass die 3070 noch auf ähnlichem RT Niveau liegen wie die 6800XT, da sie hier auch schneller als die 2080ti sein wird.
Das wird nicht der Fall sein die 3070 wird keine Chance bei RT im Vergleich zur 2080ti / 6800XT haben.
rt perf.png
 

danyundsahne

Komplett-PC-Aufrüster(in)
Also dass die neuen AMD GPUs schnell werden, das sollte seit dem Leak mit 80CUs und 5120 Shadern klar sein. Dazu nochmals die später gezeigten 50% Effizienzsteigerung und plus wesentlich höhere Taktraten....jeder der dachte da kommt nur +/- 2080ti Leistung raus, dem war und ist eh nicht mehr zu helfen.
Und warum gehen immer noch so viele von einer gleichbleibenden IPC aus? Wie viel IPC hat den Zen zu Zen2 zu Zen3 gebracht? 15-19% plus andere Anpassungen und Takt und dann ist man so zu einer Gesamtleistung von bis ca. + 30% (Zen2 zu Zen3) im SingleCore gekommen.

Und wie man sieht kommen hier bei RDNA zu RDNA2 auch diese ganzen Anpassungen enorm zum tragen. Ich finds klasse wenn AMD hier mal richtig überzeugt und vor allem auch jegliche Skeptiker mit einem Schlag ruhigstellt! :D

Zum Thema RT muss ich sagen, finde ich nicht unbedingt, dass es momentan immer noch soooo wichtig ist, da es kaum Spiele nutzen. Das machen nur wenige Prozent aus. Und bis RT flächendeckend wirklich in ALLE Spiele Einzug erhält, vergeht noch locker das Jahr 2021. Es haben sich schon Game Entwickler zu Wort gemeldet, dass man nicht in jedem Games RT braucht und implementieren mag. Das bringt nur in gewissen Games einen spielerischen Vorteil.

Daher ist AMD mit top Rasterisierungsleistung erstmal sehr gut im Vorteil bis RT soooo wichtig wird. Und bis dahin steht schon RDNA3 vor der Türe und dann wird auch AMD mit Sicherheit top RT Performance liefern können.

Jetzt aber erstmal Tests mit finalen Pressetreibern abwarten und was die Preise sprechen und dann kann man sich die Mäuler zerreißen! :D
Das wird nicht der Fall sein die 3070 wird keine Chance bei RT im Vergleich zur 2080ti / 6800XT haben.
Anhang anzeigen 1339213
Ja, dann wird die 3070 knapp unter der 2080ti in RT sein. Aber da müssen wir dennoch Tests abwarten.
 

ZeXes

Software-Overclocker(in)
Also wenn an den Leaks nur halbwegs etwas dran ist.., dann Lecko mio.

Das wird ja ein richtig heißer Jahresabgang.

Dann macht auch die Nachricht sinn, dass NVIDIA die RTX3000 Series nochmal in 7nm und mit doppelter Speichermenge nochmal auflegen will.

Ohne Druck machst du so ein Schritt nicht. Der Druck scheint da zu sein.
 

Richu006

Freizeitschrauber(in)
Leute, Monitore lassen sich auch weiter verkaufen...
...und wenn es derart teure Exemplare waren, dann sollte es auch recht unproblematisch sein, das in der Praxis zu machen, sofern es eines Tages "von Nöten" wäre. Also, sofern eines Tages wieder HD 5000er-Zeiten anbrechen sollten, Nvidia also einfach mal eine Zeit lang gar kein Angebot vorzuweisen hat. Oder, falls es sogar dazu kommen sollte, dass AMD Nvidia einmal komplett deklassieren würde.
Ich verkaufe doch jetzt nicht, meine schicken Monitore, nur weil AMD nun an die Leistung von Nvidia heran kommt...

Wie gesagt so lange Nvidia Leistungsfähige Karten bringt, sehe ich keinen Grund zu wechseln. Sollte es eines Tages so sein. Dass AMD Karten überall 30% besser performen als Nvidia... ja dann kann ich überlegen meine Monitore zu wechseln xD
 

Yaso

PC-Selbstbauer(in)
Puh, da muss ich ja echt mal drüber nachdenken ob ich meine PS5 zum Release nicht doch verkaufe und statt dessen es eine neue Grafikkarte gibt.
Eigentlich wollte ich die PS5 für die Next Gen Spiele und 4K.
Aber ich musste ja schon feststellen dass meine GTX 1080, die noch die nächsten 3-4 Jahre halten sollte, und der neue 4K TV sich nicht ganz so gut verstehen und meine aktuelle CPU sowieso viel zu viel Leistung für die GTX 1080 hat :-S
 

Echo321

Software-Overclocker(in)
Ich weiß nicht warum hier AMD sehr oft als armes kleines Unternehmen dargestellt wird, dass unser aller Mitleid verdient hat, weil es gegen Intel und Nvidia im Markt ganz allein und frierend im Wind bestehen muss und uns im Gegenzug mit billigen, aber schnellen Produkten versorgt.

AMD war in der Vergangenheit der Underdog in den Bereichen CPU und GPU. Schlechte Entscheidungen , nicht konkurrenzfähige Produkte, schlechtes Marketing oder was auch immer .. der Grund dafür ist den Meisten wohl egal.

Intel und Nvidia haben ihr Quasi Monopol ausgenutzt und gutes Geld verdient. Das ging zu Lasten der Kunden denn die hatten keine Wahl , mussten hohe Preise bezahlen und vermissten Innovationen. Der normale Endverbraucher hat davon wahrscheinlich nicht mal was mitbekommen aber gerade wir Enthusiasten haben das Ganze jahrelang beobachtet und uns vielleicht sogar drüber aufgeregt.

Jetzt kommt der AMD und liefert top Produkte mit super Preisleistungsverhältnis. Intel "zittert" und auch Nvidia wird hellhörig. Da darf man sich doch freuen ! :) Für uns als Kunden kann das nur gut sein ! :)

Einen Kampf zwischen Fanlagern sehe ich hier selten und meistens wird der von einzelnen Usern geführt oder aufgestachelt. Einfach ignorieren .. betrifft eh nur eine Minderheit
 

Zappaesk

Volt-Modder(in)
Klar kann man sich freuen und klar habe ich auch die Preisentwicklung der letzten Jahre (jahrzehnte triffts besser, wir haben seit 1982 Computer im Haus...) verfolgt. Bloß geärgert hab ich mich nicht darüber, warum auch? Die Firmen wären ja dämlich nicht möglichst hohe Preise zu nehmen! So ist halt Marktwirtschaft. Deswegen begrüße ich es durchaus, dass die aktuellen Produkte (schon seit einigen Jahren, wenn man ehrlich ist) absolut auf Augenhöhe sind.

Diese Verklärung von AMD ist es, die ich lachhaft finde. Das ist ein Unternehmen wie alle anderen auch und würde in vergleichbarer Lage auch hohe Preise nehmen (haben sie in der Vergangenheit ja auch schon).
 
Oben Unten