• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800: Raytracing- und 3DMark-Performance geleakt

gerX7a

Software-Overclocker(in)
Nachverfolgen? Ich würde sagen aufgrund des Themas aufmerksam geworden [...]
Bei den besprochenen GPUs handelt es sich um einfache Konsumgüter, bzw. man kann die schon fast als Luxusgüter bezeichnen, denn die braucht fast kein Mensch wirklich, sondern etliche wollen diese lediglich aus Spaß an der Freud. Das ist ein komplett anderer Sachverhalt und hat mal rein gar nichts mit Lebensmitteln oder einer dort künstlichen (oder anderweitigen) Verknappung, etc. zu tun. (Und diese konkreten Produkte haben ebensowenig etwas mit "dem Aktienhandel" zu tun.)
Darüber hinaus, war hier meinerseits keine Ironie zu finden. Die Ironie hast du eher mit deinem erneuten Post zu dem Thema aufgeworfen, denn erneut verschwendest du hier maßlos Energie darauf etwas anzuprangern (oder gar ändern?) zu wollen, das sich nicht einmal mittelfristig ändern wird. Es gibt keinen ethisch unantastbaren blütenweißen Markt oder was dir da auch immer in einer Art Idealwelt vorschweben mag. Jeder ist auf seinen Vorteil bedacht und der Markt bringt diese gegenläufigen Tendenzen mal mit mehr und auch mal mit weniger Erfolg in Einklang, sodass das Gesamtkonstrukt dennoch funktioniert und praktikabel ist.
Die Firmen wollen einen möglichst hohen Preis ausrufen und die Käufer wollen einen möglichst niedrigen Preis und i. d. R. trifft man sich irgendwo in der Mitte. Und was so mancher Konsument dann gerne aus den dem Blick verliert ... wenn sich die Position verändert und sie zum Verkäufer werden, bspw. weil die etwas auf Ebay verkaufen, ihr Auto oder ihre Wohnung, dann wollen sie natürlich für sich selbst einen möglichst hohen Preis erzielen (idealerweise natürlich immer über dem allgemein üblichen Marktwert).

Wenn du hier Lebensmittelknappheit und die weltweite Verteilung dieser Ressourcen diskutieren möchtest, bist du hier schlicht im falschen Forum und Gaming-GPUs haben mit Sicherheit nicht einen solchen Stellenwert, als dass sie in diesem Kontext eine derartige Diskussion überhaupt verdienen.
(Zumal das momentane Preisgefüge nicht mehr als ein (temporäres) Luxusproblem ist, dass sich zudem absehbar nivellieren wird ... wenn sich hier derzeit wer unter Druck gesetzt fühlt dennoch gegen seinen Willen zu kaufen, hat vermutlich eher andere Probleme ;-))
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Also ich hab mir jetzt mal die 9700 pro bestellt.
Keinen Bock mehr, stundenlang Tests und Statistiken zu wühlen.
Falls die 6900 doch besser ist, hab ich halt Pech gehabt.

Aber wie es scheint, laufen Command & Conquer Generals und Unreal 2 darauf mit anständigen FPS in 1600x1200. Und mit etwas Overclocking ist vielleicht auch etwas Anti-Aliasing drin.
Was will man mehr?
Oh man.. jetzt wirste ständig von 9800 Besitzern runter gemacht.. beide sind zwar over 9000, aber die 9800 ist halt mehr drüber.
 

SilentHunter

Software-Overclocker(in)
war auch der Grund, warum AMD in den vergangenen Jahren mit den damals noch beschränkteren Ressourcen nicht im HighEnd angegriffen hat, weil das schlicht unverhältnismäßig/unvertretbar für sie war.
Da kann man eher davon ausgehen das die CPU Sparte die dringenste Baustelle war und den Vorrang bei allen benötigten Resourcen hatte. Erst musste der grosse böse Zen Wolf endlich aus dem Zwinger gelassen werden. Einen parallelen 2. Fronten Krieg dafür war ist AMD sicher nicht gross genug. So muss man halt ein Fuss (Entwicklung) vor den anderen setzten um nicht zu stolpern und sich das Genick brechen.
Oh man.. jetzt wirste ständig von 9800 Besitzern runter gemacht..
9800pro wer gibt sich denn mit weniger zufrieden? Eure Armut kotzt mich aber sowas von an. Das ist hier ein Entusiasten Forum und keins von der Bahnhofsmission.
 
Zuletzt bearbeitet:

Edelhamster

Software-Overclocker(in)
Hat wer eigentlich iwo Werte von zB einem 5700XT mit radikalem UV? Was ich bis jetzt so gefunden habe sind so Settings, wo man rund 20W einspart bei minimal höherer Performance. Was ich suche ist wirklich radikales UV, nicht minimal Spannung runter und leichtes OC dabei. Ich bin am überlegen ob es möglich ist mit einer 6800XT massiv undervolted die Performance meiner alten 1080Ti zu erreichen, die hat ja rund 150-200W verbraucht mit 0.762V (je nach Game) und dies würde ich schon gerne toppen wollen verbrauchstechnisch, von mir aus mit minimal höherer Performance. Ja mir hat die Performance meiner alten 1080Ti gereicht (spiele sowieso kaum bis gar nicht).
Also mit Informationen zur 5700XT kann ich leider nicht dienen, hab mich aber auch schon immer für die Thematik interessiert was nach Unten maximal möglich ist.
Bei der Vega64 war ich 2017-2018 zum Beispiel extrem positiv überrascht, was die Karte mit einem um 50% verringertem Powertarget noch für eine Leistung entfalten kann.
220W @stock, abzgl. 50% PT, einfach im Wattman hierzu den Leistungstuning Regler nach unten gezogen, und die Karte taktet noch immer mit ~1,1GHz (stock 1,4-1,5GHz) und erzielte mit leicht angepassten Settings ~60FPS @4K in BF1.
Manuell Hand anlegen an den verschienden Powerstages, wie im Wattman möglich, würde ich im unteren Taktbereich dann gar nicht mehr empfehlen. Es liegen sowieso nur noch 800-900mW an und zu stark kastriert wird es entweder schnell instabil oder der Takt nach oben ist zu stark beschränkt.
Vega ist noch GCN und da kann sich also durchaus was bei RDNA1 geändert haben, vielleicht ist es für dich aber dennoch nicht ganz uninteressant.

Und nur um es nochmal zusammenzufassen, 4K, 60FPS, High-Settings in BF1 anno 2017-18, mit läppschen 110W und ner schnöden Vega64! (+ ReLive Capturing)
(Doppelbilder im Video bitte ich zu entschuldigen - hab das Video seiner Zeit etwas mit Vegas geschnitten und beim Videoexport eine Einstellung versemmelt)
Nach einer Minute switche ich ingame vom 60FPS Cap auf offene FPS.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

edit: bezogen auf deine Frage, zieh bei der 6800XT einfach mal das PT nach unten und du wirst staunen - so zumindest meine Annahme auf Grundlage meiner bisherigen Erfahrungen :daumen:
 
Zuletzt bearbeitet:

gerX7a

Software-Overclocker(in)
Erst musste der grosse böse Zen 1 Wolf endlich aus dem Zwinger gelassen werden. [...]
Na das hat ja schon damals nicht geklappt. Man musste zwangsweise mehr Kerne anbieten und auch mit einem niedrigeren Preis aufwarten .... wirklich konkurrenzfähig wurden sie erst letztes Jahr mit Zen2 und selbst der war im für den Mainstream wichtigen Workload "Gaming" immer noch nicht grundsätzlich die bessere Wahl.
Am Ende ein Ressourcen und damit natürlich auch Geldproblem bei AMD. AMD hat sich bei GPUs die letzten Jahre weitestgehend auf spezifische Märkte und Kunden konzentriert und damit auch gesicherte Absatzvolumina kalkuliert, auch wenn man dafür bzgl. der Marge Kompromisse eingehen musste. Die entwickelten Architekturen verwendete man dann erst als Zweitverwertung für sich selbst (und darüber hinaus auch noch zwangsweise übermäßig lange) und koppelte diese dann nachgelagert als allgemein verfügbare PC-Produkte aus. Nichts anderes ist ja auch RDNA2, das exklusiv für Sony und Microsoft entwickelt wurde und was auch der Grund war, warum es vor dem Konsolen-Launch keine Raytracing-Hardware von AMD geben durfte (voraussichtlich auch, warum es kein Renoir mit RDNA gab/geben durfte) und warum deren Marketingabteilung die Community mit so viel heißer Luft die letzten 24 Monate hingehalten hatte.
Wenigstens dürften sie diese Durststrecke mittlerweile hinter sich haben, der Konsolendeal ist abgeschlossen und mittlerweile verdienen sie ordentlich, sodass man auch mal wieder für sich selbst entwickeln kann. Die Aufteilung von RDNA und CDNA zeigt ja bereits, dass da nun deutlich mehr geht (man das aber auch nicht missverstehen darf, denn das wurde zeitlich mittlerweile auch zwangsweise notwendig, denn andernfalls würden sie abgehängt werden, da die Märkte mittlerweile zu weit auseinanderdriften und man mit einem einheitlichen (kostengünstigen) GPU-Design nicht mehr den gesamten Markt optimal bedienen kann, d. h. es wurde höchste Eisenbahn ... ;-))
 

PHuV

Komplett-PC-Aufrüster(in)
Nicht richtig. Viele aktuelle RT Titel haben Raytracing via der Nvidia propriären Technik implementiert und nicht über DX12 DXR. Die meisten aktuellen Raytracing Titel werden somit auch nach dem RDNA2 Start (leider) weiterhin nur mit RTX Karten Raytracing ausgeben können. Außer die Spieleentwickler legen nochmal Hand an... aber eher unwahrscheinlich. :/
Kannst Du das bitte genauer erklären? Nach meinen Infos hat doch MS mit Nvidia bei DXR zusammengearbeitet. Wozu dann eigene Technik?
 

phila_delphia

Software-Overclocker(in)
Bei den besprochenen GPUs handelt es sich um einfache Konsumgüter, bzw. man kann die schon fast als Luxusgüter bezeichnen, denn die braucht fast kein Mensch wirklich, sondern etliche wollen diese lediglich aus Spaß an der Freud. Das ist ein komplett anderer Sachverhalt und hat mal rein gar nichts mit Lebensmitteln oder einer dort künstlichen (oder anderweitigen) Verknappung, etc. zu tun. (Und diese konkreten Produkte haben ebensowenig etwas mit "dem Aktienhandel" zu tun.)
Darüber hinaus, war hier meinerseits keine Ironie zu finden. Die Ironie hast du eher mit deinem erneuten Post zu dem Thema aufgeworfen, denn erneut verschwendest du hier maßlos Energie darauf etwas anzuprangern (oder gar ändern?) zu wollen, das sich nicht einmal mittelfristig ändern wird. Es gibt keinen ethisch unantastbaren blütenweißen Markt oder was dir da auch immer in einer Art Idealwelt vorschweben mag. Jeder ist auf seinen Vorteil bedacht und der Markt bringt diese gegenläufigen Tendenzen mal mit mehr und auch mal mit weniger Erfolg in Einklang, sodass das Gesamtkonstrukt dennoch funktioniert und praktikabel ist.
Die Firmen wollen einen möglichst hohen Preis ausrufen und die Käufer wollen einen möglichst niedrigen Preis und i. d. R. trifft man sich irgendwo in der Mitte. Und was so mancher Konsument dann gerne aus den dem Blick verliert ... wenn sich die Position verändert und sie zum Verkäufer werden, bspw. weil die etwas auf Ebay verkaufen, ihr Auto oder ihre Wohnung, dann wollen sie natürlich für sich selbst einen möglichst hohen Preis erzielen (idealerweise natürlich immer über dem allgemein üblichen Marktwert).

Wenn du hier Lebensmittelknappheit und die weltweite Verteilung dieser Ressourcen diskutieren möchtest, bist du hier schlicht im falschen Forum und Gaming-GPUs haben mit Sicherheit nicht einen solchen Stellenwert, als dass sie in diesem Kontext eine derartige Diskussion überhaupt verdienen.
(Zumal das momentane Preisgefüge nicht mehr als ein (temporäres) Luxusproblem ist, dass sich zudem absehbar nivellieren wird ... wenn sich hier derzeit wer unter Druck gesetzt fühlt dennoch gegen seinen Willen zu kaufen, hat vermutlich eher andere Probleme ;-))
Lies doch meinen Post nochmal; dann stellst Du (ggf.) fest, dass ich bereits zwischen Lebensmitteln und anderen Konsumgütern unterschieden hatte; das Beispiel diente zur Veranschaulichung der Methode der gezielten Verknappung, durch den keinerlei Mehrwert erzeugt, aber der Preis nach oben getrieben wird - was ich persönlich und für unanständig halte (auch wenn es sich, wie bereits festgestellt, im vorliegenden Fall nur um GPUs handelt).

Grüße

phila

P.S.: "Ironie aufwerfen" und "ethisch unantastbar" halte ich für semantisch inkorrekt.
 
Zuletzt bearbeitet:

Luebke82

Freizeitschrauber(in)
Finde ich schön, dass AMDs Karten besser sind als NVidia`s
Wo sind die besser? Das wird sich erstmal zeigen müssen. Besser wären sie mit einem DLSS-Ersatz vlt. Aber wer weiß wann das kommt. Mich interessiert vor allem, ob AMD es diesmal schafft vernünftige Kühler auf ihre Karten zu bringen. Da hat Nvidia bei der 3090 nen Brett vorgelegt.
 

kingston

Komplett-PC-Käufer(in)
Also, wenn man Bildqualität ohne Murks möchte, greift man zu AMDs neuer Serie. Verstehe ich das richtig? :D
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.
 

phila_delphia

Software-Overclocker(in)
eGPU ist so eine Sache, da wirst du bis UHD recht stark von der Bandbreite limitiert.
Ich bin mit meiner eGPU Lösung im Moment ziemlich zufrieden. Aber genau der Punkt, den Du ansprichst, wäre für mich der Grund in eine Grafikkarte zu investieren, die mir UHD ermöglicht... ggf. die 2080 Ti oder eben die 6800XT, aber bei der würde ich zunächst warten wollen, was die Kollegen bei igpu.io berichten.

Grüße

phila
 

SilentHunter

Software-Overclocker(in)
Nichts anderes ist ja auch RDNA2, das exklusiv für Sony und Microsoft entwickelt wurde
Exclusiv nur wenn du damit die Konsolen Custom Socs für Sonys und MS meinst die ja. Denn das RNDA2 grundsätzlich für die beiden eine exclusiv Entwicklung gewesen sein sollte das wäre mir jetzt neu ausserdem für AMD ziemlich sinnfrei.
Aber da hast du bestimmt eine fachkundige Quelle die sicherlich die Grundlage deinerAussage ist. Lass uns doch bitte mal daran teilhaben.
Danke
im für den Mainstream wichtigen Workload "Gaming"
Für den Mainstream wichtigen Workload das ist garantiert "nicht Gaming". Der grösste Teil aller PCs fristet ein trauriges Arbeitsgerät im Büro Alltag. Das ist der OEM Bereich mit dem Intel grossteils zu dem wurde was sie heute sind. Dann noch die Serversparte - Workstations und Notebooks/Laptops und dann laaaange nix bis Gaming auftaucht.
warum es kein Renoir mit RDNA gab/geben durfte)
Da die Apus immer eine Generation hinterher waren mussten diese zuletzt noch mit einer optimierten Vega auskommen.
Eine völlig neue Architektur was RDNA Gen.1 nunmal war braucht da erstmal Testzeit mit Lernphase und ein gewisses Erfahrungspotenzial um dann eine weitergehende Verwendung auch in anderen Produktbereichen/Apus/SoC zu haben . Die war dann wohl mittlerweile ausreichend vorhanden und so wurd es dann gleich Gen.2 für die custom SoC. der Konsolen.
Wie die PS5 und Box angekündigt wurde dachten die meisten auch erst an Vega als GPU Part dann kam aber Gen. 1. und Vega war aus dem Rennen. Das man schon die aktuelle Gen.2 inkl. Rayfunktion in den Konsolen hat kam dann letztenendes doch eher unerwartet.
 

Ill_Doctore

Kabelverknoter(in)
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.

Jetzt mal ganz ehrlich, ich dachte schon ich bin dumm! Hatte vorher ne Vega56 für 210 damals im Abverkauf gezogen, und hab mir dann letztens gebraucht ne 2080Ti mit Garantie und alles weg gesnackt, als die alle so billig waren.

Ich dachte echt ich bin bescheuert oder so, aber ich hatte auch den Eindruck, dass die Bildqualität einfach schlechter als vorher war, besonders bei Übergängen und so, Farbverläufen und so... ich hab seit Wochen versucht an meinem Bildschirm, an den Farbeinstellungen und sonstwo alles mögliche zu drehen, aber mit der Vega hatte ich einfach den Eindruck, dass das Bild etwas schicker war.

Ich werde trotzdem die 2080Ti auf jeden Fall behalten, denn in Sachen FPS sind das Welten, so flüssig wie das jetzt rennt, will ich sicher nicht zurück, auch wenn es mich hin und wieder etwas stört mit der Bildqualität.
 

PCTom

BIOS-Overclocker(in)
Jetzt mal ganz ehrlich, ich dachte schon ich bin dumm! Hatte vorher ne Vega56 für 210 damals im Abverkauf gezogen, und hab mir dann letztens gebraucht ne 2080Ti mit Garantie und alles weg gesnackt, als die alle so billig waren.

Ich dachte echt ich bin bescheuert oder so, aber ich hatte auch den Eindruck, dass die Bildqualität einfach schlechter als vorher war, besonders bei Übergängen und so, Farbverläufen und so... ich hab seit Wochen versucht an meinem Bildschirm, an den Farbeinstellungen und sonstwo alles mögliche zu drehen, aber mit der Vega hatte ich einfach den Eindruck, dass das Bild etwas schicker war.

Ich werde trotzdem die 2080Ti auf jeden Fall behalten, denn in Sachen FPS sind das Welten, so flüssig wie das jetzt rennt, will ich sicher nicht zurück, auch wenn es mich hin und wieder etwas stört mit der Bildqualität.
AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
 

Maxxx80

Kabelverknoter(in)
Das wird eng für Nvidia falls amd wirklich ein DLSS Gegenstück bringt, was ja nach Release kommen soll. 3090 wird aber vermutlich vorne bleiben.
Man muss aber auch bedenken das die AMD Treiber in Sachen RT sicher noch weiter optimiert werden.
Wird spannend.
 

gerX7a

Software-Overclocker(in)
Exclusiv nur wenn du damit die Konsolen Custom Socs für Sonys und MS meinst die ja. Denn das RNDA2 grundsätzlich für die beiden eine exclusiv Entwicklung gewesen sein sollte [...]
Natürlich die Konsolen-SoCs, was denn sonst? RDNA2 ist die Architektur, die AMD speziell für Sony/Microsoft entwickelt hat und deren Entwicklung wurde bereits in 2018 abgeschlossen. Erstes Silizium gab es gemäß üblicher Timelines schon im 2HJ18, allerspätestens zum Jahresende hin, aber keinesfalls später.
Hätte AMD frei über die IP verfügen können, hätten sie RDNA2 (bzw. das, was sie jetzt als RDNA2 bezeichnen) auch direkt in 2019 auf den Markt bringen können, vielleicht einige wenige Monate später als Navi aber dafür direkt mit einem Knall, aber das durften sie offensichtlich nicht, was recht absehbar auf die Vertragsgestaltung mit Sony/Microsoft zurückzuführen sein dürfte. Entsprechend musste AMD ein Light-RDNA auskoppeln um etwas Geld zu verdienen, denn mit dem mittlerweile angestaubten Polaris/Vega konnte man in 2019/20 nun wirklich nicht mehr konkurrieren, also musste Navi her, dass in wesentlichen Teilen jedoch abgespeckt werden musste, damit man den Vertrag mit Sony/Microsoft nicht verletzte.
Und nichts anderes wird auch absehbar der Winkelzug um Renoir herum gewesen sein, denn den Aufwand der beträchtlichen Überarbeitung von Alt-Vega hätte man auch genausogut in die Anpassungen von RDNA an das Mobile-Design stecken können (und die notwendigen Aufwendungen wären hier gar möglicherweise noch geringer ausgefallen, denn immerhin ist das ursprüngliche Design grundsätzlich für ein SoC ausgelegt). Offensichtlich war so etwas jedoch nicht gewollt, was auch nicht verwunderlich ist, da Renoir bereits Anfang 2020 von AMD vorgesehen war und damit gut ein 3/4 Jahr vor den Konsolen auf den Markt kommen sollte, jedoch, wenn man mal von ein paar Customizations absieht, in weiten Teilen einem Konsolen-SoC entsprochen und damit dem deutlich später stattfindenden Konsolen-Launch einen nennenswerten Teil seiner Luft abgelassen hätte. Dass so etwas seitens Sony/Microsoft nicht erwüsnscht ist, dürfte wohl offensichtlich sein, schließlich bezahlten sie ja auch für die Entwicklung und AMD wird das zweifelsfrei auch irgendwie eingepreist haben in den Verträgen.
Rechne dir einfach mal 1:1 zusammen, das ist in dem Falle gar nicht so schwer, bzw. unter rein wirtschaftlichen Aspekten und mit Blick auf AMDs bisheriges Entwicklungsverhalten gar eher schon offensichtlich (das ist es übrigens nicht erst jetzt, also quasi schon fast im Nachhinein, wo man weiß, dass AMD tatsächlich nicht mit einer Raytracing-fähigen GPU vor den Konsolen auf den Markt kommt, sondern das wurde auch schon in 2HJ19 recht deutlich, dass da absehbar nichts kommen würde, bis die Konsolen da sind. Dazu muss man nun wirklich kein Orakel sein.)

Und btw., dass die Konsolen Raytracing unterstützen würden, war spätestens seit 2018 keine unerwartete Überraschung mehr, seit klar war, dass von nVidia entsprechende Hardware kommen würde, denn dass die neuen Konsolen über 2 Jahre später ohne diese Technik kommen würden und dann auch noch zwangsweise für die nächten Jahre danach darauf verzichten müssten, war wohl das absehbar unwahrscheinlichere Szenario.
Darüber hinaus ist AMDs RDNA2/Raytracing-Patent von Ende 2017 und mögicherweise konnte sich nVidia schon in 2018 daher leicht ausrechnen, dass man sich die nächsten zwei Jahre bzgl. Raytracing in einer konkurrenzlosen Situation befinden würde.

Bezüglich Workloads: Ich sprach über einen relevanten Workload. In Office-PCs spielt es nach wie vor keine nenennswerte Rolle was du da verbaust, nicht einmal stromtechnisch. Richtig interessant ist erst Renoir als Ryzen Pro geworden und der ist noch nicht lange auf dem Markt und den kann AMD nur in beschränkten Stückzahlen liefern, aber zumindest hat man nun was anzubieten, mit dem man tatsächlich Paroli bieten kann. Die APU-Vorgänger waren aus gutem Grund keine echte Option bei den OEMs und einen Zen2 mitsamt GPU zu verbauen fiel wohl aus ebenso leicht nachvollziehbaren Gründen nur den wenigsten ein.
Darüber hinaus entwickelte sich AMD mit Zen auch primär über den Consumer-Markt (Desktop wie Mobile), denn in allen anderen Segmenten konnte man vorerst kaum punkten. OEMs konnten nicht viel damit anfangen (in Business-Notebooks blieb Zen eine Seltenheit, vornehmlich in Consumer-Geräten fand das Wachstum statt), Naples interessierte quasi gar nicht und war eher ein Achtungserfolg, während die Industrie auf Rome wartete und auch im Workstation-Bereich nahm man erst so richtig mit dem zweiten Threadripper Fahrt auf (wobei Threadripper ursprünglich nicht einmal geplant und bugetiert war, sondern eher ein Abfallprodukt von Naples war). Und erst mit Zen2 geht AMD die OEMs so richtig an, unterliegt dabei aufgrund seiner eingeschränkten Ressourcen aber offensichtlichen Beschränkungen, sodass sie sich fokussieren müssen, so bspw. bei den APUs (Ryzen Pro) und beim Threadripper Pro, der vorerst Lenovo-exklusiv vertrieben wird.
Es hatte durchaus seinen Grund, dass Intel 2018 und 2019 recht unbeeindruckt von AMD Rekordergebnisse eingefahren hat ... und selbst dieses Jahr ist es eher Covid als AMD, die Intel's Umsatz/Gewinn einen leichten Dämpfer verpassen (konkret wird Intel seinen Umsatz erneut steigern, aber wohl dieses Jahr etwa 1,5 Mrd. US$ weniger Gewinn erwirtschaften).
 

ghost13

PC-Selbstbauer(in)
AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
Ich auch! Hatte auch schon beide 1:1 gegenüber. Habe damals auch Phys X ausgetestet mit AMD/Nvidia Combo
 
Zuletzt bearbeitet:

DarkWing13

Software-Overclocker(in)
Ich kann mich nur wiederholen...
Die UVP der 3080/3070 kommt nicht von ungefähr!
Ebensowenig die Preise, die AMD nun aufruft.

Eine UVP von 700€ für eine 3080 ist kein "Geschenk" von Nvidia (nach der 2080Ti), wie einige vielleicht denken, sondern genau eingeschätztes "Wissen" bzgl. der Leistung der neuen AMD-GPUs um preislich noch einigermaßen (mit "grünem" Käufer-Bonus) attraktiv zu bleiben.

mfg
 

Pleasedontkillme

Software-Overclocker(in)
Wo sind die besser? Das wird sich erstmal zeigen müssen. Besser wären sie mit einem DLSS-Ersatz vlt. Aber wer weiß wann das kommt. Mich interessiert vor allem, ob AMD es diesmal schafft vernünftige Kühler auf ihre Karten zu bringen. Da hat Nvidia bei der 3090 nen Brett vorgelegt.
Bei den Kühlern , resp. der Lärmbelastung die AMD bisher vor zu weisen hatte bin ich voll bei dir.

RTX30X0 haben echt coole Kühler und gut in mein Setup würde es eben auch passen. Habe nie verstanden warum man das Teil nicht endlich umdreht. ...da waren einige lachhafte Begründungen die habe ich schon vergessen
 

pompi

Kabelverknoter(in)
Das wäre gänzlich anders als meine Vermutung. Ich habe bisher vermutet, dass amd bei RT den kürzeren zieht. Das wäre laut dem Benchmark ja nur bedingt richtig.
Bei gleichen Auslösungen soll die RTX 6800 also mehr RT Power haben als eine 3070 haben. Bin gespannt auf die visuelle Analyse von DF zwischen 4k RT beider Karten sowie 1440p (DLSS) vs 1440p (Radeon Image Sharpening).

Nach eigenen Angaben arbeitet AMD an einem DLSS Konkurrenten, der keine zusätzliche Implementierung der Entwickler benötigt. Mit viel Glück gibt es zum Release schon eine Preview davon.
 

Pleasedontkillme

Software-Overclocker(in)
AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
Ironischerweise, finde ich als Verfechter deiner Aussage, dass das Bild das jetzt meine GTX1080 ausgiebt, seit der "Bildschärfung von AMD für Jedermann" sehr gut und akzeptabel ist.

So zu sagen, haben wir den Blaustich den es schon seit GeForce2 gab und unscharfe Ausgabe, durch freie AMD Technik (was NV nie machen würde) verringert.
ps: danke hier auch für VRR

Seit es ATI gab, haben sie immer an der Spitze der Ausgabequalität gearbeitet und Vorlagen von NV mit lächerlich einfachen Lösungswegen umsetzten können.

Wenn es mal AMD, ex. ATI nicht mehr geben sollte, haben wir einen echten Verlust zu verzeichnen. Zumindest was Kundenfreundlichkeit und technologischen Fortschritt angeht.
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.
Hätte sehr gerne einen Blick auf das Video geworfen. Die Ungläubigen sind aber auch mit schwer zu überzeugen aber besser als ohne.
 

PureLuck

Freizeitschrauber(in)
... insbesondere dank AMD's
Rumgespiele mit "Rage-Mode" und "Smart Access Memory" bei der Präsentation.
Wenn sowas bei Tests legitim wäre, dann kann man auch gleich bei den RTX Karten DLSS permanent anmachen
und behaupten das wäre fair...

So ein BS. Bei den Benches geht es darum, die Leistung von Grakas bei nativen Auflösungen zu vergleichen.

An diesem Grundprinzip ändern auch die Nutzung von Plattformvorteilen oder ein kleines Auto-OC nix.

Es ist dagegen allerdings ein Unterschied, wenn die RTX nur noch 1080p für 4k Matsch am Bildschirm rendert.

Dann kann pcgh sich die 4k benches ja in Zukunft für die RTXs klemmen und einen kleinen Vermerk bei den 1080p-Balken machen (=fps @ 4k with DLSS). :fresse:
 

4thVariety

Software-Overclocker(in)
Raytracing und der 4k Hype vertragen sich halt nicht. Aus einer 3070 die mit dem 4k Pomp der 2080Ti beworben wird (und der war schon sehr optimistisch), kann so schnell eine 1440p@30fps RTX Karte werden, sofern man die Einstellungen nicht runterregelt. Bedenkt man, dass Nvidia in der Regel mindestens drei Generationen braucht um bei gleichem Geldbetrag die Leistung zu verdoppeln, wird uns das noch eine Weile begleiten. RTX6070 wäre dann bei 4k@30fps mit allen Details.

Sofern man kleine enge Räume hat läuft Raytracing auch immer sehr schnell. Wenn es dann hinaus in die offene Welt geht, ist das der Leistungskiller. 4k mit 60fps und vollem Raytracingspektakel ohne Einschränkungen wird noch eine Weile dauern. An den leicht matschigen Look der Reflektionen der Schärfe vermissen lässt werden wir uns gewöhnen müssen.
 

manimani89

BIOS-Overclocker(in)
wenn amd wirklich soviel geld für die server von superresulution ausgibt wie nvidia bei dlss kanns was werden und dann werde ich mir auch eine 6900xt holen weil ich sowieso einen 5900x diese woche bestelle aber aber ohne wirds schwer
 

Pleasedontkillme

Software-Overclocker(in)
Ich kann mich nur wiederholen...
Die UVP der 3080/3070 kommt nicht von ungefähr!
Ebensowenig die Preise, die AMD nun aufruft.

Eine UVP von 700€ für eine 3080 ist kein "Geschenk" von Nvidia (nach der 2080Ti), wie einige vielleicht denken, sondern genau eingeschätztes "Wissen" bzgl. der Leistung der neuen AMD-GPUs um preislich noch einigermaßen (mit "grünem" Käufer-Bonus) attraktiv zu bleiben.

mfg
...ganz erlich.
Ich glaube schon lange, dass NV einen bei AMD eingeschleust hat.

Die verschaukeln den Kunden. NVidia hat eine unglaubliche Skalierung unter Ihren Produkten die ganz genaue Punktlandungen erziehlen bei Ihrer Performance. Auch unter einander kommen sich diese nie in die Quere, immer schön 10-15%.
AMD kann das nicht vorweisen, Ihre Produkte sitzen des öftern aufeinander. Darum empfand ich in der Vergangenheit, die top Performanceprodukte nie so interessant wie die Middrange. Um so unverständlicher, dass mit einer super schnellen Topperf., die Mid und Low - range Karten besser verkauft werden.
...oder sagen wir einfach dumm!

Die super Skalierung deutet auch darauf hin, dass man nie das Maximum erhalten wird.
Erst wenn die Spione das Zeichen geben, wird eine Pro/Ultra/Super 20GB Version erscheinen.
Zu meinem Unverständnis, ist dann die blose Existens und der schnelle Release dieser immer zum Erstaunen vieler :-/ ?
hehe und nicht EIN Wort dazu - ein Schelm, wer schlechtes dabei denkt. :-P
Aber man wird eh' abwarten müssen wie sich das ganze so entwickelt - nutzt AMD nicht sowas wie dynamische Auflösungen? War das aktiviert?
Das wäre mal eine der sehr wenigen Consol Techs die ich gerne implementiert sehen würde.

Das würde in der Hitze des Gefächts helfen und wenn ich dann in einer ruigen Phase die Grafikbestaunen möchte, haben wir wieder max. Grafiks
 
Zuletzt bearbeitet:

Ulathar

PC-Selbstbauer(in)
TDP ist nicht der Verbrauch
Für nen R9 plus ne 6800XT und Restgedöns würde ich auch als Maximlverbrauch so 550 Watt kalkulieren.

Die AMD Angabe muss allerdings auch für Ammis mit billig Netzteil reichen, sonst hat AMD ne Klage am Hacken.

Dazu kommen Lastspitzen die höher ausfallen können. Aber das weiß man noch nicht. Siehe Ampere mit knapp 500 Watt.

Vermutlich reicht ein Gutes und Neues Netzteil mit 650 Watt für R9 5900x + RX 6900XT (Ohne OC)

Bei nem R7 und ner RX6800 würde ich mir auch bei 550 Watt ohne overclock keine Sorgen machen. Aber muss man sehen, am besten einfach Tests abwarten.
Das TDP != Verbrauch ist ist mir auch klar ;-).
Aber ja, hab bewerte das ähnlich wie du. Rein preislich geben sich 650 vs 750 Watt Netzteile jetzt auch nicht die welt, im Gegenteil, ich meine die Preis pro Watt sieht bei 750 besser aus als bei 650. ärgerlich wäre nur, wenn das 750er NT sich dann 90% der Zeit bei mittlerer Last langweilt und dabei dann einen deutlich schlechteren Wirkungsgrad erzielt als eventuell ein 650er, dass zu 2/3 ausgelastet ist, etc.

Naja mal sehen was die ersten Tests so bringen werden. Muss eh noch mit mir ringen ob es dann 2x AIO für GPU und CPU werden oder doch nen Custom Loop ;-).
 

XXTREME

Lötkolbengott/-göttin
Zusammenfassen bei dem Leak hier:

Mit dem Nvidia-Cheat-Fetaure Nvidia schneller (welch Wunder :schief:) und ohne "Hilfsmittelchen" AMD in Front :D.

Meine Meinung zur "News": Nein, wird so nicht passieren.
 
Zuletzt bearbeitet:

Zappaesk

Volt-Modder(in)
Man darf nicht vergessen das AMD die erste Generation mit Raytracing einführt. Nvidia hat hier schon mehr Erfahrung und trotzdem schafft es AMD besser rauszukommen als eine neue RTX 3070 die die zweite Generation der Raytracing Einheiten schon hat. Das ist echt beachtlich, wenn die Werte später so eintreffen sollten.
Ich denke das ist keine Frage der "Erfahrung" sondern eine des Konzepts. Unterm Strich scheint die AMD Lösung, die ohne extra Kerne (die Platz, Strom und Geld kosten) auskommt, auf ähnlichem Niveau zu liegen oder tendenziell sogar etwas flotter und damit besser zu sein. Inwieweit das wirklich der Fall ist werden transparente Tests zeigen.

Wenn ja, dann ist einfach das Konzept besser und ggf auch ein Grund für die mutmaßlich geringere Leistungsaufnahme der AMD Karten.

Es könnte dazu führen, dass selbst ein nochmals in den nächsten Generationen weiterentwickeltes Nvidia Konzept mit Extra Kernen immer eher unterlegen bleibt. Wenn das Konzept "nichts taugt" nutzt die Weiterentwicklung desselben nur bedingt etwas. Überlegen kann man dann nur mittels massiver Aufstockung und entsprechenden weiteren Nachteilen werden.

Vielleicht erlebt Nvidia ja damit seinen "CGN Effekt" und muss ähnlich wie AMD die letzten Jahre die Karten immer bis an die Kotzgrenze takten um mithalten zu können?! Ist natürlich reine Mutmaßung! Jedenfalls hätte Nvidia ja genug Mittel um in dem Fall ein neues Konzept zu entwickeln - vorausgesetzt sie haben etwas, dass man mit Geld nicht kaufen kann: Eine bessere Idee!
 

manimani89

BIOS-Overclocker(in)
in sachen bildqualität ist das so wie vorher schon erwähnt das nvidia eher die farben auf kühl hat das stimmt aber das ist nichts negatives. das ist reine geschmackssache. weiss noch wie ein kollege neben mir mit seiner gtx 570 zockte und ich mit einer radeon 6950 und da versuchte ich das ruhige bild von nvidia hinzubekommen mit der amd da es für mich besser aussah obwohl mein monitor das doppelte kostete aber nvidia hat ein ruhigeres bild und amd hat gerne ein scharfes bild was man auch mögen muss. für mich persönlich zu scharf. freund von mir hat nen pc mit rx 480 und findet auch seinen laptop mit gtx 1060 der an einem wqhd monitor angeschlossen ist in manchen games besser manchmal sieht er wieder keinen unterschied. glaube nvidia ist da noch vorne was das bild betrifft
 

dmasiretteb

PC-Selbstbauer(in)
Na geforce verticken und AMD joinen die 6800 Karten blasen die 2080ti eh weg. :devil: Oder damit leben.

oder du machst es wie nvidia und lügst :devil:

Screenshot_2020-11-02 3DCenter Forum - Is this a thing (the secret of vivid colors of Radeon) ...png
 
Zuletzt bearbeitet:

Ill_Doctore

Kabelverknoter(in)
Na geforce verticken und AMD joinen die 6800 Karten blasen die 2080ti eh weg. :devil: Oder damit leben.

oder du machst es wie nvidia und lügst :devil:

Anhang anzeigen 1340844
Wow... da bin ich ja echt froh, dass ich nicht der Trottel war, der die Karte damals für 1400€ neu gekauft hat, sondern nur der Lucky Bastard, der sie gebraucht für 500 abgegriffen hat :ugly:

Also ganz ehrlich, wenn ich so viel Kohle für sone Karte gezahlt hätte, und dann so eine "Bildqualität" dafür bekomme, und sich der Laden dann auch noch so benimmt, dann wäre das für mich - ganz ehrlich - das letzte mal, dass ich nVidia meine Kohle in den Arsch blase.

Ich werd die Karte behalten, weil sie ne Weile reichen wird vonner Performance, und ich wahrscheinlich so schnell nichts wesentlich besseres für weniger finde, aber irgendwann is man an dem Punkt wo man sich denkt, dass FPS auch einfach nicht alles ist.
Da könnte ich ja gleich alles nur noch in 720P Low zocken.
 
Oben Unten