AMD sieht sich vorne: Radeon-Grafikkarten angeblich deutlich günstiger und effizienter

Jep, so fortschrittlich, dass Nvidia seit Turing die deutlich überlegenere Video Engine hat. Beim Encodieren um Welten besser als RDNA2 und wenn es ums Dekodieren geht beherrscht Ampere sogar AV1. Zum Dekodieren eines 4K Videos mit AV1 auf YouTube benötigt mein GA102 gerade mal zusätzliche 5 Watt. Alle Systeme mit AMD Karten benötigen in der Situation deutlich mehr weil die CPU in die Bresche springen muss :haha:


Ganz dünnes Eis, ich habe allein in VRChat schon über 1000h auf dem Tacho und kann mich allein deshalb als VR Enthusiast bezeichnen. Ampere ist top für VR und in keiner Disziplin schlechter als RDNA2.
So ein schmarrn.. Die 6000 AMD Karten decodieren genauso AV1
 
Meine High End-GPU-Kauf Bemessungsgrundlage sind, ... Preis und die Gehäusefarbe...!

Also mir sind eigentlich sämtliche Futures vollkommen egal. Das Einzige was ich von einer GPU außer Rohleistung nutze ist, Downsampling. Was nett ist aber auch nix weiter für mich wertist, sind dinge wie DLSS, Ray Tracing, und FSR(-in Forza ist es optisch Müll- aber bringt fps....) in 3-4 Generationen macht es vielleicht mehr her und mehr Sinn optisch :ka::schief:
Kauf Endscheidung in wenigen Schritten. Hersteller kommen da nicht drin vor
1.Grob Höchste Leistung
2.Preisvorstellung
---
3.Lautstärke
4.Optik
5.Kauf
So ehrlich muss man einfach sein.

Ich habe kein Problem damit, wenn aus Neugier ein OC betrieben wird aber ganz ehrlich, dass ist auf Dauer einfach unvernünftig. Es gibt auch nicht mehr Leistung zu gewinnen, außer das der Stromzähler durchbrennt.

Daher bin ich voll auf deinem Undervolting Kurs :-). Aufgrund von tausend sich einfach herzuleitenden Gründen:stupid:
Ich! Seit 2017 mit der 1080Ti bei jeder einzelnen Spiele-Sekunde die sie hat. Mindestens 1975Mhz +VRAM OC!
und Momentan 5900X so 8% und RAM 20%+.

Wenn man wie ich 5-6st/Woche spielt, und ich eh mehr zahlen muss über Pauschale als wir Verbrauchen-- why not.
Dafür nutze ich Keinen TV/oder Streaming etc, nie!
Als ich allein gewohnt habe verbrauchte ich ca 600KW im Jahr. mit Uralten E-Geräten und zum teil Tage durchlaufendem PC. Jetzt kommen Wir nicht über 1400KW ohne groß drauf zu achten alles läuft in Standby etc.

Und wenn dann unser Häusle Fertig ist, mit PV ("insel Anlage")+15KW-Speicher wegen Infrarot, ist es auch absolut egal was der PC schluckt- im Winter heizt er dann ja gleich auch mit....

Ich will damit nur sagen: Du kannst den Mist nicht Pauschalisieren.:daumen:;-)
 
Zuletzt bearbeitet:
Problem bei AMD ist dass die 6800 einfach in Retail völlig überteuert ist!

Ich habe eine 3070 nachdem meine bestellte 3080 nie ankam. Ja die Speicher ist ein problem aber mindestens für 629€ könnte ich eine kaufen!

Die 6800 war sehr intressant aber ist wirklich kaum billiger als eine 6800XT und lange über 1000€.

bevor ich solche Aussagen tätige sollte man wirklich schauen was die Markt wirklich tut....
 
Die 6800 war nur als Ref.@Drop vor nem Jahr interessant.
und
Falls man in der Family den größeren Kühler der XT abstauben kann, lohnt sich der Umbau richtig.

btw.
Weil öfters mal die Frage kommt, ob sich net ein extra Medium-Parcour@FHD für 6500, 1650 +6400 +ARC lohnen würde,
da gibts evtl. demnächst Nachwuchs untenrum:
 
Zuletzt bearbeitet:
Ich finde es nicht lustig was AMD da macht, aber diese News ebensowenig. Diese Werbung ist eindeutig für den amerikanischen Markt gedacht und die stehen einfach heftig auf solche Werbung.
Dass Preise von newsegg und quasi keine Stromkosten keine Grundlage für eine Diskussion hier in Mitteleuropa sind, sollte selbst dem unerfahrensten Newsschreiber klar sein.
 
Gerade was OC angeht ist AMD mit RDNA2 ganz vorne, nicht zuletzt auch wegen den Möglichkeiten, die das More Power tool bietet, eben Overclockers Dream!
Warum hast du dann gerade dafür ne 3090TI?
"Mit einer fragwürdigen Grafik versucht AMD, die Vorteile der RX-6000-Grafikkarten hervorzuheben"

Also jetzt muss ich´s doch auch mal sagen/schreiben : Clickbait par excellence !!

ALLE Karten der RDNA2 Serie sind ihren Gegenspielern überlegen in Rasterizer Games !
6900XT vs. 3090, 6800XT vs. 3080, 6800 vs. 3070 etc. etc. und das bei viel günstigerem Preis
und weniger Verbrauch.
Du willst also wirklich behaupten, dass die 6900XT in 4K 15% schneller als die 3090 ist?
Hör doch auf mit dem Scheiß mein Gott. Du bezeichnest dich selbst als differenziert, wirfst aber immer nur mir Cherrypicking um dich und lobst AMD in den Himmel.

Hier dein eigener geposteter Benchmark von CB:
Screenshot 2022-05-18 092115.png


Und das behauptet AMD:
Screenshot 2022-05-18 092212.png


Und du wirfst PCGH hier allen Ernstes Clickbait vor? Ich würde dich für die Nummer bannen, zumal es nicht das erste mal ist, dass du die Redakteure von PCGH angreifst, weil sie sich kritisch zu AMD äußern.
 
Zuletzt bearbeitet:
bei der 6800xt muss AMD wohl ein Silent-Bios genutzt haben, um auf die 280W zu kommen(x)

ansonsten würde ich einfach nur alle Grakas auf 270W normieren und dann die Fps messen ala CB
(x) erstaunlicherweise nützt der 6800XT das Perf.-Bios mit 300W kaum was ggü. dem 270W-Setting

btw.
Natürlich sind die Ergebnisse im Anhang restlos veraltet, wenn man den PreviewTreiber@DX11 hätte sähe
es evtl. noch ein mue anders aus (obs dann für die neuen AMD-werte reicht, who knows)
 

Anhänge

  • 270W_Fps.JPG
    270W_Fps.JPG
    108,3 KB · Aufrufe: 33
Zuletzt bearbeitet:
Diese Werbung ist eindeutig für den amerikanischen Markt gedacht und die stehen einfach heftig auf solche Werbung.
Eben, die Amerikaner wollen einfach mit falschem Effizienzgeschwurbel hinters Licht geführt werden.

Dass Preise von newsegg und quasi keine Stromkosten keine Grundlage für eine Diskussion hier in Mitteleuropa sind, sollte selbst dem unerfahrensten Newsschreiber klar sein.
Weil der Strom in den USA weniger kostet, dürfen Hersteller deshalb falsche Werte herausgeben?
 
Geil... Vor paar Wochen.. war es so.. Also muss es heute no so sein....
Und das in der Hardware Welt..
Also vor 30 Jahren waren die Festplatten von IBM die besten.. Also ist das heute auch so

Oh man

Schlecht geschlafen?
Eine Situation die seit Monaten so war, hat sich in den letzten 10 Tagen verändert... Sorry, das ich für dich nicht aktuell war.


Eine RX6800 kostet stand heute, laut Geizhals ab 888€, eine RTX3080 878€.
6800XT ab 939€
6900XT ab 995€

So veraltet war meine Info gar nicht.

Einzig gut sin die Preise für eine 6900XT und das seit dem 14.05. Wirklich alte Information bei mir. Geh einem anderen auf den Wecker.
 
Schlecht geschlafen?
Eine Situation die seit Monaten so war, hat sich in den letzten 10 Tagen verändert... Sorry, das ich für dich nicht aktuell war.


Eine RX6800 kostet stand heute, laut Geizhals ab 888€, eine RTX3080 878€.
6800XT ab 939€
6900XT ab 995€

So veraltet war meine Info gar nicht.

Einzig gut sin die Preise für eine 6900XT und das seit dem 14.05. Wirklich alte Information bei mir. Geh einem anderen auf den Wecker.
Also die Preise sinken seit mehreren Wochen und die 6900XT ist damit unter der UVP angelangt
und die 6800Xt gibt es für für 879, keine Ahnung wo du deine Preise herziehst...
 

Anhänge

  • 2022-05-18 13_03_40-16GB XFX Radeon RX 6800XT Speedster SWFT319 CORE GAMING DDR6 (Retail) - RX...png
    2022-05-18 13_03_40-16GB XFX Radeon RX 6800XT Speedster SWFT319 CORE GAMING DDR6 (Retail) - RX...png
    227,9 KB · Aufrufe: 23
Genau das habe ich auch gehört. RDNA3 wird grandios und hat keinerlei Auslastungsprobleme.:ugly:
Oh, oh, wenn die Gerüchte hier nur teilweise stimmen, wird das böse. Ich bekomme das ja mit auf Twitter, wie euphorisch teilweise RDNA3 gehyped wird.

Ich hoffe, dass RDNA3 stark wird. Hab echt kein Bock auf Nvidias Mondpreise.
 
Jain: https://www.computerbase.de/forum/t...ng-fuer-av1-nicht-nutzbar-auf-6900xt.2019003/

AMD kann wohl "nur" bis maximal 8K@30FPS und Nvidia 8K@60FPS: https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-av1-beschleunigung/
Ob mans braucht, sei mal dahingestellt, aber Nvidia kann hier mehr.
Sein Beispiel wo ich drauf geantwortet habe, war aber 4k Youtube Video.... Dass das die Readon nicht können, und das ist falsch...
Okay, 8k.... da kann Nvidia mehr und brauchen wieviel Menschen?
 
Also die Preise sinken seit mehreren Wochen und die 6900XT ist damit unter der UVP angelangt
und die 6800Xt gibt es für für 879, keine Ahnung wo du deine Preise herziehst...

Habe ich ja dazu geschrieben. Warum so pissig?

Und wieder, 880 sind auch eine andere Welt als 940... Für eine 650Euro Karte. Hast recht ist top.

Einzig die 6900XT ist mittlerweile zur UVP und leicht darunter zu haben. Das auch nicht seit Wochen. Die Preise fallen seit Wochen, aber bei der UVP sind wir erst seit kurzem.
Oh, oh, wenn die Gerüchte hier nur teilweise stimmen, wird das böse. Ich bekomme das ja mit auf Twitter, wie euphorisch teilweise RDNA3 gehyped wird.

Ich hoffe, dass RDNA3 stark wird. Hab echt kein Bock auf Nvidias Mondpreise.
Die Preise die AMD seit Fury nach Möglichkeit mitgeht ;)
Hast Recht darauf hat man kein Bock, auf die Preise beider Hersteller.
 
Eben, die Amerikaner wollen einfach mit falschem Effizienzgeschwurbel hinters Licht geführt werden.


Weil der Strom in den USA weniger kostet, dürfen Hersteller deshalb falsche Werte herausgeben?
Ich hab mir die Quelle nicht angeschaut. Wie hat AMD die Werte ermittelt?
Ich mein, die könnten sich hinstellen und anmerken dass noch immer 80 Prozent der User in 1080p spielen und deshalb in der Kategorie 4x so viele Punkte in die Wertung einfließen lassen und es wäre kein "falsches" Ergebnis. Wer weiß wie sie es ermittelt haben. Meiner Vermutung nach sind die Werte auf ihre Art bestimmt richtig, nur eben reine Augenwischerei.
 
Oh, oh, wenn die Gerüchte hier nur teilweise stimmen, wird das böse. Ich bekomme das ja mit auf Twitter, wie euphorisch teilweise RDNA3 gehyped wird.
Dann vergessen wohl die Leute, das NV net nur den größeren Schritt bei der Fertigung 8nm-->5(4N) macht, sondern
auch noch INT von FP32 trennt und vermutlich deutlich bessere Auslastung erzielt als bei Ampere.
(und auch nen größeren Cache nutzen wird)

Die größte Unbekannte ist vllt. noch der Takt und der erreichbare Verbrauch W/MHz.
(da hatte ja RDNA2 gut vorgelegt dank der Ryzen-Bibliothek)

Ich hoffe, dass RDNA3 stark wird. Hab echt kein Bock auf Nvidias Mondpreise.
RDNA3 wird wohl net so nen großen Sprung machen und daher preiswerter sein.
 
Zuletzt bearbeitet:
Habe ich ja dazu geschrieben. Warum so pissig?

Und wieder, 880 sind auch eine andere Welt als 940... Für eine 650Euro Karte. Hast recht ist top.

Einzig die 6900XT ist mittlerweile zur UVP und leicht darunter zu haben. Das auch nicht seit Wochen. Die Preise fallen seit Wochen, aber bei der UVP sind wir erst seit kurzem.
Sind immerhin 7% dir du die Karte teurer gemacht hast..
Dann gibt es die 6400 6500 und 6600 für uvp
Dir 6600xt ist 40 Euro über uvp
Usv usv
 
"perupp schrieb: Die 6000 AMD Karten decodieren genauso AV1"

Korrekt
In dieser pauschalisierten Form ist das eine Falschaussage.
Beispielsweise Navi24 unterstützt kein hardwarebasiertes AV1-Decoding, was hier schlicht daran liegt, dass AMD hier einen kleinen, stark beschnittenen Mobile-Chip auf einer Desktop-GPU vermarktet.
Entsprechend beherrschen bspw. die RX 6500 XT und die RX 6400 kein AV1-Decoding und ebensowenig deren Radeon Pro-Gegenstücke.

@owned139 : In dieser Hinsicht bietet aktuell Intel am meisten. Deren aktuelle (i)GPUs unterstützen alle AV1-Decoding. Selbst die Gen11 von Tiger Lake (2020) unterstützte bereits umfängliches AV1-Decoding.
Das macht gerade bei mobilen Gerärten einiges aus. PCWorld hatte hier mal einen Vergleich vom Abspielen eines AV1-4K-Files, zur Vereinheitlichung auf den Testgeräten in 1080p wiedergegeben:
Ryzen 4800U : etwa 24 % Auslastung CPU mit bis zu 3,8 GHz, zzgl. 8 % GPU Auslastung
TGL 1185G7 : um die 1 % Auslastung CPU mit bis zu 1,7 GHz, zzgl.12 % GPU Auslastung

Noch einen Schritt weiter geht Intel in diesem Kontext mit dem aktuellen ARC (alias Xe-HPG), dessen Mediaeinheit auch AV1-Encoding unterstützt, etwas, ohne das AV1 für Privatanwender aufgrund der extrem hohen Rechenlast derzeit quasi irrelevant ist, da dieses Encoding-technisch weitaus rechenintensiver als bspw. H.265/x265 ist. Im April erklärte Intel im ARC-Premiere-Stream, dass eine ARC-GPU um bis zu den Faktor 50x schneller AV1 encoden kann als ein SW-Renderer. *)

*) Will man hier den üblichen Marketingfallen ausweichen, sollte man bzgl. dieser Aussage eine hochtaktende ARC 7 und als Vergleich eine eher langsamere CPU annehmen.
Absehbar werden aber selbst die minimalistischen ARC 3 GPUs, selbst in den mobilen Varianten, hier um ein Vielfaches schneller encoden können als ein SW-Renderer auf einer potenten CPU. (Die exakt gleiche Hardware verwendet Intel übrigens in seinen Datacenterprodukten.)
 
Zuletzt bearbeitet:
Zurück