News Radeon RX 7900 XTX und XT: RDNA-3-Grafikkarten finden wegen Geforce-Bann reißenden Absatz in China [Bericht]

kommt immer darauf an 7800xt leistung gibts schon über 3 jahre. und so günstig sind die jetzt auch nicht
Leider ja, aber eine 7900GRE hätte ich jetzt bei Kleinanzeigen.de bekommen können, leider ist die Grafikkarte trotz 5120 Shadern statt 3840 der 7800XT nur ca 10% schneller.

Eine 4070 hat nur 12Gb und ist langsamer. Die 4060Ti 16GB die ich hatte war deutlich langsamer.

Ich habe alles in einem Treiber, UV, OC, Lüfterkurve, Einstellungen etc . Brauche somit kein MSI Afterburner, kein Geforce Experience oder sonst ein zusätzliches Tool. In meinen Spielen peformt sie sehr gut.

Die 7800XT hat auch A.I. Beschleunigerseinheiten, was z.B der 6800xt fehlt.

Ich schätze wenn kein Wunder passiert, werden wir in Zukunft nur noch durch DLSS / FSR verbesserungen in der Leistung erhalten, dass scheint für die Hersteller einfacher oder günstiger zu sein, zusätzlich macht man die Kundschaft von einer technoligie abhängig.
 
Zuletzt bearbeitet:
Eine 4070 hat nur 12Gb und ist langsamer. Die 4060Ti 16GB die ich hatte war deutlich langsamer.
Wieso die 4070 ist doch nicht langsamer in modernen Spielen mit RT ;) Ich weiß was gemeint ist, aber pauschal zu sagen, xy ist langsamer ist halt nicht zutreffend.
Ich habe alles in einem Treiber, UV, OC, Lüfterkurfe, EInstellungen etc . Brauche somit kein MSI Afterburner, kein Geforce Experience oder sonst ein zusätzliches Tool.
Ja, das wäre mal was, wenn das bei Nvidia auch so wäre, aber eigentlich auch völlig Latte, da es nicht mehr stört, das ein paar Programme im Hintergrund laufen.

Ich meine Spiele, nutzen immer noch am Sinnvollsten 6 Kerne mit SMT/HT aus. 8 Kerne sind schneller, aber der Gewinn nimmt im Schnitt schon stark ab.

Dabei haben viele heute schon 16 Threads und mehr.
In meinen Spielen peformt sie sehr gut.

Die 7800XT hat auc AI Beschleunigerseinheiten, was z.B der 6800xt fehlt.
Ich würde auch immer, aktuelle Hardware bevorzugen.
Ich schätze wenn kein Wunder passiert, werden wir in Zukunft nur noch durch DLSS / FSR verbesserungen in der Leistung erhalten, dass scheint für die Hersteller einfacher oder günstiger zu sein, zusätzlich macht man die Kundschaft von einer technoligie abhängig.
Da Spiele offensichtlich DLSS und FSR, wie auch Xess parallel unterstützen werden, sehe ich da keine Abhängikeit.

Sofern die Gesamtqualität der Optik steigt, habe ich kein Problem mit DLSS und FSR und co.

Alan Wake hat deutlich gezeigt, das es aufgehen kann, mit DLSS zum Beispiel eine super Qualität zu liefern und dazu viele feine Effekte.
 
Wenn einer was nicht verstehen will, dann will er eben nicht. Er bräuchte sich ja nur mal den Artikel zum 3D-Mark Ranking anschauen, runterscrollen zum Raytracingpart und siehe da... spürbare Unterschiede.
Du meinst den Raytracingpart in dem meine RX 6800 mit 130W schon schneller ist als die die getestete RX 6800 mit 203W?

Der Raytracing Index liegt bei 1440p auf dem selben Level wie der Port Royal Benchmark...ebenfalls 1440p. Vorsprung der RX 7700 XT ~14%
Raytracing und Port Royal.jpg

RX 6800 130W....................................................................Verbrauch einer RX 6800 stock
PR 130W.jpg PR.jpg
 
Zuletzt bearbeitet:
Fyi

Die 7800XT ist im Spiele Benchmark bei PCGH 1% schneller als die 6800XT und beim CB Parcours 5% !
Sorry ..
Aber 1-5% sind doch schon wieder fast Messetoleranz.
Bzw der Unterschied zwischen ner Standart founders edition Karte und ner guten Costum.

Das ist wie wenn du 60fps vs 62fps vergleichst..
Mess aber nicht fühlbar
 
, runterscrollen zum Raytracingpart und siehe da... spürbare Unterschiede.
Hä? Verstehe ich da was nicht? Sonst wird doch immer gesagt das man RayTracing nicht braucht und nur Rasterleistung zählt.

Und dann nochmal für Alle zu den Kosten moderner Hardware mit cutting Edge Chips. Es wird teurer. Nicht billiger seit 45nm. Auch wenn viele es nicht wahr haben wollen.
Ich verlinke euch nicht das Interview vom NV CEO sondern gebe hier mal die Daten die AMD in die Öffentlichkeit entlassen hat, bevor ich als Fanboy von irgendwas betitelt werde.

f1.jpg
 
Irgendwie seltsam, dass die Amis zwar die Nvidia GPU in China sanktionieren, aber die von AMD nicht - hmmm...
Weil es um die KI-Berechnung und deep Learning sowie Compute stärke geht..
Und nicht ums normale Gaming..

Alles sachen wo AMD einfach nicht gut ist..
Die Spieler in China finden selber keine Starken Nvidia Karten mehr weil der Markt da leergelutscht ist.. und sind daher gezwungen AMD zu kaufen
 
Ja, nur wird AMD davon gar nichts haben. Die Händler machen den Reibach, genau wie in der Mining-Krise.
Das würde ich so nicht sagen die Karten gehen besser weg als zuvor also hat Amd auch was davon nur ist deren Kuchen halt nicht so groß. Aber dennoch vorhanden.
Wenn einer was nicht verstehen will, dann will er eben nicht. Er bräuchte sich ja nur mal den Artikel zum 3D-Mark Ranking anschauen, runterscrollen zum Raytracingpart und siehe da... spürbare Unterschiede.
Rdna3 ist in RT fast 1 zu 1 wie Rdna 2.:ka:
Leistung wäre theoretisch vorhanden bei AMD. Nur der Softwarestack lässt viele Wünsche offen. Nicht nur seitens AMD, auch das ganze Ecosystem ist rund um CUDA viel besser.
Exakt das ist das Problem die Leistung an sich ist ja gut aber das drumherum reicht einfach nicht mehr.
 
Zuletzt bearbeitet:
Quick Reminder, dass nicht du festlegst, wer wie viel Leistung benötigt.
Ich schrieb "ES" nicht "WIR" Quick Reminder......
Das bedeutet, du kannst natürlich 4x 4090ziger in deinem PC verbauen um, was "GAMING" betrifft, Game X zu zocken. Das ist natürlich völlig ladde.
Während ich eine XTX einbaue und Game X genauso zocken kann. ?✌️
 
Zuletzt bearbeitet:
Ich schrieb "ES" nicht "WIR" Quick Reminder......
Das bedeutet, du kannst natürlich 4x 4090ziger in deinem PC verbauen um, was "GAMING" betrifft, Game X zu zocken. Das ist natürlich völlig ladde.
Während ich eine XTX einbaue und Game X genauso zocken kann. ?✌️
Oder du nutzt Downsampling um ein noch besseres Bild zu bekommen. Da reicht dann bei Metro Exodus EE meine 4080 grad so für 4k zu 1440p anstatt 5k dsr.
Spielen heißt nicht gleich Spielen. Manche wollen halt mehr Bildqualität.
Nativ war gestern.
 
Wo ist deine Karte denn Stock schneller als mit 130W?!
Meine Karte ist mit 130W schneller als die von PCGH getestete stock Karte mit 203W...zumindest in den Raytracingbenchmarks.
Und wenn die Werte von PCGH auch annähernd korrekt sein sollten (wovon ich nicht ausgehe), dann hat die Red Bull Kur bei meiner RX 6800 wohl geholfen....verleiht ja angeblich Flügel ;)
DX Ranking.jpg
 
Was habt ihr erwartet? Nvidia und AMD verkaufen AI Beschleuniger und die Kunden haben nix besseres zu tun, als den Mist unter Wasser in Rechenzentren zu verbauen. Ein normales Rechenzentrum kostet schon Unsummen. Was glaubt ihr, kostet eins, das unter Wasser ist? Und dann kommt diese Meldung und dann wundert mich nix mehr. Die treuen Kunden dieser Firmen bezahlen das einfach. Und wenn eine Erklärung vonnöten ist, warum der Mist so teuer wird, da habt ihr sie. :lol:

Das Ergebnis wird sein, daß es dann KI Rechenzentren gibt, die relativ unangreifbar sind. Skynet lässt grüßen. Und ihr alle habt das mitbezahlt. Das ist so, als würde man Nägel für den eigenen Sarg kaufen. :D Unterdessen streitet man sich über 2% Leistungsvorteile von Grafikkartengenerationen.
 
Leider ja, aber eine 7900GRE hätte ich jetzt bei Kleinanzeigen.de bekommen können, leider ist die Grafikkarte trotz 5120 Shadern statt 3840 der 7800XT nur ca 10% schneller.
Ist sie nicht viel effizienter durch den tieferen Takt? Leider habe ich kein Effizienzvergleich zwischen diesen Karten gefunden.

Ich habe im Moment eine 3090, die ich eher auf 3080-Performance takte. Die Taktrate ist dann viel näher am Effizienzsweetspot. So hat man ziemlich effiziente GPU im System.
 
Was habt ihr erwartet? Nvidia und AMD verkaufen AI Beschleuniger und die Kunden haben nix besseres zu tun, als den Mist unter Wasser in Rechenzentren zu verbauen. Ein normales Rechenzentrum kostet schon Unsummen. Was glaubt ihr, kostet eins, das unter Wasser ist? Und dann kommt diese Meldung und dann wundert mich nix mehr. Die treuen Kunden dieser Firmen bezahlen das einfach. Und wenn eine Erklärung vonnöten ist, warum der Mist so teuer wird, da habt ihr sie. :lol:

Das Ergebnis wird sein, daß es dann KI Rechenzentren gibt, die relativ unangreifbar sind. Skynet lässt grüßen. Und ihr alle habt das mitbezahlt. Das ist so, als würde man Nägel für den eigenen Sarg kaufen. :D Unterdessen streitet man sich über 2% Leistungsvorteile von Grafikkartengenerationen.
Haha, ja, diese Dullies. Lass mich raten, du schreibst uns vom Mars.
 
Die üblichen Marke A ist 3% schneller wenn Diskussionen ..
Ansonsten schon interessant, aber auch bisl mühseelig, welche Auswirkung der ganze USA-China-Mist hat.
 
Zurück