News AMD: KI-Fokus bei RDNA 3, RDNA 4 früher als erwartet?

Ich hatte mit amd und Nvidia in den letzten 14 jahren kaum, bis gar keine Probleme.

Einzig mal zu DX11 Zeiten der Treiberoverhead bei AMD und ein Fehlerhafter Treiber bei Nvidia.
An 2 große Probleme kann ich mich erinnern, einmal bei Skyrim haben nach treiberupdate oberflächen Texturen gesponnen, hat glaub ich nicht mal eine Woche gedauert bis ein Fix kam und mit einem Treiber ist bei mir Assasin Creed abgestürzt, hab ich halt diesen einen Monat den alten Treiber weiterverwendet, beim nächsten kam es nicht mehr vor....

Das dürfte es im großen und ganzen in über 10 Jahren gewesen sein....
 
Das einzige das mir aktuell dazu noch einfällt, was mir tatsächlich bei AMD missfällt, wäre die VR Performance, wie auch die Kompatibilität.

Bei der 7900XT gibt es echt noch Probleme, so Nutzer der 7900XT.

Einer bekommt seine Reverb nicht ans laufen, ein anderer hat unterirdische Performance mit einer Quest 2 usw. Solche Berichte häufen sich noch. Das sollte so nicht sein.

Ich werde wohl zwischen März und Mai mir eine 4070Ti, oder eine 7900XT zulegen. Auf dem Papier muss die 7900XT für mich eigentlich die bessere sein.

Brauche viel Vram für VR, aber genau in meinem Primär Spiel landet eine 7900XT noch unter den Vorgängern, wenn man freundlich ist beläst man es dabei. Gibt Berichte die sogar nur knapp die halbe Leistung einer 690=XT bescheinigen.

Wenn AMD bis zu meinem Kaufzeitpunkt die Treiber an dieser Stelle in den Griff bekommt, würde ich mir gerne eine 7900XT holen. Ansonsten bin ich gezwungen zu einer 4070TI zu greifen.

(7900XT wäre für mich die Wahl, weil ich außerhalb von VR nicht so viel Leistung brauche, denn ich Zocke wieder nur in 1080p, oder vielleicht mal 1440p und da reicht mit RT und FSR auch die 7900XT, wenn auch die 4070TI hier besser mit RT um kann. Dafür sind die 12GB grenzwertig in VR für mich)
Wenn AMD wollte, könnten die schon was gutes raushauen, Technik haben sie genug:

Sollen die bitte alles machen, den Aktien schadet das nicht.
 
Unter dem Strich ist AMDs Situation eine direkte Folge ihrer Designphilosophie. Die werden immer mehr Rasterperformance haben als ein Chiphersteller, der Oberfläche für spezialisierte Schaltungen opfert.
pro mm² oder pro Watt ist ihre Rasterperformance aber eig. gar nicht so prächtig- vor allem wenn man die 40er in einem gedrosselten aber praktisch kaum ausgebremsten Bereich betreibt. Sicherlich nun dank neuerem Node. Aber wenn man andersherum mit 6-7nm mit Müh und Not mit 8nm eine Gen zuvor mithält, war/ist diese "bessere Rasterperformance" doch eig. ziemlich mau.
 
Die hat die 4070 TI hat die bessere Rt Leistung , arbeitet effizienter und die 12 GB reichen auch noch in der Zukunft aus.
Von Treiber Support und dem DLSS 3.0 möchte ich erst recht nicht anfangen ,da ist AMD auch als hinter her.
Ich weiß wovon ich spreche, da ich vorher eine Radeon hatte. Permanente abstürze, spulenfiepen ,System Fehler und wurde manchmal einfach nicht erkannt.

Das hat hat einfach kein Spaß gemacht, mit der neuen habe ich als diese Probleme nicht.
Und wie gesagt, der speicher reicht dicke.

Bin auf 3440x 1440 unterwegs und zocke alles auf Anschlag.

AMD sollte endlich mal so ein Produkt liefern wie Nvidia ,meine damit dass ganze komplett Paket.
Ich hatte Karten von beiden Herstellern, letztlich sogar öfter nvidia als AMD. Das lag und liegt aber nicht daran das irgendwas nicht funktioniert in Hinsicht auf Treiber oder Hardware. Ich hab eigentlich immer danach entschieden wer den für die gelieferte Leistung geringsten Verbrauch hat und zum Zeitpunkt des Kaufes am preiswertesten war. Das war bei der letzten GPU nvidia mit der 2070 Super -wo mich allerdings die nur 8GB RAM von der weiteren Nutzung abhielten - und aktuell AMD mit der 6800XT. Speicher ist nun genug da, schön wäre etwas mehr DXR-Leistung. Allerdings war der Preis mit 659€ echt zu gut. Und da ich jetzt mal wieder den direkten Vergleich habe kann ich feststellen das der AMD-Adrenaline- Treiber und dessen viele Optionen echt excellente Arbeit sind. Abstürze gab es trotz maßvollem Overclocking nicht einen.
Ein Zusatztool für was auch immer benötige ich da nicht.
In den Spielen sind mir keine Bugs aufgefallen, die Leistung für meinen Spielequerschnitt (Hogwards Legacy, Pathfinder Wrath of the Wrighteous, Elden Ring, FF XIV, H:ZD, Isles of Etherion, MARVEL: Midnight Suns, The Medium, The Legend of Heroes -Reihe, TW: Warhammer-Reihe , Witcher 3) völlig zufriedenstellend in 1440p. Ja, ein bisschen mehr DXR-Leistung wäre schon was schönes. Aber aktuell ist das in meinem Use-Mix eher nachrangig.
Aber von mangelndem Treibersupport oder sonstigen Horrorgeschichten kann ich echt nix nachvollziehen. Vorausgesetzt denke ich mal das der PC an sich stabil und innerhalb vernünftiger Parameter betrieben wird. Es fiept nix, stürzt nix ab, kryptische Systemfehler hatte ich schon seit Windows XP nicht mehr....

Zu "12GB reichen auch noch in der Zukunft aus": Für manche Sachen sicher, die Frage ist allerdings für welche Games (ob es die sind die man dann auch soielen will), in welcher Auflösung und wie weit in der Zukunft....
 
Ich hatte Karten von beiden Herstellern, letztlich sogar öfter nvidia als AMD. Das lag und liegt aber nicht daran das irgendwas nicht funktioniert in Hinsicht auf Treiber oder Hardware. Ich hab eigentlich immer danach entschieden wer den für die gelieferte Leistung geringsten Verbrauch hat und zum Zeitpunkt des Kaufes am preiswertesten war. Das war bei der letzten GPU nvidia mit der 2070 Super -wo mich allerdings die nur 8GB RAM von der weiteren Nutzung abhielten - und aktuell AMD mit der 6800XT. Speicher ist nun genug da, schön wäre etwas mehr DXR-Leistung. Allerdings war der Preis mit 659€ echt zu gut. Und da ich jetzt mal wieder den direkten Vergleich habe kann ich feststellen das der AMD-Adrenaline- Treiber und dessen viele Optionen echt excellente Arbeit sind. Abstürze gab es trotz maßvollem Overclocking nicht einen.
Ein Zusatztool für was auch immer benötige ich da nicht.
In den Spielen sind mir keine Bugs aufgefallen, die Leistung für meinen Spielequerschnitt (Hogwards Legacy, Pathfinder Wrath of the Wrighteous, Elden Ring, FF XIV, H:ZD, Isles of Etherion, MARVEL: Midnight Suns, The Medium, The Legend of Heroes -Reihe, TW: Warhammer-Reihe , Witcher 3) völlig zufriedenstellend in 1440p. Ja, ein bisschen mehr DXR-Leistung wäre schon was schönes. Aber aktuell ist das in meinem Use-Mix eher nachrangig.
Aber von mangelndem Treibersupport oder sonstigen Horrorgeschichten kann ich echt nix nachvollziehen. Vorausgesetzt denke ich mal das der PC an sich stabil und innerhalb vernünftiger Parameter betrieben wird. Es fiept nix, stürzt nix ab, kryptische Systemfehler hatte ich schon seit Windows XP nicht mehr....

Zu "12GB reichen auch noch in der Zukunft aus": Für manche Sachen sicher, die Frage ist allerdings für welche Games (ob es die sind die man dann auch soielen will), in welcher Auflösung und wie weit in der Zukunft....
Kann sein, dass ich einfach eine schlechte GPU erwischt habe. Meine Erfahrung sollte kein hate sein an AMD, sondern war als Kritik gedacht.

AMD rennt Nvidia als hinterher ,sei es bei FSR oder dass neue Frame Generation von Nvidia.
Und Spiele mit FSr1.0 will keiner spielen glaub mir.

Was mich halt persönlich am meisten Triggert, ist der Spruch : 12Gb reichen nicht ,kauft euch lieber eine mit 16GB.

Sobald wir mit den spielen an dieser speicherlast angekommen sind ,kommen schon neue karten auf den Markt und dann ist das der neue Standard.

Nenn dir und euch mal mal ein Beispiel" Was hast du davon ,wenn du 16 GB auf der karte hast und die Karte in RT richtig abkackt.?

Schaut euch doch mal an ,wie die erste RDNA Architektur mit RT lief , eine RTX 3060 TI mit weniger Ram, war meistens schneller wie das Topmodel von AMD.

Sowas muss und sollte kritisiert werden .

FSR 3.0 wurde auch nur angekündigt ,um nicht noch schlechter dazustehen.
Ich verstehe es einfach nicht..
Hab seit ü er 10 Jahren nur AMD Grafikkarten und eigentlich nie besondere Probleme...
Was mache ich denn falsch?

Ps: Die tollen nvidia Treiber, les dir mal hier den Performance tip Artikel für hogwards durch ....
Welcher Treiber funktioniert da besser?
Zocke Howards auf vollen Einstellung, auf meiner RTX 4070 Ti, die nur 12Gb hat und bin meistens über 70 FPS.
Gespielt wird auf 3440x1440 Auflösung, ohne Frame Generation.

Wenn ich Frame Generation einschalte, bin ich im hunderter Bereich mit den FPS.
 
Zuletzt bearbeitet von einem Moderator:
Nenn dir und euch mal mal ein Beispiel" Was hast du davon ,wenn du 16 GB auf der karte hast und die Karte in RT richtig abkackt.?

Schaut euch doch mal an ,wie die erste RDNA Architektur mit RT lief , eine RTX 3060 TI mit weniger Ram, war meistens schneller wie das Topmodel von AMD.
Es ist glaub ich eher selten der Fall das eine RTX 3060 TI schneller ist als eine RX6800XT, entsprechend auch nicht schneller als eine RX6950XT. Es gibt sicher Spiele die generell auf nvidia-GPUs schneller laufen und dann mit DXR erst recht, ich kann das ganze aber nur aus meiner Sicht und im Hinblick auf die Games die ICH spiele beurteilen, und da bin ich zufrieden. Im Zweit-PC läuft ja auch immer noch die 2070Super, ist also auch nicht so als könnte ich nicht zumindest zum Teil Vergleiche ziehen. DXR ist halt in nur einem kleinen Teil der Games die ich zocke überhaupt enthalten, und wenn dem so ist läuft es auch auf der RX6800XT völlig zufriedenstellend für mich. Daher ist das auch eher ein zweitrangiges Kriterium beim Kauf für mich. Bei einem anderen Game-Profil kann das natürlich komplett anders aussehen.
 
pro mm²... ist ihre Rasterperformance aber eig. gar nicht so prächtig- vor allem wenn man ...
Wie hast Du denn Das ausgerechnet?

Hast Du mal ne Info/Quelle, wie viele Transistoren bei Ada auf den Cache entfallen, damit man mal
Ada-Die vs GCD richtig vgl. kann. (Ada102 Die = 608mm² , navi31 GCD= 304mm²)
... evtl. ohne Cache dann ca. 65,000Mill. vs 45,000Mill. = 1,44x mehr
... sehe aktuell in AH auch net Ada 1,44x schneller

btw.
Und just for fun, ... Rechne mal die Die-Kosten aus, ... kein Wunder, das Lovelace exorbitant teuer ist.
 

Anhänge

  • AD102 vs Navi31.jpg
    AD102 vs Navi31.jpg
    77,3 KB · Aufrufe: 14
  • AH@4k.JPG
    AH@4k.JPG
    54,5 KB · Aufrufe: 13
Zuletzt bearbeitet:
Solche vergleiche bringen nix da die arch unterschiedlich sind und was noch wichtiger ist man weis die genauen größe der teile der Einheiten nicht.
man kann das also nicht 1-1 vergleichen mit cu vs sm
Nur die menge an Transistoren sind vergleichbar für den ganzen chip.
Und das ist primär von der Fertigung abhängig. Und haben keine belang zu den Architekturen.
Da amd sowie nvidia denselben node verwenden erübrigt sich diese leistungsvergleiche.
Amd hat eine ganz andere arch, wäre das wie bei tsmc vs samsung könnte das man wegen effizienz vergleichen so aber nicht.
 
NaJa, man weiss z.Bsp. das auf den MCD´s nur Cache liegt.(den man billig produzieren kann/Kontingent abnehmen muss)

Also kann man schon die reinen Rechenwerke grob vgl. und da hat AMD z.Bsp ne größere Packdichte auf der GCD als der AD102.
--> Vermutlich ist also AMD bei TSMC net zum HochtaktVerfahren gegangen sondern eher in Richtung mehr Packdichte.
--> NV scheint dagegen mehr auf Takt gegangen zu sein
Ja, insofern sind Das dann tatsächlich leicht unterschiedliche Prozesse.
 
Genau wie bei mir: hatte noch nie irgendwelche schwerwiegende Probleme ausser vielleicht mal nen kleinen Crash, der mich auf dem Desktop landen ließ.
Und das muss nicht mal mit der AMD Karte zu tun gehabt haben, bei BFV konnte ich so einen Crash provozieren indem ich meinen Speicher übertätet habe, alle anderen Spiele liefen ohne Probleme nur BFV flog auf dem Desktop.
 
Also kann man schon die reinen Rechenwerke grob vgl. ...
Dank LOCUZA gibts sogar genauere Schätzungen:

Der AD102 hat ca. 90% mehr Fläche für Recheneinheiten und man sieht auch mal, wieviel beim N31 die MCD-Anbindung an Fläche kostet auf der GCD. (AMD gewinnt auf der GCD dadurch NIX, die Summe L2+MCD-Anbindung ist ungefähr genauso groß%
wie bei AD102 der L2, ... ist quasi nur ein Test für die Zukunft)

N31 vs AD102.jpg



Um auf den Ausgangpunkt zurückzukommen, nein .... AD102 ist@Raster nicht 90% schneller!
(kein Wunderwerk der Ingenieurskunst)
 
Zuletzt bearbeitet:
Wie hast Du denn Das ausgerechnet?
Pi mal Daumen. Außerdem war der springende Punkt "pro Watt", denn die-Größe ist eig. unterm Strich irrelevant für Effizienz. Wenn AMD wirklich immer der König der Performance wäre, was sie ja eben auch bereits mit besserem Node nicht waren, dann hätte das doch AMD viel stärker betont. Ähnlich wie die 4090 betreibt man alle Karten aber jenseits von gut und böse und eh klar verbrät man da jegliche theoretisch bessere Effizienz, weil man nur so beim Leistungsrennen mitgehalten hat und nun mit umgekehrten Technikvorteil platziert sich AMD fein sauber gegen zweite oder dritte Reihe, da die Luft oben zu dünn wurde. Trotz durchaus noch ähnlicher 300W gegen 400W, die nVidia eig. nicht braucht, aber anscheinend mit bis zu 600W Plan in der Konzeptphase wohl etwas den Verstand verloren hat.
Gerade wenn's enger wird, Karten ohne extra Stecker, rein 75W vom Board, bekommt man bei AMD nur eine RX6400 die als Upgrade für APU Vegas kaum sinnvoll ist. Keine Ahnung was da schief läuft. Vega braucht glaube ich 10-15W, liefert dafür eig. akzeptables, und 2 davon wäre scheinbar besser wie moderneres RDNA. Bei nVidia ist man mit "uralt" 1650 ja noch halbwegs sinnvoll unterwegs. Ich hab mir eine gebrauchte (weil sonst ja irrer Preis) A2000 reingesteckt, nVidia ist aber zu abgehoben um eine mögliche, für sowas eig. ideale RTX 3050 / 3060 / ~quasi M Variation regulär anzubieten. Das eigentliche Pendant dazu W6400 nutzt genauso wie die RX6400 das Maximum nicht aus, 20-25W bleiben ungenutzt und liefert trotz 6nm vs 8nm deutlich weniger Leistung . Selbst wenn ich die Watt noch linear draufmultiplizieren würde. Und unten wäre Effizienz ja weit wichtiger wie in der Oberliga, wo das primäre Ziel eh mehr fps ist und alles andere sekundär.
 
Pi mal Daumen. Außerdem war der springende Punkt "pro Watt", denn die-Größe ist eig. unterm Strich irrelevant für Effizienz.
???
Dann hast Du wirklich keinen Plan von modernen GPU´s.
Wenn man mehr Transistoren bei weniger Volt betreiben kann ist das natürlich sparsamer als weniger Transitoren
deutlich über Sweetspot zu fahren.(x)
Das man die effiziente große Lösung dann nur für deutlich meeeehr Geld bekommt sollte man allerdings mit ins Kalkül ziehen.

Am Ende bleibts für mich dabei, AD102 ist net per se besser, halt nur anders, weil größer.
--> Wer beim Kauf meeehr Geld ausgibt kann bei gleichem Fps-Limit sparsamer sein@UVen.

(x) zum besseren Verständnis mal die Effizienz beim UVen von verschieden großen Chips
... aus dem Luxx-Effizienzthread (Score/Watt=Effizienz bezogen auf 150W TGP, = 178W TBP)
gemessen wurde der Timespyscore

150W-TGP-UVing-Vergleich.JPG
 
Zuletzt bearbeitet:
Zurück