News Dank Ryzen 7 8700G: Cyberpunk 2077 "ohne Grafikkarte" flüssig

Na das macht doch schon ganz neugierig auf Strix Halo mit möglicherweise ~40CUs auf RDNA 3.5-Basis und der aufgebohrten KI-Einheit XDNA 2 =)
Ich freue mich auch schon wie ein Murmeltier auf den heiligen Gral aller APU's, möge auch der größte APU Skeptiker
im gleisenden Licht dieser anmutigen Schönheit Erleuchtung finden.

40CU's, RDNA3+ , 256-Bit LPDDR5X, 32MB Infinity cache und 40TOPS
Strix Halo, New Apple M-Series Competitor, 20 -120W "ultimate mobile"

Nach meiner Prognose dürfte sie wohl Performance technisch in der max. configuration mit ca, 120W in etwa zwischen einer Desktop RTX4060 und 4060ti bzw. in etwa im Bereich einer RX6700 und RTX3060ti liegen.

AMD Strix Halo is Smashing RTX 40 GPUs​

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Oder nimm von mir aus eine RTX 4070 (Ti).
Screenshot 2024-01-14 123832.jpg

Das wird nicht besser und wie du siehst, liegt das nicht an RT ;)

Oder WQHD Auflösung.
Screenshot 2024-01-14 123809.jpg


Nope. RT läuft bei AMD über die Shader, bei Nv über dei RT Cores ;)
 

Anhänge

  • Screenshot 2024-01-14 123809.jpg
    Screenshot 2024-01-14 123809.jpg
    71,9 KB · Aufrufe: 21
Da wird nicht sinnlos gehyped. RT ist die Zukunft und bei Filmen schon lange Standard. Wer das nicht akzeptieren will ist nicht die hellste Kerze auf der Torte.

Ich glaube nicht, dass Provokationen und Beleidgungen uns weiterbringen,
nur weil Du nicht verstehen möchtest/oder kannst, dass Nvidia hier die nächste Luftblase aufpumpt....
Ist ja nicht so, dass NVidia das zum Ersten mal betreibt...

Aber, nur mal so:
1. Auch wenn das offensichtlich i´wie wieder an Dir vorbei gegangen ist,
es geht in diesem Thread um AMD und Ingenieurskunst.
Abteilung Marketinggehype (Kim Kardashian und NV) findest Du auf TikTok.
2. Was haben Filme, die z.B. über Cinema 4D und NET Renderer bzw. Team Render
auf ganzen Serverfarmen mit Workstationkarten gerendert werden,
jetzt genau mit einer APU zu tun?

Hast Du das Thema um das es grad geht verstanden?

Ich mein, wg. hellste Kerze und Kuchen...

Thema ist AMD APU, die in der Lage ist, bei LowLevel TDP, minimum an Ressourcen
und aktiver Leistungsbeschränkung ein AAA-Game auszuführen, Ingenieurskunst.

Bastel doch mal eine APU, kannst Du das?
 
Nope. RT läuft bei AMD über die Shader, bei Nv über dei RT Cores ;)
Ich empfehle die erstmal nen bisschen Know How anzulesen!!

Raytracing wird in meheren Einzelschritten berechnet als Teil der Renderpipeline. Unterschiede zwischen den Herstellern gibt es aktuell, welche Schritte per fixed function oder general purpose berechnet wird.

Die RA Cores von RDNA2/3 sind Ray/Box and Ray/Tri Testers in Hardware. nV berechnet zusätzlich das BVH-Traversal in Hardware, was bei AMD über die TMUs läuft. ADA kann zusätzlich noch Coherency Sorting (per ALUs).
 
Dass die Grafikkarten so teuer sind, liegt aber nicht an RT, auch wenn dein Post es suggeriert.

Nein, sie wären nicht wesentlich günstiger, wenn es RT nicht geben würde.
Nvidia ist so teuer, weil sie konkurrenzlos sind und die Herstellung des Chips so teuer ist, aber die DIE Size wäre heute nicht geringer, würde es kein RT geben.

Keine der Aussagen stimmt.

Eine RX 7900 XT ist im Rasterzing der 4080 ebenbürtg, ja der 4080.
Während eine 7900 XT mit 799,- € zu Buche schlägt, ist es bei einer 4080
mal eben das Doppelte.

Dank Marketinggehype und Fanboys greifen uninformierte aber zu NV, statt zu AMD,
wo man bei 40% weniger Geld die gleiche Leistung bekommt.
Das treibt den Preis nach oben.
Angebot und Nachfrage.


AMD hat keine extra Hardware-Einheiten für RT Berechnungen und ist trotzdem vergleichsweise teuer im Gegensatz zu früher. Sollte euch zu denken geben ;)

AMD hat keine Hardware-Einheiten für RT?
Wo hast Du denn den Quatsch her?
Die Industriestandards DXR und Vulkan werden zu 100 % unterstützt, d.h. in Hardware.

RTX ist kein Standard, sondern proprietärer Code von NV.

1705234536610.png
 
Zuletzt bearbeitet:
AMD hat keine Hardware-Einheiten für RT?
Wo hast Du denn den Quatsch her?
Sowohl DXR, als auch Vulkan werden zu 100 % unterstützt,
d.h. in Hardware.
und wie löst AMD das? Über die schon vorhandenen Shader. Wie löst Nv das? Über extra dafür vorgesehene RT cores ;)

Die AMD Garde hat sich hier mal wieder gesammelt um mit falschen Fakten zu glänzen :ugly:
7900XT auf dem Niveau der 4080...dieses Forum hat fertig.
 
Zuletzt bearbeitet:

Benchmarks zwischen 4070 und 7900 XT zeigen bei einem Vergleich von 50 Spielen und 15 genutzten Engines
bei 15 % der Spielen einen Vorteil von 10 % zu Gunsten der 4070.
Bei den Übrigen 35 liegt die 7900 XT mit bis zu 30 % vor der 4070.

Die Differenz zwischen 4080 und 7900 XT liegt mal bei 10 % mal bei 15 %.

Ja, in Anbetracht der Zahlen, sehe ich da schon eher eine Konkurrenzsituation zwischen den beiden Karten.
Rein auf Rasterizing betrachtet und darum ging es grade, RT außen vor genommen.


Würdest du sagen die XT ist auch der XTX ebenbürtig?

Nein XTX sehe ich klar über 4080, nicht in der Nähe, aber unter 4090.

Und nochmal, was?

Yep, die Preissituation ist nun mal folgende, wenn Du mich fragst, ohne RT-Gehype, welche
Karte ich mir kaufen würde, wäre bei Rasterizing aktuell meine Wahl die Hellhound 7900XT für 799,- €.
Die 4080 ist für unter 1.400,- € nicht zu kriegen, fast der doppelte Preis,
Bin ich nicht bereit zu zahlen.
Könnte ich, mach ich aber nicht. Hat nix mit Geiz zu tun.

Die Kartensituation ist für uns Gamer/User erschreckend und es ist eine Frechheit, wie abgesahnt wird.
Und es hat nix mit Kosten zu tun.

Der einzige Grund, warum NV so absahnt, ist das dem RT Gehype so viel Aufmerksamkeit, auch von der "Fachpresse" geliefert wird, dass alle sich auf NV Karten stürzen.

Unabhängfig davon, ob eine 4060 oder 4070 überhaupt in der Lage sind RT bei 1440p darzustellen.

Jetzt rennen also alle vom RT Hype angef.... los und stürzen sich auf NV,
so wie Uninformierte das halt so machen und die Preise schießen hoch.

Bin ich weder bereit zu sponsorn, noch zu unterstützen, das es anders geht,
zeigen AMD und grade Intel.

Freue mich auf Battlemage und Celestial, habe Arc als es interessant war,
leider nicht bekommen.
 
Hat mit Hater nix zu tun.
Es wird nur sinnlos gehyped..
Es ist halt der nächste große Schritt zu fotorealistischer Grafik, ohne RT gehts nicht.
Seit 2 Grafikkartengenerationen hyped NVidia das und
RT ist immer noch nur mit High-End-Karten in hoher Auflösung nutzbar....
Eine RTX 4070 ist weit davon High End zu sein.
Alte Einsteiger Karten werden für RT nie genug Leistung haben, woher soll sie denn auch kommen?
Ist doch 1:1 genau das gleiche wie mit Rasterleistung, die kleinen Karten können das nicht flüssig auf Ultra, völlig egal mit welche Methodik angewandt wird.
Niemand hasst RT, aber NVidia und die 50 Nutzer einer 4090 liegen
einem ständig damit in den Ohren...
Die Mehrzahl der User finden" Nvidia in diesem Forum nicht gut und daher muss RT auch kritisch gesehen werden. War mit DLSS und auch FG 1:1 das gleiche.
Hätte AMD RT gebracht, wäre das natürlich anders.
Wir sind grad in einem Thread über eine sehr interessante APU von AMD
und es kommt RT.....
Ich habe ja RT nicht als abwertendes "Suchspiel" von Effekten bezeichnet, geschweige denn überhaupt davon angefangen zu reden und Crysis mit Cyberpunk verglichen.
Das war jemand anderes.
Also Respekt zu, wie immer, Top Ingenieurskunst von AMD.
Wie man es nimmt. Die IGP nimmt sich wenig mit der aktuellen von Intel und die APUs sind sehr teuer.
Jeder Ryzen 5 5600 mit RX 6600 pulverisiert die Spieleleistung für weniger Geld.
Für Office und das ein oder andere Spielchen aber ok.
Yes, Cyberpunk ist immer noch State of the Art, wüsste nicht, das Intel/Nvidia
das mit einer APU könnten.
Nvidia baut keine APUs und Intel kann das auch, ja. Vielleicht 20% langsamer, aber die können das auch.
Mit Mittelklasse-Grafikkarten braucht man das dann gar nicht probieren.
Hm... hast du schon mal etwas von Reglern gehört? Also Medium statt ultra?
 
Eine RTX 4070 ist weit davon High End zu sein.
Alte Einsteiger Karten werden für RT nie genug Leistung haben, woher soll sie denn auch kommen?
Ist doch 1:1 genau das gleiche wie mit Rasterleistung, die kleinen Karten können das nicht flüssig auf Ultra, völlig egal mit welche Methodik angewandt wird.
:lol: Das ist quasi genau das was ich die ganze Zeit meinte.
Hm... hast du schon mal etwas von Reglern gehört? Also Medium statt ultra?
Doch klar. Aber ich bin vom Maximum als Extrembeispiel ausgegangen.:ugly:
 
Ja, in Anbetracht der Zahlen, sehe ich da schon eher eine Konkurrenzsituation zwischen den beiden Karten.
Rein auf Rasterizing betrachtet und darum ging es grade, RT außen vor genommen.
Die 4080 ist wesentlich näher an der XTX als an der XT :ugly:
Screenshot 2024-01-14 134835.jpg


Und wenn man RT dazuschaltet, wars das mal wieder für AMD:

Also overall ist die 4080 über der XTX ;)
 
Junge, das Thema ist nen bisschen komplexer.
AMD widerspricht dir:

Also ja, die RA übernehmen einen Teil, aber der andere Teil läuft über die Shader, welche für Raster UND RT zuständig sind. Bei Nvidia sind die RT Cores für den gesamten RT Part zuständig, die Shader könnten währendessen andere Aufgaben übernehmen.
Also ja, Nvidia hat dedizierte HW für RT, AMD nicht wirklich.
 
Also ja, Nvidia hat dedizierte HW für RT, AMD nicht wirklich.
Ach fangen wir langsam an zu relativieren. Guck an ;)
RA Cores sind fixed function.

RT Hardware Level Definition nach IMG:
  • Level 0 – Legacy Solutions
  • Level 1 – Software on Traditional GPUs
  • Level 2 – Ray/Box and Ray/Tri Testers in Hardware
  • Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
  • Level 4 – BVH Processing with Coherency Sorting in Hardware
  • Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
AMD steht bei Level 2, nV und Intel bei Level 3.
 
Zuletzt bearbeitet:
und wie löst AMD das? Über die schon vorhandenen Shader. Wie löst Nv das? Über extra dafür vorgesehene RT cores ;)

Lieber Elliot, sei mir nicht böse, aber Du hast wirklich von nix nen Plan, oder?

Du weißt anscheinend nicht, was Deine Magic-RT/TC (Ray Tracing&Tensor Cores)
machen und wie sie funktionieren....

Wirklich versuchs jetzt ohne Polemik und mit normalen Aussagen.

Zu Deiner Information, sowohl die Shader bei RX, als auch die Shader bei RTX Karten
machen genau das Gleiche.

Was die RT Cores nun machen ist keine "Magic", sie "berechnen" nix.
Das passiert in den Shader Pipelines, die RT Cores sortieren nur vor,
so dass eine höhere Parallelisierung stattfinden kann, mehr nicht.

Das System nennt sich Bounding Volume Hierarchy (BVH).
Verprobung von Dreieicksquerschnitten in Hardware.

1705236456656.png



Wie Du siehst, geht die Berechnung der Szenerie nach "Verprobung" wieder an die Shader-Pipeline zurück.

Der Bereich, den TC und RTC auf dem Chip einnehmen sind 0,2 %, daran siehts Du auch, was da an "Rechenkapazitäten" hinterhängt.

NV hat die effizienteste Sortiermaschine der Welt erfunden....
Die RA Cores übernehmen aber nur einen Teil, die RT Cores alles. AMD hat die CUs nur aufgebohrt, Nvidia hat fixed functions dafür.

Die RT-Cores machen nix, sie sortieren nur.
Die Berechnung findet in den Shader-Pipelines statt.

Lies Dich doch mal bitte ein, bevor Du postest.

 
Hat eine Mittelklasse-Grafikkarte die selbe RT Leistung wie eine Highend-Karte?
Naja, relativ zur Gesamtleistung ist der Unterschied deutlich kleiner.
Die RA Cores übernehmen aber nur einen Teil, die RT Cores alles. AMD hat die CUs nur aufgebohrt, Nvidia hat fixed functions dafür.
So wie es aussieht, hat AMD genau wie Nvidia eigene unterstützende Einheiten dafür und genau wie bei AMD sind die bei Nvidia über die Cluster verteilt. Bei Nvidia in den SMs, bei AMD in den CUs.
Was die RT Cores nun machen ist keine "Magic", sie "berechnen" nix.
In dem Bild steht doch eindeutig Ray-Intersection-Test im RT-Core, oder? Die berechnen schon was.
 
In dem Bild steht doch eindeutig Ray-Intersection-Test im RT-Core, oder? Die berechnen schon was.
Wir mögen hier keine Fakten!
Ist auch nur Zufall, dass Nv in RT haushoch überlegen ist. Hat nichts damit zutun, dass die RT Cores der AMD Lösung überlegen sind und die 7900 XT ist auch schneller als die 4080 :ugly:
 
Zuletzt bearbeitet:
Zurück