News AMD Radeon: RDNA 4 ohne High-End-GPU? [Gerücht]

Welche radeon war denn jemals „highend“?
Ich lach mal leise.
R300 (9700/9800)
R400(X800)
R500 X1800/1900
RV770 4870
....
5870
7970
....
diese Karten hatten sowohl Tempo als auch Features. Danach gings aber aufgrund von massivem Geldmangel bergab und erst mit Navi war msn endlich wieder auf der Höhe.
Die aktuelle 7900er betrachte ich nicht als Highend, sie kann unter Rastern zwar mithalten, aber es fehlt ihr beim zukunftsweisenden RT an Power.
Wenn das be RDNA4 auch so sein sollte, macht es keinen Sinn Karten weiter oben anzubieten. Im Erscheinings-Jahr 2024/25 muss eine Karte um 1000 Euro nunmal ordentliche RT Funktionalität bieten. 6/7 Jahre nachdem Nvidia Echtzeit RT eingeführt hat und Lisa Su behauptet hat msn bringe RT erst wenn es ordentlich funtioniert, darf das ganze endlich funktionieren.
Es macht aber tatsächlich Sinn bei nur 10% Marktanteil alle Ressourcen zusammenzuziehen und in die Architektur zu investieren die dann in PCs aber eben auch Konsolen (PS6) verwendet wird
 
Weil sie weniger als Gesamtpaket bieten, ganz einfach. Im selben Preissegment liefert AMD aktuell ungefähr gleiche Rasterleistung, dafür weniger Raytracing-Leistung, schlechteres Upscaling, kein Reflex, keine Frame Generation, und das bei höherem Stromverbrauch.
Aber aber DLSS macht doch nur das Bild unscharf und den Unterschied zwischen Raster und RT sieht man eh nicht. Abgesehen davon will fake Frames ala Frame Generation auch niemand und das ist ja alles absoluter Schrott.
Burte Force und nativ ist das einzig Wahre :ugly: :ugly:

So hat man sich hier Monatelang als AMDler die Konkurrenz schlechtgeredet, blöd nur, dass außerhalb von PCGH und CB die Leute eben doch die neuen Technologien zu schätzen wissen.
 
War abzusehen und zu erwarten das Amd nicht,s Konkurrenzfähiges mehr auf die Beine stellen wird.

Nvidia hat Amd jetzt schon mit der RTX4090 derart Abgehängt das Amd nicht die Ressourcen für etwas auch nur anähernd gleichwertiges aufbringen kann !

Wer einzig und alleine nur auf die Rasterleistung schaut und wenig Geld hat wird zwar weiterhin zwangsläufig Amd kaufen ( müssen ) .

Und wer dagegen Wert auf ein Vollständiges Feature Paket , Gute Treiber , Hohe Leistung bei niedrigem Stromverbrauch , Leisen und Kühlen Betrieb , Hohe Qualität , Hohen Wiederverkaufswert legt wird Nvidia kaufen was sich ca.80% offensichtlich gut leisten können und wollen .

Diesen Markt will oder kann Amd offensichtlich nicht .
Das versucht Amd dann auch noch oft mit Ausreden zu Rechtfertigen.

Und sonderlich nachhaltig gedacht ist Amd,s Strategie auch nicht , schließlich verrichten die Leistungsfähigeren und dabei sparsameren RTX 4000 Karten meiner Erfahrung nach in der Regel sehr viel länger ihren Dienst .

Die letzten einzigen wirklich guten Karten von Amd die ich verbaut habe waren die 4870 und 7970 , danach konnte man Amd vergessen .
 
Zuletzt bearbeitet:
Aber aber DLSS macht doch nur das Bild unscharf und den Unterschied zwischen Raster und RT sieht man eh nicht.
RDR 2 sieht mit DLSS sogar besser aus:
:ugly:
DLSS
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
TAA
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ja, nur ein Beispiel, das ich für die anderen einwerfen wollte. Nicht alle Titel sehen damit prinzipiell schlechter aus.
 
Ach ja? Weil Multi-GPUs so gut funktioniert haben in der Vergangenheit? Wie die Voodoo 5 Karten? Oder SLI Systeme?

Ich denke eher dass da noch einiges an R&D Aufwand zu betreiben ist um 2 GCDs miteinander so zu koppeln dass sie gleichzeitig ein Bild rendern ohne bei den Timings "warten" zu müssen. Das Problem gibt es ja jetzt schon auf einem monolithischen Chip, dafür hat Nvidia extra SER (Shader Execution Reordering) eingebaut. Sowas wird auch bei Multi-GCD GPUs benötigt, nur dass die Latenzen da zwischen den Chips viel höher sind.
AMDs multi chip Ansatz hat wenig mit SLI oder den vodoo Karten gemein. Die Recheneinheiten sind alle in einem monolithischen Chip. Die höheren Latenzen zum VRAM werden sehr gut durch den großen Cache abgefangen. Aber natürlich besteht noch Optimierungsbedarf gerade bei der Effizienz. Ich gehe auch davon aus, dass AMD das weiß und angeht.
 
AMDs multi chip Ansatz hat wenig mit SLI oder den vodoo Karten gemein. Die Recheneinheiten sind alle in einem monolithischen Chip. Die höheren Latenzen zum VRAM werden sehr gut durch den großen Cache abgefangen. Aber natürlich besteht noch Optimierungsbedarf gerade bei der Effizienz. Ich gehe auch davon aus, dass AMD das weiß und angeht.

Ja, in der aktuellen RDNA3 Gen hat man einen monolithischen GCD (Compute) und mehrere MCDs (Memory).

Aber hier wurde ja davon gesprochen mehrere GCDs zusammen rechnen zu lassen zwecks Skalierung. Da ist man dann sehr wohl bei ähnlichen Ansätzen wie SLI oder den Voodoo 5 Karten und läuft in dieselben Probleme:
- Parallel ein Bild auf mehreren GCDs berechnen (also z.B. obere Hälte / untere Hälfte)? Latenz, Timing...
- Abwechselnd Bilder auf unterschiedlichen GCDs berechnen? Timing...

Ich weiss von keiner anderen Möglichkeit wie man das Rendering auf mehrere Chips aufteilen kann.

Das ist hier ja nur ein Gerücht. Und wer weiss was Nvidia 2024/2025 raus bringt, vielleicht kommen sie ja auch mit ihrem ersten MCM Ansatz um die Ecke.

Ein MCM Design kann natürlich nur dann mit einem monolithischen Design mithalten wenn die Compute-Fläche ungefähr gleich groß ist. Das kann bedeuten dass man 2+ GCDs koppeln muss um mit dem einen Big Chip mithalten zu können. Oder man baut 1 riesiges GCD welches fast so groß ist wie der Monolith ohne den Cache. Da wäre dann die Frage ob die Ausbeute noch so gut ist.
 
DLSS, höhere Raytracing Power, Reflex und Frame Generation
Exakt diese Features sind der Grund, warum ich "damals" nach fast 20 Jahren ausschließlichlicher Radeon-Nutzung zunächst zur RTX 3080 wechselte und inzwischen beim Ada Lovelace Flagship gelandet bin, weil eben AMD nicht Adäquates entgegenzusetzen hat. So ist nun einmal die "traurige" Realität. Die neuen GPUs von Nvidia sind halt leider geil. Zu den Alten (vor Ampere) kann ich nichts sagen, da ich nie eine besaß.
 
Selbst wenn das Gerücht stimmt, wäre das meiner Meinung nach kein Beinbruch. nVidia verkauft sich im vor allem im Highend sowieso besser, egal was AMD dort bringt.
 
Selbst wenn das Gerücht stimmt, wäre das meiner Meinung nach kein Beinbruch. nVidia verkauft sich im vor allem im Highend sowieso besser, egal was AMD dort bringt.

Falsch .
Würde Amd etwas wirklich gleichwertiges ( Gesamtpaket , Preis ) liefern können , würden sich sicher schon aus Neugier viele dafür entscheiden .

Nur Amd kann eben nicht !

Und im CPU Bereich wird sich das kurze Erfolgserlebniss auch bald ändern , wenn Amd weiterhin nur Stupide Kerne zusammenklebt !
 
Es gibt bereits seit längerem Informationen die ihre Kreise ziehen, das AMD zwei kleinere Chips zu einer leistungsstarken GPU kombinieren könnte , anstatt einen großen RDNA 4 Chip anzubieten. Was durch das Chiplet Design möglich ist.
Denn der Wechsel von Monolithisch zu Chiplet hatte nicht nur Kostengründe.

Man wird sehen was uns in Zukunft erwartet.
Exakt diese Features sind der Grund, warum ich "damals" nach fast 20 Jahren ausschließlichlicher Radeon-Nutzung zunächst zur RTX 3080 wechselte und inzwischen beim Ada Lovelace Flagship gelandet bin.
Das freut das Nvidia Marketing sicherlich.
Hat es dich nicht geärgert das du mit deinen neuen 3080 nicht mal DLSS 3 FG nutzen durftes oder war dies der Grund für den Wechsel? Software Features sind für mich nie mehr als Nice 2 Have und niemals ein Kaufgrund. Denn das ist was uns das Marketing weis machen möchte.
 
Zuletzt bearbeitet:
Ja, in der aktuellen RDNA3 Gen hat man einen monolithischen GCD (Compute) und mehrere MCDs (Memory).

Aber hier wurde ja davon gesprochen mehrere GCDs zusammen rechnen zu lassen zwecks Skalierung. Da ist man dann sehr wohl bei ähnlichen Ansätzen wie SLI oder den Voodoo 5 Karten und läuft in dieselben Probleme:
- Parallel ein Bild auf mehreren GCDs berechnen (also z.B. obere Hälte / untere Hälfte)? Latenz, Timing...
- Abwechselnd Bilder auf unterschiedlichen GCDs berechnen? Timing...

Ich weiss von keiner anderen Möglichkeit wie man das Rendering auf mehrere Chips aufteilen kann.

Das ist hier ja nur ein Gerücht. Und wer weiss was Nvidia 2024/2025 raus bringt, vielleicht kommen sie ja auch mit ihrem ersten MCM Ansatz um die Ecke.

Ein MCM Design kann natürlich nur dann mit einem monolithischen Design mithalten wenn die Compute-Fläche ungefähr gleich groß ist. Das kann bedeuten dass man 2+ GCDs koppeln muss um mit dem einen Big Chip mithalten zu können. Oder man baut 1 riesiges GCD welches fast so groß ist wie der Monolith ohne den Cache. Da wäre dann die Frage ob die Ausbeute noch so gut ist.
Achso das hab ich dann wohl überlesen.
Ich gehe nicht davon aus, dass zwei oder mehrere GCDs gekoppelt werden. Aus bekannten Gründen macht das nicht wirklich viel Sinn.
 
War abzusehen und zu erwarten das Amd nicht,s Konkurrenzfähiges mehr auf die Beine stellen wird.

Nvidia hat Amd jetzt schon mit der RTX4090 derart Abgehängt das Amd nicht die Ressourcen für etwas auch nur anähernd gleichwertiges aufbringen kann !

Wer einzig und alleine nur auf die Rasterleistung schaut und wenig Geld hat wird zwar weiterhin zwangsläufig Amd kaufen ( müssen ) .

Und wer dagegen Wert auf ein Vollständiges Feature Paket , Gute Treiber , Hohe Leistung bei niedrigem Stromverbrauch , Leisen und Kühlen Betrieb , Hohe Qualität , Hohen Wiederverkaufswert legt wird Nvidia kaufen was sich ca.80% offensichtlich gut leisten können und wollen .

Diesen Markt will oder kann Amd offensichtlich nicht .
Das versucht Amd dann auch noch oft mit Ausreden zu Rechtfertigen.

Und sonderlich nachhaltig gedacht ist Amd,s Strategie auch nicht , schließlich verrichten die Leistungsfähigeren und dabei sparsameren RTX 4000 Karten meiner Erfahrung nach in der Regel sehr viel länger ihren Dienst
Du solltest dich beim Nvidia Marketing melden. Soviel Unfug und Halbwahrheiten zu präsentieren ist schon mehr als schwierig.

"Wer Arm ist dem bleibt eben nur AMD"
lt. deiner Aussage soll das Fazit sein?

Sowas ist an Fanboism nicht mehr zu überbieten. Für solche Aussagen müsste Nvidia die Preis noch mehr anziehen damit mancher Möchtegern sich gerade mal eine 4050 leisten kann.

Das sowas schon nicht beim Schreiben wehtut.
 
Falsch .
Würde Amd etwas wirklich gleichwertiges ( Gesamtpaket , Preis ) liefern können , würden sich sicher schon aus Neugier viele dafür entscheiden .

Nur Amd kann eben nicht !

Und im CPU Bereich wird sich das kurze Erfolgserlebniss auch bald ändern , wenn Amd weiterhin nur Stupide Kerne zusammenklebt !
Die Radeon 7900 XTX ist schneller (ohne RT) und günstiger als die RTX 4080. Trotzdem hat sich die nVidia-Karte bei Mindfactory öfter verkauft.
AMD's "stupid Kerne zusammenkleben" hat dazu geführt, dass Intel nun in jedem Bereich hinter AMD liegt.
 
Nur sind durchweg alle 4000er Karten effizienter als die vergleichbaren RX7000er Pendants. Bei den anderen Punkten stimme ich zu.
Ja, da stimme ich Dir auch zu. Aber die Effizienz hängt auf stark von der Taktung ab, und ich glaube dass beide Hersteller da nicht nach Effizienz takten, sondern nach der Positionierung. Edit: Also es wäre echt mal interessant, beide GPUs auf 800mV zu stellen und den Takt so hoch zu schrauben, wie es geht. Und dann den Stromverbrauch vergleichen. Was wir aktuell tun, ist ja nur das Tuning zu vergleichen.
Dass der "normale Gamer" auf DLSS, höhere Raytracing Power, Reflex und Frame Generation verzichten möchte sehe ich allerdings nicht bei dem aktuellen Market-Share von ~80:20.
Du glaubst doch nicht ernsthaft, dass ein Normalo überhaupt weiß, was DLSS ungefähr ist? Er benutzt, wenn überhaupt, in den Grafikoptionen nur die Einstellung Ultra, Normal oder Low, je nach dem Gefühl für sein System. Vermutlich sogar, ohne zu testen, ob eine höhere Einstellung auch nicht ruckeln würde.
Ich habe gestern Baldur's Gate gestartet und da kam folgender Vorspann: "Nvidia - the way it's meant to be played". Der Kunde kauft seinen Komplettrechner und es ist ohnehin in fast allen Komplettrechnern eine Nvidia-Karte. Und genau das will der Normalo auch auf der Produktbeschreibung lesen. Weil jedes fünfte Spiel ja mit Nvidia-Karten meant to be played ist. Dass das nur ein Marketingvideo ist, das sich Nvidia eingekauft hat, und da genauso gut Intel oder wer auch immer werben könnte, schnallen doch gerade Teenager, die ja oft eine große Zielgruppe für Gaming sind, gar nicht. Das sehe ich auch hier im Forum, wenn Leute denken, dass Vulkan von AMD sei und sie mit ihren Nvidia-Karten deshalb immer nur DirectX auswählen.
Edit: Du siehst ja, dass hier im Forum anteilig viel mehr Leute eine AMD-Karte haben als "Normalos". Das liegt daran, dass hier im Forum viel mehr Leute wissen, dass es noch einen anderen GPU-Hersteller außer Nvidia überhaupt gibt. Das sehe ich auch als Problem für Intel. Die Leute werden denken, wenn 2x Intel draufsteht, hat der Rechner eine CPU und ein WLAN-Modul.

Du willst die Einheiten, die den größten Performance Sprung seit ewigen Zeiten gebracht haben, einfach wegkürzen? Weil die nicht "dahin gehören"???
Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Wir haben jetzt mit den Tensor Cores in der 4090 zwar über 1 POPS, aber was ist wen wir mit den Shadern im PFLOPS-Bereich landen... Dann können wir mit sagen wir 10 PFLOPS ein PFLOP für DLSS hergeben, und ich denke nicht, dass die Rechenleistungs-Anforderungen für DLSS in Zukunft steigen werden - wüsste nicht, warum, solange die Auflösung nicht steigt und für mehr als 4K sehe ich auch keine echte Zukunft.

Raytracing, DLSS und Frame Generation sind zusammen die Gamechanger der letzten 15+ Jahre GPU Geschichte.
Sehe ich noch nicht so. Ich achte bei meinen GPUs nach wie vor ausschließlich auf die Rasterizing-Leistung. Auch meine RX 6800 XT betrachte ich nicht als deutlich schlechter im Gaming als meine RX 7900 XT, obwohl die 7900 massiv mehr Rechenleistung hat und eine deutlich bessere Raytracing-Performance. Aber 95% der Spiele, die ich zocke, haben nicht mal Raytracing-Support. Für mich ist das Zukunftsmusik, obwohl ich es für einen halbfertigen Entwurf halte. Erst wenn wir komplett auf Pathtracing umsteigen, dann ist das aus meiner Sicht ein echter Gamechanger und eine echte Innovation.

Für professionelle Workloads werden aktuell überall auf der Welt GPUs gekauft. Das hat seine Gründe, z.B. die hochgradig parallelisierte Architektur.
Aber wenn Du Tensor Cores brauchst, brauchst Du die Shader halt nicht mehr, bzw. nur homöopathisch. Also warum solltest Du Grafikkarten dazu benutzen statt Prozessoren, die speziell dafür gemacht wurden?
Eine CPU arbeitet dagegen eher seriell. Das sieht man allein schon an der Kernzahl, was sind 64 Threads (bei einer 32 Kern Server CPU mit SMT) gegen 132 Streaming Multiprozessoren die 16.896 Shader beinhalten (H100 SXM5)?
Das ist ja am Ende völlig egal, weil der KI-Chip ja nur ein weiterer Die auf dem CPU-PCB ist - wie auch jeder andere CCX, der einfach modular hinzugefügt wird.
Die Tensor Cores dienen zur Matrix-Multiplikation wie sie beim KI Training gebraucht wird (und womit z.B. DLSS und Frame Generation beschleunigt werden). Sowas wird Intel bereits mit den kommenden Meteor Lake CPUs als VPU Einheit einführen.
Richtig, und AMD in der kommenden Generation auch. Somit haben dann beide CPU Hersteller ohnehin NPUs mit an Bord. Das heißt, jeder PC wird in Zukunft irgendwann mit oder ohne Grafikkarte immer eine NPU mit dabei haben.
 
Zuletzt bearbeitet:
Das freut das Nvidia Marketing sicherlich.
Hat es dich nicht geärgert das du mit deinen neuen 3080 nicht mal DLSS 3 FG nutzen durftes oder war dies der Grund für den Wechsel? Software Features sind für mich nie mehr als Nice 2 Have und niemals ein Kaufgrund. Denn das ist was uns das Marketing weis machen möchte.
Der Hauptgrund, warum ich von AMD weg bin, war die Raytracing-Leistung, die ich bei Nvidia erhalte. Aufmerksam wurde ich bereits zu Zeiten der RTX 2080 Ti, aber da werkelte noch fröhlich meine alte R9 390 von Sapphire im Rechner. Die ist mir kurz vor dem Ampere-Launch aber abgeraucht und ich wollte einfach mal etwas Neues ausprobieren. Dann griff ich halt releasenah nur RTX 3080, weil ich heiß auf Raytracing war. Ich habe die Entscheidung nie bereut.

Es hat mich nie geärgert, weil es für mich schon vor Release von Ada Lovelace feststand, dass ich mir die RTX 4090 zum Release holen werde. Ich habe die Entscheidung bis heute nicht bereut. Die RTX 3090 (ja, RTX 3090; RTX 3080 in der Corona-Pandemie bzw. Miningkrise mit ~1000€+ gewinnbringend verkauft, davon eine RTX 3080 Ti von EVGA gekauft und via Step-Up zum Versandkostenpreis + Trinkgeld geupgraded) hat auch noch gut was abgeworfen, da ich sie beizeiten verkauft habe, also alles richtig gemacht.

Es interessiert mich nicht, was das Marketing macht. Bei der RTX 4090 stimmt alles und ich habe sie auch zum Release zur UVP erhalten. Sie ist für mich preiswert, im Sinne von ihren Preis wert. Ich will nicht mehr auf Raytracing-Power, DL-DSR und Frame Generation verzichten. Gerade DL-(DSR/AA/SS Quality) verwende ich immer und in jedem Spiel, sogar in Emulatoren wie Dolphin, CEMU, RPCS3, XENIA. Es ist einfach ein Game Changer. Über die Rohleistung müssen wir uns gar nicht unterhalten.

PS: Ob ich als Konsument mehr die Hardware-Leistung oder die Software-Features ins Rampenlicht rücke, bleibt doch wohl jedem selbst überlassen. Am Ende des Tages zählt doch eigentlich nur, dass man zufrieden ist. Und das bin ich. Dafür muss ich mich nicht rechtfertigen, schätze ich mal. :)
 
Neben der Problematik mit PCIe 3.0 8x, wo Nvidia nun auch aufgesprungen ist, gibt es noch einige weitere Fragen.
Warum hat man den Infinity-Cache der RX 7600 nicht auf 48 MiB erhöht um die Bandbreite auch in 1440p besser kaschieren zu können? Warum kein natives 160 Bit Speicherinterface bei Navi33 für 10 GiB VRAM um zumindest auf dieser Schiene gegen die RTX 4060 punkten zu können?
Weil AMD genauso ein Saftladen ist wie Nvidia? Die ziehen in dieser Generation genau dasselbe Spiel durch: Minderwertigere Ware unter einer höherwertigeren Produktbezeichnung verkaufen. Ist bei AMD nur lustig, weil die Enden des Produktportfolios die Menge an Produkten eigentlich nicht hergibt.
 
Ja, da stimme ich Dir auch zu. Aber die Effizienz hängt auf stark von der Taktung ab, und ich glaube dass beide Hersteller da nicht nach Effizienz takten, sondern nach der Positionierung.
Nvidia hat bei ADA die angepeilte Taktschraube anscheinend nach unten gedreht. Vor Release munkelte man von 600W TDP bei der 4090, rausgekommen sind 450W und man hat damit ein konkurrenzloses Produkt am Markt. Jeder Test bescheinigte der 4090/4080 eine sehr gute Effizienz mit einem Betrieb auf dem Sweetspot, mit Undervolting konnte man da kaum mehr rausholen.

AMD musste dagegen die Taktschraube hochdrehen um zumindest die 4080 angreifen zu können. Das sieht man an der Effizienz der Karten.


Du glaubst doch nicht ernsthaft, dass ein Normalo überhaupt weiß, was DLSS ungefähr ist? Er benutzt, wenn überhaupt, in den Grafikoptionen nur die Einstellung Ultra, Normal oder Low, je nach dem Gefühl für sein System. Vermutlich sogar, ohne zu testen, ob eine höhere Einstellung auch nicht ruckeln würde.
Ich habe gestern Baldur's Gate gestartet und da kam folgender Vorspann: "Nvidia - the way it's meant to be played". Der Kunde kauft seinen Komplettrechner und es ist ohnehin in fast allen Komplettrechnern eine Nvidia-Karte. Und genau das will der Normalo auch auf der Produktbeschreibung lesen. Weil jedes fünfte Spiel ja mit Nvidia-Karten meant to be played ist. Dass das nur ein Marketingvideo ist, das sich Nvidia eingekauft hat, und da genauso gut Intel oder wer auch immer werben könnte, schnallen doch gerade Teenager, die ja oft eine große Zielgruppe für Gaming sind, gar nicht. Das sehe ich auch hier im Forum, wenn Leute denken, dass Vulkan von AMD sei und sie mit ihren Nvidia-Karten deshalb immer nur DirectX auswählen.
Ein Normalo weiss aber, durch die Werbung, dass er "mehr FPS bei gleicher Qualität" durch DLSS / FSR bekommt. Da DLSS mehr unterstützt wird ist das auch ein No-Brainer bei der Auswahl zwischen 2 ähnlich bepreisten Produkten mit ungefähr gleicher Leistung. Somit muss AMD über den Preis kommen, machen sie aber nicht (so richtig).


Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Wir haben jetzt mit den Tensor Cores in der 4090 zwar über 1 POPS, aber was ist wen wir mit den Shadern im PFLOPS-Bereich landen... Dann können wir mit sagen wir 10 PFLOPS ein PFLOP für DLSS hergeben, und ich denke nicht, dass die Rechenleistungs-Anforderungen für DLSS in Zukunft steigen werden - wüsste nicht, warum, solange die Auflösung nicht steigt und für mehr als 4K sehe ich auch keine echte Zukunft.
Die Tensor Cores sind ja nicht nur für DLSS gut. Auch das für Raytracing benötigte Inferencing läuft (beschleunigt) auf diesen Cores.

Schau mal hier warum Hopper stark auf Tensor Cores (Matrix Einheiten) setzt:

1691230820671.png

1691230899014.png




Sehe ich noch nicht so. Ich achte bei meinen GPUs nach wie vor ausschließlich auf die Rasterizing-Leistung. Auch meine RX 6800 XT betrachte ich nicht als deutlich schlechter im Gaming als meine RX 7900 XT, obwohl die 7900 massiv mehr Rechenleistung hat und eine deutlich bessere Raytracing-Performance. Aber 95% der Spiele, die ich zocke, haben nicht mal Raytracing-Support. Für mich ist das Zukunftsmusik, obwohl ich es für einen halbfertigen Entwurf halte. Erst wenn wir komplett auf Pathtracing umsteigen, dann ist das aus meiner Sicht ein echter Gamechanger und eine echte Innovation.

Welches Triple-A Spiel der letzten 2-3 Jahre ist ohne Raytracing rausgekommen?

Für Dich persönlich mag das nicht relevant sein, der Markt entwickelt sich aber deutlich in diese Richtung. Außerdem bist Du nur auf RT eingegangen, was ist mit DLSS und Frame Generation?

Aber wenn Du Tensor Cores brauchst, brauchst Du die Shader halt nicht mehr, bzw. nur homöopathisch. Also warum solltest Du Grafikkarten dazu benutzen statt Prozessoren, die speziell dafür gemacht wurden?
Siehe Tabellen oben. Shader sind für andere Berechnungen "besser" als Tensor Cores.

Noch mal: eine GPU hat eine völlig andere Architektur als eine CPU. Außerdem sind die (Unified) Shader programmierbar und können von Entwicklern angepasst werden für ganz spezielle Tasks.

"Fixed Function" Units, wie Du sie beschreibst, gibt es eben als Tensor Cores auch auf heutigen (Nvidia und Intel) GPUs.
Intel wird mit den VPUs in Zukunft auch CPUs so bestücken, der Einsatzzweck ist dabei aber aktuell eher im Laptop Bereich um dort die "AI" Performance zu erhöhen.


Das ist ja am Ende völlig egal, weil der KI-Chip ja nur ein weiterer Die auf dem CPU-PCB ist - wie auch jeder andere CCX, der einfach modular hinzugefügt wird.
Deine Antwort passt irgendwie nicht zu meiner Aussage. Auch wenn der AI-Chip ein Teil der CPU ist ändert das nichts an der eigentlichen Architektur.

Richtig, und AMD in der kommenden Generation auch. Somit haben dann beide CPU Hersteller ohnehin NPUs mit an Bord. Das heißt, jeder PC wird in Zukunft irgendwann mit oder ohne Grafikkarte immer eine NPU mit dabei haben.
Wo wir wieder beim Thema "Latenz und Timing" wären. Wie soll das bitte laufen? Die CPU schickt Daten an die GPU Shader um das Bild zu rendern, diese fangen an mit ihrem Job, die RT Cores (GPU) beleuchten die Szene, für das Inferencing muss hier einmal zur CPU hin und zurück stattfinden, und dann geht das Bild noch mal an die CPU zwecks "Upscaling" (da dort ja Deiner Meinung nach die Matrix-Einheiten hingehören), die CPU schickt das "upgesampelte" Bild wieder an die GPU zur Ausgabe??

Die Latenz zwischen Rendering und Ausgabe würde dadurch so massiv steigen dass DLSS und RT nicht mehr in Real-Time funktionieren...
 
Zurück