Nur sind durchweg alle 4000er Karten effizienter als die vergleichbaren RX7000er Pendants. Bei den anderen Punkten stimme ich zu.
Ja, da stimme ich Dir auch zu. Aber die Effizienz hängt auf stark von der Taktung ab, und ich glaube dass beide Hersteller da nicht nach Effizienz takten, sondern nach der Positionierung. Edit: Also es wäre echt mal interessant, beide GPUs auf 800mV zu stellen und den Takt so hoch zu schrauben, wie es geht. Und dann den Stromverbrauch vergleichen. Was wir aktuell tun, ist ja nur das Tuning zu vergleichen.
Dass der "normale Gamer" auf DLSS, höhere Raytracing Power, Reflex und Frame Generation verzichten möchte sehe ich allerdings nicht bei dem aktuellen Market-Share von ~80:20.
Du glaubst doch nicht ernsthaft, dass ein Normalo überhaupt weiß, was DLSS ungefähr ist? Er benutzt, wenn überhaupt, in den Grafikoptionen nur die Einstellung Ultra, Normal oder Low, je nach dem Gefühl für sein System. Vermutlich sogar, ohne zu testen, ob eine höhere Einstellung auch nicht ruckeln würde.
Ich habe gestern Baldur's Gate gestartet und da kam folgender Vorspann: "Nvidia - the way it's meant to be played". Der Kunde kauft seinen Komplettrechner und es ist ohnehin in fast allen Komplettrechnern eine Nvidia-Karte. Und genau das will der Normalo auch auf der Produktbeschreibung lesen. Weil jedes fünfte Spiel ja mit Nvidia-Karten meant to be played ist. Dass das nur ein Marketingvideo ist, das sich Nvidia eingekauft hat, und da genauso gut Intel oder wer auch immer werben könnte, schnallen doch gerade Teenager, die ja oft eine große Zielgruppe für Gaming sind, gar nicht. Das sehe ich auch hier im Forum, wenn Leute denken, dass Vulkan von AMD sei und sie mit ihren Nvidia-Karten deshalb immer nur DirectX auswählen.
Edit: Du siehst ja, dass hier im Forum anteilig viel mehr Leute eine AMD-Karte haben als "Normalos". Das liegt daran, dass hier im Forum viel mehr Leute wissen, dass es noch einen anderen GPU-Hersteller außer Nvidia überhaupt gibt. Das sehe ich auch als Problem für Intel. Die Leute werden denken, wenn 2x Intel draufsteht, hat der Rechner eine CPU und ein WLAN-Modul.
Du willst die Einheiten, die den größten Performance Sprung seit ewigen Zeiten gebracht haben, einfach wegkürzen? Weil die nicht "dahin gehören"???
Ich sehe es weiterhin echt nicht langfristig in der GPU. Selbst wenn es für z.B. DLSS usw. da gebraucht wird... werden wir je in Auflösungen über 8K zocken und brauchen wir dann DLSS?
Wir haben jetzt mit den Tensor Cores in der 4090 zwar über 1 POPS, aber was ist wen wir mit den Shadern im PFLOPS-Bereich landen... Dann können wir mit sagen wir 10 PFLOPS ein PFLOP für DLSS hergeben, und ich denke nicht, dass die Rechenleistungs-Anforderungen für DLSS in Zukunft steigen werden - wüsste nicht, warum, solange die Auflösung nicht steigt und für mehr als 4K sehe ich auch keine echte Zukunft.
Raytracing, DLSS und Frame Generation sind zusammen die Gamechanger der letzten 15+ Jahre GPU Geschichte.
Sehe ich noch nicht so. Ich achte bei meinen GPUs nach wie vor ausschließlich auf die Rasterizing-Leistung. Auch meine RX 6800 XT betrachte ich nicht als deutlich schlechter im Gaming als meine RX 7900 XT, obwohl die 7900 massiv mehr Rechenleistung hat und eine deutlich bessere Raytracing-Performance. Aber 95% der Spiele, die ich zocke, haben nicht mal Raytracing-Support. Für mich ist das Zukunftsmusik, obwohl ich es für einen halbfertigen Entwurf halte. Erst wenn wir komplett auf Pathtracing umsteigen, dann ist das aus meiner Sicht ein echter Gamechanger und eine echte Innovation.
Für professionelle Workloads werden aktuell überall auf der Welt GPUs gekauft. Das hat seine Gründe, z.B. die hochgradig parallelisierte Architektur.
Aber wenn Du Tensor Cores brauchst, brauchst Du die Shader halt nicht mehr, bzw. nur homöopathisch. Also warum solltest Du Grafikkarten dazu benutzen statt Prozessoren, die speziell dafür gemacht wurden?
Eine CPU arbeitet dagegen eher seriell. Das sieht man allein schon an der Kernzahl, was sind 64 Threads (bei einer 32 Kern Server CPU mit SMT) gegen 132 Streaming Multiprozessoren die 16.896 Shader beinhalten (H100 SXM5)?
Das ist ja am Ende völlig egal, weil der KI-Chip ja nur ein weiterer Die auf dem CPU-PCB ist - wie auch jeder andere CCX, der einfach modular hinzugefügt wird.
Die Tensor Cores dienen zur Matrix-Multiplikation wie sie beim KI Training gebraucht wird (und womit z.B. DLSS und Frame Generation beschleunigt werden). Sowas wird Intel bereits mit den kommenden Meteor Lake CPUs als VPU Einheit einführen.
Richtig, und AMD in der kommenden Generation auch. Somit haben dann beide CPU Hersteller ohnehin NPUs mit an Bord. Das heißt, jeder PC wird in Zukunft irgendwann mit oder ohne Grafikkarte immer eine NPU mit dabei haben.