DragonX1979
Software-Overclocker(in)
Du würdest also 700€ mehr für potentiell die gleiche Leistung bezahlen? Interessant.Natürlich B.
Bei den Stromverbrauch will man sich doch keine 2 einbauen, die auch noch gekühlt werden müssen
Du würdest also 700€ mehr für potentiell die gleiche Leistung bezahlen? Interessant.Natürlich B.
Bei den Stromverbrauch will man sich doch keine 2 einbauen, die auch noch gekühlt werden müssen
Ich rechne eher mit einer 4070 die ohne RT etwa so schnell ist wie eine 3080. Mit RT wird es wohl irgendwo bei der 3080 Ti sein, aber noch vor der 3090. Also genau zwischen den 1-2 FPS welche die Karten unterscheiden. nvidia kann sowas ja ganz gut. 549€ sind wohl mindestens fällig und wer es nicht schafft zur UVP vorzubestellen darf 800-900€ bezahlen.Für mich hört sich das realistisch an. 499 -> 549€ wäre immerhin eine Preiserhöhung von 10%. Bei der Leistung sollte die 4070 etwa auf 3090 Niveau sein, wenn man die ganzen Meldungen und Informationen nüchtern betrachtet. Die UVPs werden aber sicherlich auch daran hängen, wie die Nachfrage in den nächsten Monaten ist. Hoffentlich gehts wieder mehr zu einem Preiskampf zwischen den 3 Herstellern.
Das Problem löst sich bald von allein sobald die ersten Chiplet basierten GPUs kommen. Klassisches Multi-GPU ist tot und wird es auch bleiben, inzwischen haben wir einfach das Henne-Ei-Problem. Es ist keinerlei Basis mehr vorhanden und so macht sich auch kein Entwickler mehr die zusätzliche Arbeit mGPU ins eigene Spiel zu integrieren.Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet AFR...
Ich werde auch auf die RTX 4090 gehen, weil ich einfach mehr Leistung möchte für 4K/High FPS Gaming. Ich bezweifle aber dennoch, dass die Karte schnell genug sein wird uns 100+ FPS in 4K in ALLEN Titeln zu liefern, selbst mit DLSS.Ich brauche genug Leistung, das ich nicht ins GPU Limit stoße bzw bis ich etwa 120FPS in 4k in allen Titeln mit maximalen Einstellungen erreiche.
Erzähl das nem Pro-Sumer oder Profi der ansonsten ~4600€ bzw. ~10.000€ für 2 A5000/A6000 hinlegen müsste...
NVLink spielt keine Rolle auf dem Gaming-Hardware Markt, richtig.
Aber daran ist doch die Spieleindustrie genauso, schuld wie Nvidia selbst. (Danke übrigens an der Stelle )
Zudem sollte man eines nicht vergessen: Einen halbwegs modernen PC und ein halbwegs modernes Spiel vorrausgesetzt (DX12/Vulkan), sind die Hürden für Multi-GPU so niedrig wie nie zuvor... Also bei quasi null.
Und von da zu NVLink ist es kaum mehr als ein Katzensprung.
Einzig die Unterstützung der Spieleindustrie fehlt - Thats it.
Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet Afrika...
Das es diesbezüglich keine oder unzureichende Forschung und Entwicklung gibt, kann man auch nicht sagen.Erzähl das nem Pro-Sumer oder Profi der ansonsten ~4600€ bzw. ~10.000€ für 2 A5000/A6000 hinlegen müsste...
NVLink spielt keine Rolle auf dem Gaming-Hardware Markt, richtig.
Aber daran ist doch die Spieleindustrie genauso, schuld wie Nvidia selbst. (Danke übrigens an der Stelle )
Zudem sollte man eines nicht vergessen: Einen halbwegs modernen PC und ein halbwegs modernes Spiel vorrausgesetzt (DX12/Vulkan), sind die Hürden für Multi-GPU so niedrig wie nie zuvor... Also bei quasi null.
Und von da zu NVLink ist es kaum mehr als ein Katzensprung.
Einzig die Unterstützung der Spieleindustrie fehlt - Thats it.
Sicherlich kann man lange über die fehlende Forschung diskutieren. Und ob SLI/NVLink generell sinn macht solange man Probleme wie Mirkoruckeln nicht in den Griff bekommt, aber das ist kein Problem das es erst seit gestern gibt.
Da hätte man ruhig etwas mehr in die Forschung der Techniken an sich stecken können. Schließlich gibt es wesentlich mehr Ansätze als ausgerechnet AFR...
Kleiner Nachtrag:
Nehmen wir mal folgende Situation an. NVIDIA, AMD, Intel, Microsoft und einige Engine Enwickler hätten sich zusammengesetzt und neue Effiziente MGPU Techniken erforscht, die frei von Mikroruckeln ect sind. Und würden sagen wir mal eine Effektivität von 80-90% erreichen mit einer Marktabdeckung bei Spielen von 70-80%.
Was würdest du beim Aufrüsten eher tun?
A: Zu deiner bestehenden GPU eine "4080" für 800€ dazu stecken, um dann 10-20% Mehrleistung zu haben als die "4080" alleine.
oder B: Eine "4090" für 1500€ kaufen die 15% schneller ist als eine "4080"?
Also das sehe ich etwas anders, die Verbreitung von potentiell Multi-GPU fähigen GPUs dürfte sich sicherlichDas Problem löst sich bald von allein sobald die ersten Chiplet basierten GPUs kommen. Klassisches Multi-GPU ist tot und wird es auch bleiben, inzwischen haben wir einfach das Henne-Ei-Problem. Es ist keinerlei Basis mehr vorhanden und so macht sich auch kein Entwickler mehr die zusätzliche Arbeit mGPU ins eigene Spiel zu integrieren.
Dann halt mit der abwärmeMit dem Thema "Stomverbrauch" brauch mir ehrlich gesagt auch keiner als Gegenargument ankommen,
angesichts von drohenden 600W GPU's...
Na ja, das ist dann son' Ding... 2 GPU's haben auch 2 Kühler...Dann halt mit der abwärme
Die nichts an der Abwärme im Gehäuse ändert, die muss ja abgeführt werden, und dann hat man sie in der Bude.2 GPU's haben auch 2 Kühler...
Ähm im Multi Chip Design sind beide Chips auf dem selben Substrat wie ein Ryzen. Da ist nix mit 2 Kühlern.Na ja, das ist dann son' Ding... 2 GPU's haben auch 2 Kühler...
An dem Verhältnis von Leistungsbedarf zu Abwärme zu nutzbarer Leistung kann auch M-GPU nichts ändern...
Aber alleine als valide Aufrüstoption, hätte es schon eine Daseinsberechtigung...
Aber das setzt eben voraus, dass M-GPU ohne die allseits bekannten Problemkinder daherkommt.
Ja das ist wohl war... Scheint aber Nvidia, Amd und Intel recht wenig zu interessieren oder?Die nichts an der Abwärme im Gehäuse ändert, die muss ja abgeführt werden, und dann hat man sie in der Bude.
Das kann ekelhaft für einen selbst werden
Ist schon klar, für die Hersteller bringt MCD natürlich Kostenersparnis und Skalierbarkeit.Ähm im Multi Chip Design sind beide Chips auf dem selben Substrat wie ein Ryzen. Da ist nix mit 2 Kühlern.
Es geht darum 2 kleinere Chips zu kombinieren um die Leistung eines Großen zu bekommen, weil 2 kleinere billiger zu produzieren sind. Tatsächlich hat das ganze nichts mit Effizienz zu tun.
Ich hatte mal eine Karte mit 2 GPUs, die GTX 690. Damals war ich noch unerfahren....Das Ding hatte 1 Lüfter für 300W Gesamtleistung im 2-Slot Design...ja... Und SLI wurde sehr schlecht unterstützt.
MCM ist ja anders als SLI, da man nichts brücken muss. So sollte die auch als eine GPU vom PC erkannt werden.
Derzeit, wenn du Effizienz willst...musst du dich selber drum kümmern...mit UV...
Zu Chiplets: natürlich hat das gravierende Vorteile, auch für den Endkunden. Die 'unsanften' frametimes der antiquierten MGPU Lösungen sind a) ein Thema der fehlende Bandbreite und hohen Latenz zwischen den Chips die dann b) zu schlecht abgestimmter, asynchroner Bildausgabe führen. Chiplets auf einem PCB verkürzen die Signalwege massiv, erhöhen die Bandbreite und erhöhen vor allem die kühlbare Fläche. Ich bin sehr gespannt, was AMD im High-End zeigen wird.Und was Chiplets angeht, die sind nur für die Hersteller gut... Ich sehe da ehrlich gesagt keinen Praxis relevanten
Vorteil für uns als Kunden...
Zudem bin ich mir fast sicher dass z.B. Nvidias Erfahrung im Berich AI hier durchaus einiges beitragen könnte...
DLSS & Co sind hier natürlich nette Features, wenn sie aber durch die Bank am Ende für schlechtere Bildqualität sorgen, sehe ich hier ehrlich gesagt auch wenig Sinn mit höheren Auflösungen die Kundschaft für Blöd zu verkaufen...
Was bringt mir denn der Hype um 4K und 8K wenn am ende überall Temporale Artefakte herumgeistern...
DLSS & Co sind gut als "Notlösung" wenn man schlicht nicht genug Leistung zur Verfügung hat, und FPS
wichtiger sind als Bildqualität. Aber abseits davon, sind z.B. aktuelle AA Techniken ein Graus...
Gott wie ich die Zeiten von SSAA vermisse...
Da gebe ich dir recht ^^Scheint aber Nvidia, Amd und Intel recht wenig zu interessieren oder?
Das mag vielleicht ein Vorteil gegenüber Klassischem MGPU (SLI) sein, aber sicher nicht gegenüber Monolithischen chips... Wie gesagt, MCD bringt hier nur Vorteile für die Produzenten...Zu Chiplets: natürlich hat das gravierende Vorteile, auch für den Endkunden. Die 'unsanften' frametimes der antiquierten MGPU Lösungen sind a) ein Thema der fehlende Bandbreite und hohen Latenz zwischen den Chips die dann b) zu schlecht abgestimmter, asynchroner Bildausgabe führen. Chiplets auf einem PCB verkürzen die Signalwege massiv, erhöhen die Bandbreite und erhöhen vor allem die kühlbare Fläche. Ich bin sehr gespannt, was AMD im High-End zeigen wird.
Zu DLSS bin ich restlos anderer Meinung. Ab DLSS 2.0 ist es technisch absolut möglich wunderschöne Bilder bei reduzierter Compute-Anforderung auszugeben. Manche Engines und Implementationen sind besser als andere, nichtsdestotrotz halte ich den Weg über neuronale Netzwerke für extrem intelligent und auch tatsächlich effizient.
Also das sehe ich etwas anders, die Verbreitung von potentiell Multi-GPU fähigen GPUs dürfte sich sicherlich
im Bereich von 80-90% Marktanteil bewegen...
Multi-GPU Technik ist so fortgeschritten wie noch nie, hat so viel Leistung wie noch nie und ist quasi universell einsetzbar. Ob man also nun zwei RTX 3080 zusammen einsetzt oder eine RX 5800XT und eine RTX 3070Ti oder
zwei RTX 3090 mit zusätzlichen NVLink Features nutzt... Sofern das Spiel/Software eine entsprechend moderne API nutzt, ist das alles kein Problem mehr.
Ich finde es echt interessant dass hier M-GPU mit MCD verglichen wird... Was genau haben denn diese Techniken miteinander zu tun?Um Multi-GPU-Designs bzgl. Gaming kümmert sich aktuell quasi kein SW-Entwickler mehr und das Thema war eigentlich schon längere Zeit eingemottet und scheint mit den aufkommenden Multi-Chip-GPUs nun auch entgültig tot zu sein.
Beispielsweise verfügt DirectX über drei Multi-Adapter-Modi, die jedoch alle die explizite Unterstützung des SW-Entwicklers benötigen. Und der am einfachsten zu implementierende Modus implementiert nur ein Alternate Frame Rendering und schränkt den SW-Entwickler beträchtlich ein. Die zusätzlichen beiden Explicit-Multi-Adapter-Modi fordern noch mehr direktere und umfangreichere Implementation seitens der SW-Entwickler. Darauf und weil der Marktanteil irrelevant gering ist, wird sich keiner mehr stützen wollen und so verlässt man sich nun darauf, dass die Hardware selbst besser skaliert, indem die Hersteller noch größere, leistungsfähigere "Chips" abliefern.
Multi-Chip-Modules, Chiplets, Tiles, wie auch immer, haben durchaus gesamtwirtschaftlich einen Mehrwert, denn der Markt fortdert unabhängig von den bisher schon erzielten Leistungswerten eine immer noch höhere, weiter ansteigende Leistung.
Ein Hersteller wie nVidia kann mit seinem sehr hohen Marktanteil es sich (vorerst) noch halbwegs leisten extrem große Chips nahe des Reticle-Limits zu fertigen. Für einen kleineren Hersteller wie AMD gilt das jedoch nicht *), d. h. die sind rein wirtschaftlich auf eine derartige Fertigungsanpassung früher angewiesen. AMD hat nicht umsonst so lange darauf verzichten müssen im GPU-HighEnd mitzuspielen. Mit ihrem Chiplet-Ansatz können sie mit nVidia konkurrieren, die bspw. das Geld hatten um bei TSMC einen moderneren Node zu buchen und dadurch potentiell schon einen Vorteil haben (wenn sich der N4 auch für die Lovelace-Top-GPUs bewahrheiten sollte).
Darüber hinaus wird der Bedarf für noch mehr Grafikleistung absehbar ungebrochen anhalten und die Reticle-Größe wird sich mit High-NA bereits in wenigen Jahren halbieren, d. h. die ohne (kosten)aufwändige Tricks belichtbare Chipgröße wird sich halbieren auf nur noch knapp über 400 mm2. Die steigende Transistordichte kommt da mit den Anforderungen nicht schnell genug mit, sodass man um Multi-Chip-Designs für noch mehr Leistung nicht herumkommen wird. **)
*) Und auch Intel, die natürlicherweise als Newcomer erst mal mit einem kleineren GPU-Volumen starten, ergibt sich ebenso die Notwendigkeit für eine konstengünstigere und damit effizientere und konkurrenzfähigere Fertigung, sodass auch Battlemage als 2nd Gen Xe bereits als MCM erscheinen wird. (Konkret geht man davon aus, dass das gar schon für Alchemist vorgesehen war, dann aber auf die nächste Iteration verschoben wurde.) Zumal Intel auch anfänglich mit einem sehr attraktiven Preis aufwarten muss um erste Marktanteile gewinnen zu können, was noch mehr Druck auf eine effiziente Fertigung legt.
**) Spätestens wenn einer der großen Fertiger seine Fertigung derart zu optimieren beginnt, wird der Rest des Marktes schrittweise nachziehen müssen, da man ansonsten wirtschaftlich nicht langfristig konkurrenzfähig bleiben kann.
Intels Xe ist schon von langer Hand grundsätzlich auf die Verwendung mehrere Chips ausgelegt und auch nVidia demonstrierte schon in 2019, dass die an derartigen Designs arbeiten, damals noch für ein Datacenter-Design skizziert. In der aktuellen Iteration (Hopper sowie auch Lovelace) scheint man gesamtwirtschaftlich jedoch wohl noch der Meinung zu sein, dass man noch mit einem einfacher zu fertigenden, monolithischen Design konkurrenzfähig sein kann und man wird abwarten müssen, was mit der NextGen in 2024 kommen wird. Absehbar wird dann aber auch nVidia im Consumer-HighEnd als MCM fertigen.
Somit können am Ende alle Hersteller dem Marktverlangen nach noch mehr Grafikleistung besser nachkommen, als wenn sie sich rein auf die Fortschritte in der Lithografie alleine verlassen würden.
Bei Ampere hat nur noch die 3090 NVLink Support, bei Turing nur ab der 2080 aufwärts. Ohne NVLink kein SLI und somit kein Multi-GPU. Bei RDNA1 und 2 ist Crossfire schon lange kein Thema mehr, es gibt null Treibersupport dafür.
Multi-GPU ist tot, da kannst du hier diskutieren wie du willst.
Weil ein sehr sehr großer Aufwand das vernünftig zum laufen zu bringen und zu supporten einer winzigen Zielgruppe gegenübersteht.Niemand bezweifelt das Multi-GPU beim Gaming Quasi tot ist... Die Frage ist doch aber warum?