SLI fällt in die Zuständigkeit der Entwickler: Keine Treiberprofile mehr von Nvidia für RTX 3090

SLI braucht man doch auch heutzutage nicht mehr wirklich. Spätestens seit dem erscheinen der RTX 2080 Ti.
Womit flüssiges 4K Gaming mit nur einer Karte möglich wurde.

naja
Was ähnliches hatte man damals bei der GTX 8800 Ultra gesagt und denoch gab es Leute die das mal im SLI getestet hatten :banane:.
Auch wird es "flüssiges Gaming" nie als feste Zahl geben.
Was früher mal 30 FPS waren wurden 60, 120 und nun 165 (oder mehr?) => kommt darauf an wen man fragt.
Auch sind 4K nicht mehr der Wunsch aller Träume sondern mehr => wie eben bei den FPS.
Eine Karte hat natürlich den Vorteil das es keine MR gibt aber von Stromverbrauch, Wärme und oder ggf. Lautstärke ist man mit der RTX 3090 auch nicht weit entfernt wie früher mit zwei Karten.
 
für 2x3090 im sli geschweige denn triple muss ein Netzteil noch erfunden werden. ?
Ach was, dafür gibt es dann bestimmt ein "Supernova Ampere Nvidia Edition" mit 3KW :D


Wenn Putin noch ne Strompipeline legt ja. Stromstream 1. ;););)
Dann noch mit einer dann nötigen Getränkeversorgung inkludiert (im heißen Sommer..im dann noch heißeren Zimmer.
Also mit einer Sodastream Getränkeversorgung. :D
 
Ja das ist schon richtig, aber die ganze Rendertechnik hat sich seit 3dfx weiterentwickelt. Damals ist es recht einfach gewesen die Leistung dank SLI zu verdoppeln indem einfach jeder Grafikchip abwechselnd eine Bildschirmzeile berechnet hat. Aber das geht mit modernen Rendertechniken nicht und im Prinzip müsste immer jede der zugesteckten GPUs wissen, was im RAM der anderen ist - damit müsste also mit der Bandbreite des Speichers zwischen den Grafikchips kommuniziert werden. Wenn du dir die Bandbreite von PCI Express ansiehst, weißt du, dass du da nicht hinkommst. Und auch nicht von der Latenz her. HPC ist ganz was anderes.

ja auch, wobei es enorm schwierig ist manche Tasks zu parallelisieren, nicht so bei Grafikberechnung. Das ist hübsch simpel und parallelisierbar, deshalb haben wir Grafikprozessoren mit 10.000 Ausführungseinheiten.

Letztlich wird es aber natürlich wieder Multi-GPUs geben - aber diese sind dann auf einem Substrat - ähnlich bei High IO RAM (HBM etwa) stattfinden. TSMC hat ja hier bereits die nächste Generation angekündigt ( https://www.anandtech.com/show/16036/2023-interposers-tsmc-hints-at-2000mm2-12x-hbm-in-one-package ), Intel hat EMIB.
Nun im Grunde liegt ja auch hier in der Hund begraben - im grundsätzlichen Aufbau von Multi-GPU Systemen.
Man versucht es seit Jahren in dem man 2 separate GPU's quasi dazu bringt synchronisiert abwechselnd zu rendern.
Und das ist kompliziert, macht viel Aufwand und endet trotzdem in Problemen wie Microruckeln.

Mein Ansatz wäre ähnlich wie bei RAID, (obwohl das natürlich nur bedingt vergleichbar ist)
dass man egal wie viele GPU's nun im System sind, man diese in Hardware von einer einer Logik steuern lässt, die meinetwegen auf GPU 1# sitzt und diese dann die Funktionseinheiten der anderen GPU's direkt steuert und die Arbeitslast verteilt.
Eine Andere Möglichkeit wäre diese Logiken so zu konstruieren dass sie zusammen wie eine einzige Arbeiten und auch als eine adressiert werden.
So würde dem System im Idealfall nur eine GPU präsentiert die durch die Koppelung einfach mehr Funktionseinheiten und Speicher an das System meldet.
Sicher mag es hier technisch riesige Hürden geben, gar kein Zweifel, aber man spart sich sämtliche nachfolgende Softwareoptimierung die üblicherweise anfällt und umgeht so quasi alle heute gängigen Probleme, die Multi-GPU Systeme unattraktiv machen - abgesehen vom Preis natürlich.
 
Zurück