SLI fällt in die Zuständigkeit der Entwickler: Keine Treiberprofile mehr von Nvidia für RTX 3090

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu SLI fällt in die Zuständigkeit der Entwickler: Keine Treiberprofile mehr von Nvidia für RTX 3090

Die Unterstützung mehrerer Grafikkarten spielt heute kaum noch eine Rolle. Nun gibt Nvidia bekannt, dass man keine SLI-Profil-Updates mehr für den Treiber bereitstellt. Der Support für SLI fällt mit der Geforce RTX 3090 in die Zuständigkeit der Entwickler - und ihrer Low-Level-API.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: SLI fällt in die Zuständigkeit der Entwickler: Keine Treiberprofile mehr von Nvidia für RTX 3090
 
Ist auch höchste Zeit, das ist für die handvoll Leute die heute noch SLI nutzen nichts als Ressourcen Verschwendung.
 
Das ist doch seit Jahren quasi tot. Ist mir schon lange ein Rätsel, warum das immernoch von Generation zu Generation mitgeschleppt wird.
 
würden sie das ganz einstellen,dann würde sie wohl Geld sparen und wohl auch alles andere Entschlacken.Ich habe es ebenso mal ausprobiert.Ich war wenig begeistert als dann zwar max Frames stiegen und im gleichen Atemzug die minumum fps weiter nach unten.Meistens liegen bei sli ja die Minimum fps an.Sodas es imemr mal wieder sein kann,das es mal spitzen nach unten gibt.Bei 0,7 fps was mir im interenen Benchmark angezeigt wurd,da musste ich dann schon schlucken.Mit ner einzelnen war ich bei 27 fps minimum gewesen.Das ist ein rießiger Fall nach unten.Mir waren die minumum wichtiger als die 20 maximalen fps nach oben.Es fühlt sich auch viel besser an mit ner einzelnen.
Wenn ich bedenke das war ein Game das Nvidia sli Optimiertes war,dann kann man schon sagen,das die anderen wo sli zwar anbieten,dann noch viel schlechter sein müssten.
Das waren fall 2 Ehemalige Highend GPUS gewesen ,der schlage von ur Titan. Mir ist es völlig schleierhaft,das Ergebnis.


Seid dem nie mehr wieder sli gehabt.Ich habe es also nur für ein Paar stunden als sli gehabt,wenn ich es genau nimm waren es so 4 Stunden.Von mir aus könnten sie sli support ganz einstellen.Bei Anwendung wird ohnhin kein sli Support benötigt,weil die es von haus aus ganz völlig ausnutzen.Wenn man es also genau nimmt,dann würde sich AMD und Nvidia einen gefallen machen ,wenn sie es somit ganz streichen würden.Nun gut,wie dem auch sei,mehr gibt es da ja eh nicht mehr darüber zu sagen.
 
für 2x3090 im sli geschweige denn triple muss ein Netzteil noch erfunden werden. ?
Na da muss man dann zwei Netzteile verwenden.Denke mal 2x 2000 Watt Netzteile dürften dafür wohl reichen.Allerdings die hohe stromrechnung die will ich dann lieber nicht sehen.Die muss wohl Höllisch sein.Hölle auf Erden.Und wohlmöglich hat man dann auch den Hass der Klima Aktifisten im Nacken.Wenn Greta das wüsste,würde sie wohl ausflippen.
 
Warum Nvidia es bis heute nicht hinbekommen hat SLI rein "hardwareseitig" zu realisieren, ist mir unklar.
Zweite Karte rein, SLI-Brücke drauf und schon gibt's fast doppelte Leistung ohne zusätzliches Treiber- und Profil-Gefummel.
R.I.P. 3Dfx...
 
Das Traurige an der ganzen Sache finde ich eher, dass NVIDIA und AMD seit Jahren keine vernünftige
Überarbeitung bzw. Neukonzeptionierung von Multi-GPU Technik im allgemeinen angegangen sind.
Sei es für professionelle Zwecke oder Gaming.

Es ist doch klar, dass sich bei derartigen Mehrkosten, das Ganze langfristig und in der Fläche
(also vielen Anwendungen) lohnen muss.

Hätten die beiden Großen Multi-GPU Technik endlich so zurecht gebogen, dass Software und Betriebssystem mehrere
GPU's wie eine einzige ansprechen könnten, also das Ganze quasi keinerlei gesonderter Optimierung bedarf, sondern die Workload Verteilung in Hardware gesteuert wird, wäre Multi-GPU längst salonfähig und hätte auch Altlasten
wie Tearing, Micro-Stuttering in die Geschichtsbücher verbannt.

Einfach ne Zweite GPU einbauen und fertig. Dass wäre sinnvolles SLi gewesen und hätte sich sicher auch für Aufrüster gelohnt - Stichwort Memory-Pooling. :daumen:

Aber so halbherzig wie man das Thema behandelt hat, musste es so kommen... :rollen:
 
Das Traurige an der ganzen Sache finde ich eher, dass NVIDIA und AMD seit Jahren keine vernünftige
Überarbeitung bzw. Neukonzeptionierung von Multi-GPU Technik im allgemeinen angegangen sind.
Sei es für professionelle Zwecke oder Gaming.

Es ist doch klar, dass sich bei derartigen Mehrkosten, das Ganze langfristig und in der Fläche
(also vielen Anwendungen) lohnen muss.

Hätten die beiden Großen Multi-GPU Technik endlich so zurecht gebogen, dass Software und Betriebssystem mehrere
GPU's wie eine einzige ansprechen könnten, also das Ganze quasi keinerlei gesonderter Optimierung bedarf, sondern die Workload Verteilung in Hardware gesteuert wird, wäre Multi-GPU längst salonfähig und hätte auch Altlasten
wie Tearing, Micro-Stuttering in die Geschichtsbücher verbannt.

Einfach ne Zweite GPU einbauen und fertig. Dass wäre sinnvolles SLi gewesen und hätte sich sicher auch für Aufrüster gelohnt - Stichwort Memory-Pooling. :daumen:

Aber so halbherzig wie man das Thema behandelt hat, musste es so kommen... :rollen:

SLI -und ich hab es häufig selbst gehabt- machte noch nie richtig Sinn für Gamer. Dann lieber eine Nummer größer. Wenn es nur annähernd die Erfolgsaussicht gäbe, dass man genug Kunden damit locken könnte, hätte es Nvidia sicher getan. Mein letztes SLI war GTX470 für Bad Company 2. Solange man bei über 120 FPS war, war es ok...aber Verbrauch und Mikroruckler waren ätzend.
 
SLI -und ich hab es häufig selbst gehabt- machte noch nie richtig Sinn für Gamer. Dann lieber eine Nummer größer. Wenn es nur annähernd die Erfolgsaussicht gäbe, dass man genug Kunden damit locken könnte, hätte es Nvidia sicher getan. Mein letztes SLI war GTX470 für Bad Company 2. Solange man bei über 120 FPS war, war es ok...aber Verbrauch und Mikroruckler waren ätzend.

Geht mir ähnlich. Und nicht vergessen - die zusätzliche Abwärme ist auch oft ein Problem...
Aber genau das ist der Knackpunkt. Multi-GPU per se ist das Ding überhaupt. Sieht man doch im HPC Bereich.
Nur da kann man es sich erlauben speziell auf hohem Niveau zu optimieren.

Im Gaming Bereich bricht gerade das, viel mehr als der Preis, Multi-GPU das Genick...
 
SLI braucht man doch auch heutzutage nicht mehr wirklich. Spätestens seit dem erscheinen der RTX 2080 Ti. Womit flüssiges 4K Gaming mit nur einer Karte möglich wurde.
SLI hatte auch mehr Nachteile als Vorteile. Es wurde nicht von jede Spiel unterstützt, Mikroruckler, höherer Stromverbrauch & Abwärme.
Das gleiche gilt für CF.
 
Das Traurige an der ganzen Sache finde ich eher, dass NVIDIA und AMD seit Jahren keine vernünftige
Überarbeitung bzw. Neukonzeptionierung von Multi-GPU Technik im allgemeinen angegangen sind.
Sei es für professionelle Zwecke oder Gaming.

Es ist doch klar, dass sich bei derartigen Mehrkosten, das Ganze langfristig und in der Fläche
(also vielen Anwendungen) lohnen muss.

Hätten die beiden Großen Multi-GPU Technik endlich so zurecht gebogen, dass Software und Betriebssystem mehrere
GPU's wie eine einzige ansprechen könnten, also das Ganze quasi keinerlei gesonderter Optimierung bedarf, sondern die Workload Verteilung in Hardware gesteuert wird, wäre Multi-GPU längst salonfähig und hätte auch Altlasten
wie Tearing, Micro-Stuttering in die Geschichtsbücher verbannt.

Einfach ne Zweite GPU einbauen und fertig. Dass wäre sinnvolles SLi gewesen und hätte sich sicher auch für Aufrüster gelohnt - Stichwort Memory-Pooling. :daumen:

Aber so halbherzig wie man das Thema behandelt hat, musste es so kommen... :rollen:
In SLI und CF ist anfangs viel Geld geronnen, aber es geht mit den aktuellen Rendertechniken nicht besser. Es geht mit EMIB oder ähnlichem vielleicht.
Was du meinst, 2 Karten als eine zu behandeln ist physikalisch nicht umsetzbar, bzw hätte massive Probleme: da du die Chips ja ständig synchronisieren musst - mit der Bandbreite des RAMs. Sag mir, welches Interface das können soll
 
man könnte es höchstens so machen das man viele kleine GPUS auf einem die drauf steckt.Das ist zwar dann kein SLI und der gleichen aber das können wohl funktionieren.Mehrere Chiplets der GPU auf einem DIe.Dadurch steigt die Fläche und man könnte die GPU besser Kühlen.Man müsste halt nur mehr GPU Ram drauf Packen.Aber selbst wenn man z.b 4 GPU je 8 gb GPU Ram,dann wären wir schon bei 32 GB GPU Ram.ALso billig würde das für uns kunden ebenfalls nicht werden.Man muss halt dann einen Gewissen Cut beim GPU Ram Takt und so machen.Ist halt die Frage ob diese GPU dann bei sowas wirklich Leistung bringt.Vielleicht ist das ja die Zukunft beim ansatz.Da wird allerdings auch keine Brücke noch anpassung ala Profile bei der GPU gebraucht.Das ist also somit möglich.Weis nicht ob es sich für Nvidia und AMD dies Wirtschaftlich lohnen wird.Wird somit also die Zukunft zeigen.
Sowas würde ich somit also begrüßen.Ich selbst brauche zwar nicht die Leistung ,ist allerdings immer gut wenn gute Hardware bei Highend vorhanden ist.Denn das drückt mit der Zeit auch die Preise der kleinen GPUS nach unten.
Und vielleicht kann man durch sowas auch stromsparende GPUS entwickleln.Was ebenso für uns Nutzer gut wäre,weil dann weniger Stromverbrauch ,weniger Notwendig machende Netzteile usw.
Nun das wird somit die Zukunft zeigen wie es da so weiter gehen wird.Lassen wir uns einfach hierbei überraschen.
 
In SLI und CF ist anfangs viel Geld geronnen, aber es geht mit den aktuellen Rendertechniken nicht besser. Es geht mit EMIB oder ähnlichem vielleicht.
Was du meinst, 2 Karten als eine zu behandeln ist physikalisch nicht umsetzbar, bzw hätte massive Probleme: da du die Chips ja ständig synchronisieren musst - mit der Bandbreite des RAMs. Sag mir, welches Interface das können soll
Nun ich bin sicher kein Experte und das gilt wohl für die Meisten, aber NVLink war ja schon mal n' guter Anfang.
Und Memory-pooling gibt es im HPC bereich bei Nvidia ja auch. Und auch die neueren Quadros können das, nur kranken die an ähnlichen Problemen wie im Consumer Bereich.

Ich behaupte ja auch nicht dass es "einfach" ist. Das ist Technik auf diesem Niveau nie.
Aber mal abgesehen von der technischen Umsetzung - hätte sli das gebracht was man sich erhoffen würde also
70-90% mehr Leistung, keine Verschlechterung bei den Frametimes, kein Software seitiger
Optimierungs Zwang und obendrauf noch Memory-pooling dann hätte SLI sicherlich ne' Marktdurchdringung von 30% aufwärts. Insbesondere da es dann für Aufrüster interessant wäre.

Aber im Grunde ist es bei CPU's auch nicht anders. Da muss auch Software seitig auf X Threads optimiert werden, um die Rechenleistung auch nur annähernd zu nutzen. Und das Spiel funktioniert auch nur weil
heute in jedem PC ne' Multicore CPU steckt. Und trotzdem skaliert nicht jede Anwendung optimal... Oft eben wegen mangelnder Optimierung.

Nachtrag: NVLink 3.0 hat ne' Transferleistung von 600GiB/s. Damit kann man schon was anfangen.
Und die Profikarten haben oft 2 davon...

Nur so als Einwurf. Meine Idee zu Multi-GPU Technik wäre in diesem Fall folgende:
Jede GPU muss ja im Grunde eine Logikschaltung haben die die Arbeitslast der Software verteilt. Hier auf Cuda-Cores da auf RT Cores da auf Tensor Cores... Diese hätte man sicherlich Flexibler gestalten können, dass sie im Fall von Multi-GPU miteinander Koppelbar wäre. Oder salopp die Logik von GPU 1# die Steuerung von GPU 2# deaktiviert und die kontrolle der Recheneinheiten von GPU 2# übernimmt, als wären sie auf der selben GPU.

Würde das funktionieren? Keine Ahnung. So einfach wird's sicherlich nicht sein, insbesondere nicht so schnell.
Aber das macht ja die grundlegende Idee nicht weniger nachvollziehbar.
Multi CPU Systeme sind ja auch nicht per se Langsamer als Systeme mit einer Multi-Core CPU.

Aber solange kein Hersteller das Thema grundsätzlich angeht und stattdessen einfach so weitermacht wie bisher, wird sich ja auch nichts ändern. Und das Ergebnis haben wir jetzt endgültig auf der Hand - eine gute Idee völlig vernachlässigt und zum Tode verurteilt.
 
Zuletzt bearbeitet:
Nun ich bin sicher kein Experte und das gilt wohl für die Meisten, aber NVLink war ja schon mal n' guter Anfang.
Und Memory-pooling gibt es im HPC bereich bei Nvidia ja auch. Und auch die neueren Quadros können das, nur kranken die an ähnlichen Problemen wie im Consumer Bereich.

Ich behaupte ja auch nicht dass es "einfach" ist. Das ist Technik auf diesem Niveau nie.
Aber mal abgesehen von der technischen Umsetzung - hätte sli das gebracht was man sich erhoffen würde also
70-90% mehr Leistung, keine Verschlechterung bei den Frametimes, kein Software seitiger
Optimierungs Zwang und obendrauf noch Memory-pooling dann hätte SLI sicherlich ne' Marktdurchdringung von 30% aufwärts. Insbesondere da es dann für Aufrüster interessant wäre.

Aber im Grunde ist es bei CPU's auch nicht anders. Da muss auch Software seitig auf X Threads optimiert werden, um die Rechenleistung auch nur annähernd zu nutzen. Und das Spiel funktioniert auch nur weil
heute in jedem PC ne' Multicore CPU steckt. Und trotzdem skaliert nicht jede Anwendung optimal... Oft eben wegen mangelnder Optimierung.

Nachtrag: NVLink 3.0 hat ne' Transferleistung von 600GiB/s. Damit kann man schon was anfangen.
Und die Profikarten haben oft 2 davon...

Nur so als Einwurf. Meine Idee zu Multi-GPU Technik wäre in diesem Fall folgende:
Jede GPU muss ja im Grunde eine Logikschaltung haben die die Arbeitslast der Software verteilt. Hier auf Cuda-Cores da auf RT Cores da auf Tensor Cores... Diese hätte man sicherlich Flexibler gestalten können, dass sie im Fall von Multi-GPU miteinander Koppelbar wäre. Oder salopp die Logik von GPU 1# die Steuerung von GPU 2# deaktiviert und die kontrolle der Recheneinheiten von GPU 2# übernimmt, als wären sie auf der selben GPU.

Würde das funktionieren? Keine Ahnung. So einfach wird's sicherlich nicht sein, insbesondere nicht so schnell.
Aber das macht ja die grundlegende Idee nicht weniger nachvollziehbar.
Multi CPU Systeme sind ja auch nicht per se Langsamer als Systeme mit einer Multi-Core CPU.

Aber solange kein Hersteller das Thema grundsätzlich angeht und stattdessen einfach so weitermacht wie bisher, wird sich ja auch nichts ändern. Und das Ergebnis haben wir jetzt endgültig auf der Hand - eine gute Idee völlig vernachlässigt und zum Tode verurteilt.

CDNA2 soll einen neuen Multi GPU Ansatz bringen. Soll angeblich auch mit RDNA3 kommen. Mal schauen...
 
Nun ich bin sicher kein Experte und das gilt wohl für die Meisten, aber NVLink war ja schon mal n' guter Anfang.
Und Memory-pooling gibt es im HPC bereich bei Nvidia ja auch. Und auch die neueren Quadros können das, nur kranken die an ähnlichen Problemen wie im Consumer Bereich.

Ich behaupte ja auch nicht dass es "einfach" ist. Das ist Technik auf diesem Niveau nie.
Aber mal abgesehen von der technischen Umsetzung - hätte sli das gebracht was man sich erhoffen würde also
70-90% mehr Leistung, keine Verschlechterung bei den Frametimes, kein Software seitiger
Optimierungs Zwang und obendrauf noch Memory-pooling dann hätte SLI sicherlich ne' Marktdurchdringung von 30% aufwärts. Insbesondere da es dann für Aufrüster interessant wäre.
Ja das ist schon richtig, aber die ganze Rendertechnik hat sich seit 3dfx weiterentwickelt. Damals ist es recht einfach gewesen die Leistung dank SLI zu verdoppeln indem einfach jeder Grafikchip abwechselnd eine Bildschirmzeile berechnet hat. Aber das geht mit modernen Rendertechniken nicht und im Prinzip müsste immer jede der zugesteckten GPUs wissen, was im RAM der anderen ist - damit müsste also mit der Bandbreite des Speichers zwischen den Grafikchips kommuniziert werden. Wenn du dir die Bandbreite von PCI Express ansiehst, weißt du, dass du da nicht hinkommst. Und auch nicht von der Latenz her. HPC ist ganz was anderes.
Aber im Grunde ist es bei CPU's auch nicht anders. Da muss auch Software seitig auf X Threads optimiert werden, um die Rechenleistung auch nur annähernd zu nutzen. Und das Spiel funktioniert auch nur weil
heute in jedem PC ne' Multicore CPU steckt. Und trotzdem skaliert nicht jede Anwendung optimal... Oft eben wegen mangelnder Optimierung.
ja auch, wobei es enorm schwierig ist manche Tasks zu parallelisieren, nicht so bei Grafikberechnung. Das ist hübsch simpel und parallelisierbar, deshalb haben wir Grafikprozessoren mit 10.000 Ausführungseinheiten.

Letztlich wird es aber natürlich wieder Multi-GPUs geben - aber diese sind dann auf einem Substrat - ähnlich bei High IO RAM (HBM etwa) stattfinden. TSMC hat ja hier bereits die nächste Generation angekündigt ( https://www.anandtech.com/show/16036/2023-interposers-tsmc-hints-at-2000mm2-12x-hbm-in-one-package ), Intel hat EMIB.
 
Zurück