News Geforce RTX 4090: Wie viel Leistung verliert das Flaggschiff als externe GPU?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4090: Wie viel Leistung verliert das Flaggschiff als externe GPU?

Nvidias Geforce RTX 4090 ist die aktuell schnellste Gaming-Grafikkarte der Welt. Sie wird sogar von vielen aktuellen Desktop-Prozessoren ausgebremst und kann auch in höchsten Auflösungen ordentlich performen. Lesen Sie im Folgenden, was passiert, wenn man eine Geforce RTX 4090 in ein externes Gehäuse steckt und sie per Thunderbolt mit einem Laptop verbindet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4090: Wie viel Leistung verliert das Flaggschiff als externe GPU?
 
Hier, wers genau wissen will.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wäre für mich ein No Go eine 4090 extern an nen Notebook zu hängen.
Wer das macht legt sich auch früh ne SSD auf die Bemme.
 
CPU-Limit und Bandbreitenlimit, ist doch klar. Aber selbst 20% langsamer, sollte sie schneller sein als die 4090 Mobile...
Edit: Ich würde trotzdem eine 4090 Mobile bevorzugen.
 
Zuletzt bearbeitet:
Hier, wers genau wissen will.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wäre für mich ein No Go eine 4090 extern an nen Notebook zu hängen.
Wer das macht legt sich auch früh ne SSD auf die Bemme.

Er hat 2 Laptops getestet und gezeigt, wie schlimm es ist, wenn die Laptops langsames Thunderbolt haben.
Lustigerweise zeigt er einen Slide bei dem Thunderbolt 40GB/s hat bzw 20up/20down. Aber gleichzeitig haben seine Laptops kaum ein Zehntel also ~2,3Gb/s gehabt.
Das Video zeigt also nur auf, das man einen Laptop mit voller Thunderbolt-Leitung haben sollte, bevor man sich sowas wie ein Enclosure baut....
Nein wird sie nicht sein.
Nicht im Zusammenhang wie in dem Video. Gäbe es kein PCI-E Bandbreitenlimit, wäre die 4090 schneller asl eine 4090 Mobile.
 
Gut das ist logisch, es gibt aber nun mal eben dieses Limit und es gibt auch Titel wo das voll durchschlägt. WatchDogs oder AC kannst du mit einer eGPU vergessen z.B.
Hier ist ein Video von GN mit PCIe 3.0 vs 4.0 mit einer 4090:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Er hat auch mit einem Speziellen Programm die PCIe Leitung getestet und kam bei 4.0 auf ~25,3GB/s und bei 3.0 auf etwa die Hälfte, mit 13GB/s.
Gleichzeitig hat in seinen Test die 4090 nur ca 1-2% in vielen Spielen und maximal ca 15% in anderen mit PCIe 3.0 verloren.
PCIe 3.0 hat aber ca 16GB/s. Thunderbolt 4 soll laut Spec mind 32Gbit/s (im Wiki) haben, das wären 4GB/s.
Wobei das sind Gbit bei Thunderbolt und nicht GB, da habe ich mich von dem Video Jarrod Tech veräppeln lassen: beim Slide von Intel steht GB und nicht Gbit.
Selbst wenn Thunderbolt 5 mit der doppelten Bandbreite rauskommt, sind es immernoch die Hälfte von PCIe 3.0.
Wenn aber alles so läuft, wie es im Intel Slide steht und 120GBit/s durchkommt, dann könnte man mit quasi vollen PCIe 3.0 zocken...WENN... Jarrod Tech zeigt wenigstens, das nicht immer das durchgeht was soll...

Also ja hast eigentlich recht Gurdi. :D
 
Hier ist ein Video von GN mit PCIe 3.0 vs 4.0 mit einer 4090:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Er hat auch mit einem Speziellen Programm die PCIe Leitung getestet und kam bei 4.0 auf ~25,3GB/s und bei 3.0 auf etwa die Hälfte, mit 13GB/s.
Gleichzeitig hat in seinen Test die 4090 nur ca 1-2% in vielen Spielen und maximal ca 15% in anderen mit PCIe 3.0 verloren.
PCIe 3.0 hat aber ca 16GB/s. Thunderbolt 4 soll laut Spec mind 32Gbit/s (im Wiki) haben, das wären 4GB/s.
Wobei das sind Gbit bei Thunderbolt und nicht GB, da habe ich mich von dem Video Jarrod Tech veräppeln lassen: beim Slide von Intel steht GB und nicht Gbit.
Selbst wenn Thunderbolt 5 mit der doppelten Bandbreite rauskommt, sind es immernoch die Hälfte von PCIe 3.0.
Wenn aber alles so läuft, wie es im Intel Slide steht und 120GBit/s durchkommt, dann könnte man mit quasi vollen PCIe 3.0 zocken...WENN... Jarrod Tech zeigt wenigstens, das nicht immer das durchgeht was soll...

Also ja hast eigentlich recht Gurdi. :D
Ich habs selbst ausführlich getestet. Zu dem Thema Bandbreite kommt auch noch das Thema Latenz.
Dann unterscheiden sich die Ergebnisse der GPU Hersteller bzw. der Treiber teils nochmals signifikant usw.
TB3 ist z.B. im Vollausbau genauso schnell wie TB4. TB4 hat aber bessere Latenzen.

 
Im Prinzip hat sich seit der 8800GTX nur wenig geändert. Damals waren 20-30% Leistungsverlust an einem USB 3.0 Gehäuse zu messen. Wie damals brauchte man auch möglichst viel VRAM, um die Verluste klein zu halten. Mit einer RTX 3070Ti könnte es nochmal etwas schlechter sein.

Edit: Ich würde trotzdem eine 4090 Mobile bevorzugen.

Kommt halt eben immer auf die Ansprüche und die Kosten an. Ich habe irgendwie das Gefühl, dass einen Nvidia für die 4090M ähnlich stark zur Kasse bitten wird oder das ganze sogar noch teurer ist.

Nein wird sie nicht sein.

Die RTX 4090M soll angeblich so schnell sein, wie die RTX 3090 (respektable Leistung). Im Test von PCGH (alle Auflösungen) ist die RTX 4090 1,6x mal so schnell, in 4K sogar 1,7x. Selbst 1,6 x 0,8 ergibt 1,28. Sie ist also deutlich schneller.

Gut das ist logisch, es gibt aber nun mal eben dieses Limit und es gibt auch Titel wo das voll durchschlägt. WatchDogs oder AC kannst du mit einer eGPU vergessen z.B.

Das stimmt einfach nicht.

Beide Spiele funktionieren auf meiner uralten GTX 1060, sie werden hervorragend auf einer Karte, die schneller als eine RTX 3090 ist, laufen.

PS: du hast es doch selbst getestet.
 
Zuletzt bearbeitet:
Im Prinzip hat sich seit der 8800GTX nur wenig geändert. Damals waren 20-30% Leistungsverlust an einem USB 3.0 Gehäuse zu messen. Wie damals brauchte man auch möglichst viel VRAM, um die Verluste klein zu halten. Mit einer RTX 3070Ti könnte es nochmal etwas schlechter sein.



Kommt halt eben immer auf die Ansprüche und die Kosten an. Ich habe irgendwie das Gefühl, dass einen Nvidia für die 4090M ähnlich stark zur Kasse bitten wird oder das ganze sogar noch teurer ist.



Die RTX 4090M soll angeblich so schnell sein, wie die RTX 3090 (respektable Leistung). Im Test von PCGH (alle Auflösungen) ist die RTX 4090 1,6x mal so schnell, in 4K sogar 1,7x. Selbst 1,6 x 0,8 ergibt 1,28. Sie ist also deutlich schneller.



Das stimmt einfach nicht.

Beide Spiele funktionieren auf meiner uralten GTX 1060, sie werden hervorragend auf einer Karte, die schneller als eine RTX 3090 ist, laufen.

PS: du hast es doch selbst getestet.
Lesen: Denken: Schreiben
 
Es geht hier um EGPU! an Thunderbolt.

Ja, weiß ich, denn ich lese die Artikel üblicherweise, bevor ich kommentiere.

Aber wie schon gesagt: wenn du nichts sinnvolles zu Sagen hast, dann lass es einfach. Wenn du keine sinnvolle Diskussion führen kannst, dann lass es.
 
Zuletzt bearbeitet:
Interrssant wäre zu wissen welches netzteil man benötigt wenn sie so langsam läuft. Meine verbraucht 340w max. Müsste auch ein 400w netzteil reichen. Natürlich wirds mit denn anschlüssen schwer aber wäre interessant. Vorallem uv mit pt optimierung ist man max bei 300w und verliert vl 10%
 
Interrssant wäre zu wissen welches netzteil man benötigt wenn sie so langsam läuft. Meine verbraucht 340w max. Müsste auch ein 400w netzteil reichen. Natürlich wirds mit denn anschlüssen schwer aber wäre interessant. Vorallem uv mit pt optimierung ist man max bei 300w und verliert vl 10%
Die Rechnung geht nicht auf. Schon das Anschalten von so nem Monster erzeugt eine Initallast die das Netzteil stemmen muss, von Powerpeaks ganz abgesehen. Zudem hängt in nem eGPU Case auch noch mehr dran, der TB Anschluss kann laden, es gibt eine Platine, Lüfter etc.
 
Interrssant wäre zu wissen welches netzteil man benötigt wenn sie so langsam läuft. Meine verbraucht 340w max. Müsste auch ein 400w netzteil reichen. Natürlich wirds mit denn anschlüssen schwer aber wäre interessant. Vorallem uv mit pt optimierung ist man max bei 300w und verliert vl 10%
Was heißt langsam? Ich denke einfach, dass die Karte schon auf Anschlag läuft, nur eben "Denkpausen" auf Grund der geringen Bandbreite und höheren Latenzen bekommt. Damit wird aber nicht die Peakaufnahme (wobei ich jetzt nicht einmal die normalen Peaks meine, sondern speziell die eGPU Peaks, die eben die normale Leistungsaufnahme einer 0490 abbilden dürften). Damit denke ich, dass du ein 650-850W Netzteil brauchen wirst um die 450W der Karte gut zu versorgen.

Wenn du UV und ähnliches betreibst, denke ich, wirst du auch schon wieder Leistung verlieren. Denn die Karte wird in Phasen mit genug Daten (also in dem Moment wo die Bandbreite nicht limitiert) sehr wahrscheinlich auch unter Vollast laufen.

Wobei ich nicht ganz den negativen Hype einiger hier nachvollziehen kann. TB hat meines Wissens nach 5GB/s Bandbreite und mit einer 4090 hast du mit PCIe 3.0 nur sehr geringe Einbußen, so dass die potenziellen 10GB/s von TB5 schon sehr nah an eine taugliche Lösung herankommen sollten. Leider weiß ich nicht (hab halt einen Desktop Gaming PC) wie sich das Thema Latenzen auswirkt. Hier wäre ggfls. eine Lösung mit einem Cache im externen Gehäuse zu arbeiten? Dennoch ist es in meinen Augen generell schon enorm, was mittlerweile mit einem externen Gehäuse geht, ich komme noch aus einer Zeit wo die Anbieter mit meist propietären Anschlüssen gearbeitet haben und es Notebook und Gehäuse nur aus einer Hand gab und selbst das aufrüsten der eGPU meist ein Unterfangen war, was der Entwicklung des Space Shuttles gleich kam.
 
Zurück