Gigabyte RX 580 Gaming Box: Erste Radeon-E-GPU von Gigabyte

Du hast es nicht verstanden, hier will man das du deine Grafikkarte Extern benutzt aber wer schleppt bitte schön einen Laptop und dieses Schwere Ding durch die Gegend? :) Mir würde der Laptop reichen, es gibt mittlerweile Laptops mit starken Grafikkarten drin die sicherlich günstiger kommen als ein günstigeres und dieses Ding hier :)

Damit kann man mehrere Dinge machen:

1: Gibt es einem die Gelegenheit die GPU aus dem Laptop zu trennen, wodurch dieser kompakter ist und auch potentiell eine längere Akkulaufzeit haben kann. Die extrerne Graka läßt man dann zuhause oder nimmt sie mit, wenn man sich länger wo anders aufhält.

2: Ist die Auswahl an Laptops, mit guter GPU doch recht begrenzt. Mal passt das eine nicht, dann das andere, dann sind die Dinger wieder zu teuer. Mit dem externen Gehäuse kann man einfach eine normale Graka nehmen und verwenden. Das war insbesondere dann ein Vorteil, als die Desktop Grakas noch sehr viel günstiger als die Mobil GPUs waren. Auch gibt es einige Leistungsstufen, wie die GTX 1080Ti, nicht für Laptops.

3: Zu guter letzt kann man, wenn man einen Laptop und einen PC hat, beide mit der starken GPU versorgen. Wie sinnvoll das ist hängt von den verwendeten Gerätschaften ab, aber bei kleinen LAN Partys würde sich mein i3 4030U doch über die GTX 980Ti freuen. Dass Problem dabei ist, dass der Desktop dabei nicht zuviel Leistung verlieren darf (so 2-4% wären wohl akzeptabel).
 
Allerdings sind externe GPU Gehäuse auf 4 PCIe Lanes begrenzt, weswegen man relativ geringen Nutzen aus einer 1070, oder 1080, oder gar höher, zieht.
 
Das ist ein Punkt den viele nicht verstehen... Ist ja nicht so das wenig Aufwand betrieben wurde/wird damit die Marken erstmal entstehen und anerkannt werden :)
GPP zu verharmlosen ist nen Witz...

Das habe ich zuerst auch unterschätzt. Im Prinzip übernimmt Nvidia gerade die mühsam aufgebauten Marken. Ich hoffe da sind gerade einige Rechtsabteilungen ordentlich am rotieren, schlieslich sind alle betroffen, da müsste man sich doch wehren können.
 
Allerdings sind externe GPU Gehäuse auf 4 PCIe Lanes begrenzt, weswegen man relativ geringen Nutzen aus einer 1070, oder 1080, oder gar höher, zieht.

Der Nutzen ist natürlich vorhanden, es gibt ja keine fixe Grenze, die Karten werden nur etwas langsamer, wobei sich das bei 4 PCie 3.0 Lanes noch in Grenzen halten dürfte. Bei USB 3.0 mußte man halt damit leben, dass die GTX 1080 eben bestenfalls nur so schnell wie eine GTX 1070 war, dennoch hatte es seinen Sinn auf die GTX 1080Ti zu setzen, die war dann eben fast so schnell wie eine GTX 1080, besonders, da mehr RAM das Problem lindert.

Aber wie Gesagt: das war USB 3.0, wenn man PCIe 3.0 x4 hat, dann dürften sich die Unterschiede wohl im niedrigen einstelligen Prozentbereich abspielen.
 
Ich finde nach wie vor dass E-GPU nicht besonders viel Sinn macht. Ein Desktop und ein Ultrabook ist einfach besser.

Woran ich Interesse hätte wäre ein großes Notebook mit ordentlich Grafikleistung, welches auch mal kühl und leise bleibt. Sowas gibt es nur leider nicht.

Beschwer dich bei der Physik :P


Zum GPP:
Die Firmen werden das so lange mitmachen, solange Nvidia eindeutig vorne ist. Sollte AMD (oder Intel) mal einen großen Wurf landen wird man Nvidia die Daumenschrauben schneller anlegen als die Lederjacke schauen kann. Allerdings war das meiner Erinnerung nach zum letzten Mal wirklich vor 10 Jahren der Fall, als die HD 4000 Reihe mit allen Nvidia-Karten außer der 280 den Boden gewischt haben, sowohl was Leistung als auch Preis/Leistung anging. Die 280 war das damalige Titan-Pendant.
Das ging dann so weiter bis zur 7000er Reihe. Dann kam Nvidia mit der GTX 600er (Kepler) daher und zog langsam aber sicher davon, bis heute. Hoffen wir, dass sich das bald umdreht. Dafür ist auf jeden Fall ein neuer Ansatz wie Navi nötig.
Das einzige Problem ist, dass die Wahrscheinlichkeit, dass AMD an Nvidia wieder vorbeizieht durch diese Maßnahmen deutlich geringer ausfällt.

Hier auch ein Schmankerl aus einem Gamestar-Test
Oft rechnet die Radeon HD 5870 sogar fast auf dem Niveau der Geforce GTX 295 mit zwei Grafikprozessoren, braucht dafür aber wesentlich weniger Strom. Angesichts des Preises von rund 350 Euro somit ein tolles Angebot für Besitzer ausreichend gefüllter Brieftaschen
350 Euro Releasepreis für das absolute Spitzenmodell im Consumerbereich (die 295 ist wieder Titan-Pendant) und dass vor nichtmal 10 Jahren. Mittlerweile bekommst du um den Preis mit Glück die untere Mittelklasse. :heul:
 
Allerdings sind externe GPU Gehäuse auf 4 PCIe Lanes begrenzt, weswegen man relativ geringen Nutzen aus einer 1070, oder 1080, oder gar höher, zieht.

Einerseits ist die Busbandbreite im Vergleich zur Speicherbandbreite im Verhältnis deutlich niedriger als früher, andererseits werden heute oft Daten gestreamt. Kommt vermutlich stark aufs Spiel an. Müsste man mal gucken, obs da aktuelle Tests zu gibt.
 
Die Firmen werden das so lange mitmachen, solange Nvidia eindeutig vorne ist.

Das entscheidende Problem ist, dass solche Maßnahmen dafür sorgen sollen, dass AMD nicht wirklich aufholen kann, selbst wenn sie gleich gut sind.

Angenommen AMD würde bald eine GPU Serie rausbringen, die genauso gut ist, wie die von Nvidia, dann dürften die Hersteller gar keine AMD GPUs in ihr Gaminggedöhns einbauen. Wirklich interessant wird das dann bei Freesync, da sie das dann auch nichtmehr in ihren Gamingmonitoren einbauen dürften. Im Moment kommt da einfach Freesnc rein, wenn sie sich die GSynclizenz sparen wollen, da das nichts kostet.

Wäre mal schön, wenn sich die EU dem Problem mal annimmt, dann könnten sie sich auch gleich der PhysX Beschränkung annehmen, die greift, wenn man noch eine AMD Karte für die Grafikausgabe nutzt.

Was ist hier mit GPP gemeint?

Geforce Partner Programm von Nvidia - Geruchte uber Anti-AMD-Strategie
 
Geforce Partner Program: AMD-Grafikkarten teilweise ohne Gaming-Marken
da ist der PCGH Artikel dazu

Und dann das bei der Gigabyte Vega
Es handelt sich um ein Custom-Design mit eigener Platine, das samt Kühllösung 2,5 Steckplätze belegt. Anders als bei anderen G1-Gaming-Modellen setzt Gigabyte keine drei nebeneinanderliegende 90-mm- oder drei gestapelte 100-mm-Lüfter ein, sondern zwei offenbar 100 mm große Axialausführungen. Interessant ist die Slot-Blende mit jeweils drei Displayport- und HDMI-Anschlüssen, von denen nicht alle gleichzeitig funktional sein dürften. Im Falle der*Geforce GTX 1080 Ti*stellt Gigabyte zusätzliche HDMI-Ausgänge für VR-Brillen zur Verfügung. Werden diese eingesetzt, deaktivieren sich andere Anschlüsse.

G1-Gaming-Modelle kamen bislang immer ohne das Feature aus, was darauf hin deutet, dass das PCB mit der Slot-Blende noch bei Aorus-Modellen zum Einsatz kommen wird oder ursprünglich zum Einsatz kommen sollte. Verdächtig ist, dass sich über die URL-Änderungen keine*RX Vega 64*Aorus finden ließ. Hinter den Kulissen müsste es ordentlich kriseln, wenn ein Boardpartner schon das PCB für ein Flaggschiff entwickelt hat, das dann aber letztendlich nur für eine günstigere Serie einsetzt.
 
Zuletzt bearbeitet:
Der Nutzen ist natürlich vorhanden, es gibt ja keine fixe Grenze, die Karten werden nur etwas langsamer, wobei sich das bei 4 PCie 3.0 Lanes noch in Grenzen halten dürfte. Bei USB 3.0 mußte man halt damit leben, dass die GTX 1080 eben bestenfalls nur so schnell wie eine GTX 1070 war, dennoch hatte es seinen Sinn auf die GTX 1080Ti zu setzen, die war dann eben fast so schnell wie eine GTX 1080, besonders, da mehr RAM das Problem lindert.

Aber wie Gesagt: das war USB 3.0, wenn man PCIe 3.0 x4 hat, dann dürften sich die Unterschiede wohl im niedrigen einstelligen Prozentbereich abspielen.

Naja... 4 PCIe 3.0 lanes sind genau die Hälfte von dem, was eine aktuelle High End Grafikkarte braucht, um voll zu funktionieren.
Daher ist der Performanceverlust schon deutlich mehr, als nur "ein wenig langsamer"
Wenn Du von Anfang an eine Karte mit geringerer Leistung nimmst, sind die Einbrüche im Vergleich zur vollen Bandbreite auch geringer.
 
Der Performanceverlust mit einer GTX 1080 liegt bei ca. 4%, das ist wirklich halb so wild.
NVIDIA GeForce GTX 1080 PCI-Express Scaling | TechPowerUp
Die externen Karten dürften auch einen höheren Boost-Takt haben, da wird der Verlust dann noch geringer.

Das sind alles Werte von Mainboards - nicht von externen GPU Gehäusen.
Und selbst diese Werte halte ich noch für ein wenig optimistisch.
Die Werte für 4 Lanes via Chipset gehen schon ein wenig mehr in die Richtung.

Die externen Gehäuse gehen über Thunderbird 3 und den Chipsatz im eGPU Gehäuse.
Da wird noch mehr Verlust zusammen kommen.
 
Zurück