News HPCE: Spezifkationen zum kabellosen GPU-Anschluss enthüllt - 600 Watt Leistung?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HPCE: Spezifkationen zum kabellosen GPU-Anschluss enthüllt - 600 Watt Leistung?

Zum erstmals auf der Computex gezeigten HPCE-Anschluss, über den einige Kabel für Grafikkarten wegfallen, gibt es neue Details. So soll dieser GPUs mit einer Leistungsaufnahme von bis zu 600 Watt unterstützen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: HPCE: Spezifkationen zum kabellosen GPU-Anschluss enthüllt - 600 Watt Leistung?
 
Bedeutet nur das ein anderes Kabel zusätzlich zum Mainboard geführt werden muss. Das "Problem" wird nur verlagert.
 
Ich denke, die Lösung soll gar keine technischen Probleme lösen, sondern ästhetische: Weniger (sichtbares) Kabelgewirr im Gehäuse.
 
Einziger Vorteil ist, das die Grafikkarte etwas stabilisiert wird durch den Anschluss. Irgendwo muss der Strom auf dem Board ja herkommen, wahrscheinlich von einem weitern Kabel.
 
Warum so negativ? Die Karten wurden damals mit ISA/PCI/AGP alle mit Strom über die Steckverbindung versorgt, warum sollte das keinen Vorteil haben gegenüber der jetzigen Art der Stromversorgung? So können neue Graka Platinen und Motherboards Designs entstehen. Keine lästigen Kabel und Stecker die in Flammen aufgehen können? Reinstecken und fertig. Ich glaube das ist eine gute Idee die damals schon funktioniert hat.
 
Warum so negativ? Die Karten wurden damals mit ISA/PCI/AGP alle mit Strom über die Steckverbindung versorgt, warum sollte das keinen Vorteil haben gegenüber der jetzigen Art der Stromversorgung? So können neue Graka Platinen und Motherboards Designs entstehen. Keine lästigen Kabel und Stecker die in Flammen aufgehen können? Reinstecken und fertig. Ich glaube das ist eine gute Idee die damals schon funktioniert hat.
Damals haben die Steckkarten keine 600W verbraten. Zu ISA finde ich nichts handfestes, aber das war wohl eher einstellig, PCI schafft 25W und AGP ging bis knapp 50W. Stromstecker waren auch schon an AGP-Karten häufig vorzufinden. Früher waren das oft FDD-Stromstecker, später 4-Pin-Molex. Ein Kabel vom Netzteil kann man je nach Bedarf hinzufügen oder weglassen, aber ein Mainboard müsste für diese hohen Ströme ausgelegt sein. Das hieße dann, dass entweder jedes Mainboard die 600W liefern können muss oder das Mainboards nur bestimmte Grafikkarten bedienen könnten. Und ich habe lieber einen Stecker, der in Flammen aufgehen kann, als ein Mainboard. ;) Am besten brennt natürlich gar nichts, aber die Stecker wurden ja schon "gepatcht" und waren vorher ja schon "nur" nicht narrensicher. Insofern gibt es schon gute Gründe, die Idee nicht so toll zu finden, auch wenn die zusätzlichen Kabel natürlich etwas nerven. Aber der größte Nervfaktor daran, dass es so viele waren, wurde ja schon angegangen.
 
Damals hat man aber keine 600W gebraucht.
Ich sehe das kritisch, wie ist die Wärmeentwicklung beim Mainboard und hat es auf andere Komponenten Auswirkungen?
 
Ich sehe das kritisch, wie ist die Wärmeentwicklung beim Mainboard und hat es auf andere Komponenten Auswirkungen?
Es muss halt entsprechend viel Kupfer verwendet werden, dann wird es auch nicht warm. Aber das muss halt ins Layout eingefügt werden, was es komplizierter macht und Kupfer selbst, die Buchse und der Slot kosten natürlich auch. An sich nicht so schlimm, wäre da nicht die Tatsache, dass viele Systeme all das nicht oder nicht in dem Ausmaß benötigen.
 
Joa warum nich.
Genauso habe ich mir das gedacht als Technische lösung, wie denn sonst. Und das ohne den Artikel vorher zu lesen oder überhaupt jemals von dieser neuen Alten Idee gehört zu haben.

Ich gucke eigentlich seit jahrennicht mehr durch das Sichtfenster im PC. Aufgeräumt muss es im PC nur aus Prinzip sein.
Aber wenn ich das jetzt bewerten wollen würde wie es in einem PC aussieht würde ich als erstes die GPU Stromstecker. entfernen wollen.
 
Ich bin mir nicht sicher.
Zuerst fände ich es besser, wenn es in der PCIe-Spezifikation wäre, also z.B. PCIeXP oder so. Dann könnte man hinschreiben, es hat PCIeXP 5.0 und jeder wüsste, was damit gemeint ist.
Und zudem macht es die minimale Grafikkartenlänge größer, weil der zusätzliche Slot hinter dem PCIe-Slot ist. Das gefällt mir eher nicht.
Desweiteren würde ich es vorziehen, wenn alles in einem Slot wäre, und man nur zusätzliche Energie-Ports über PCIe anbieten würde.
Es gefällt mir nämlich ebenso nicht, dass der zusätzliche Slot selbst eine eigene Kommunikation mit dem Mainboard pflegen würde, und somit dafür wieder einen extra Controller bräuchte.

Die Idee ist gut aber die Umsetzung ist im Entwurfsstadium.
 
Ich sehe die Entwicklung einfach kritisch, so lange es kein offener Standard wird, der von allen Herstellern unterstützt wird.
Gibt's eigentlich schon Angaben zu den Abmessungen des Anschlusses - passt der überhaupt noch auf ein mini-ITX-Board?
Abgesehen davon finde ich die Aussage "600W sind für zukünftige High-End-Karten wohl zu wenig" gruselig - wo soll das enden?
 
Ich sehe die Entwicklung einfach kritisch, so lange es kein offener Standard wird, der von allen Herstellern unterstützt wird.
Gibt's eigentlich schon Angaben zu den Abmessungen des Anschlusses - passt der überhaupt noch auf ein mini-ITX-Board?
Abgesehen davon finde ich die Aussage "600W sind für zukünftige High-End-Karten wohl zu wenig" gruselig - wo soll das enden?
Deshalb sage ich ja, wenn das der neue Standard wird müssen die sich was einfallen lassen mit der Stromversorgung, aber 600W ist schon echt hoch angesetzt. Ausser man will ne 4090 auf 600W hoch prügeln. Ich finde es wird Zeit für eine Weiterentwicklung, oder soll das noch weitere 10 Jahre so weiter gehen, dass die Grakas soviel Strom brauchen? Das sind doch alles so schlaue Leute die die Architekturen entwickeln, dann schaffen die das auch irgendwie. Hoffe ich...
 
Deshalb sage ich ja, wenn das der neue Standard wird müssen die sich was einfallen lassen mit der Stromversorgung, aber 600W ist schon echt hoch angesetzt. Ausser man will ne 4090 auf 600W hoch prügeln. Ich finde es wird Zeit für eine Weiterentwicklung, oder soll das noch weitere 10 Jahre so weiter gehen, dass die Grakas soviel Strom brauchen? Das sind doch alles so schlaue Leute die die Architekturen entwickeln, dann schaffen die das auch irgendwie. Hoffe ich...
Ich glaube / hoffe eher, dass irgendwann eine Art Sättigung eintritt. Irgendwann (wahrscheinlich erst, wenn fotorealitische Grafik in 8K-Auflösungen bei 240Hz und HDR berechnet werden kann) wird es so ziemlich jedem dämmern, dass der menschliche Körper Grenzen setzt und mehr Frames, mehr Pixel und mehr Details einfach nicht mehr wahrgenommen werden (schon gar nicht in der buchstäblichen Hitze des Gefechts). Spätestens dann heißen die Marketing-Schlagworte hoffentlich "mehr Effizienz", "weniger Verbrauch" und "weniger Ressourcenaufwand" - vor allem letzteres wird ja heute komplett totgeschwiegen. Eigentlich völlig absurd, wenn man andere Lebensbereiche und Produkte betrachtet!
 
Ich glaube / hoffe eher, dass irgendwann eine Art Sättigung eintritt. Irgendwann (wahrscheinlich erst, wenn fotorealitische Grafik in 8K-Auflösungen bei 240Hz und HDR berechnet werden kann) wird es so ziemlich jedem dämmern, dass der menschliche Körper Grenzen setzt und mehr Frames, mehr Pixel und mehr Details einfach nicht mehr wahrgenommen werden (schon gar nicht in der buchstäblichen Hitze des Gefechts). Spätestens dann heißen die Marketing-Schlagworte hoffentlich "mehr Effizienz", "weniger Verbrauch" und "weniger Ressourcenaufwand" - vor allem letzteres wird ja heute komplett totgeschwiegen. Eigentlich völlig absurd, wenn man andere Lebensbereiche und Produkte betrachtet!
Es wurden (ich glaube in den 1980er Jahren) von der US Air Force Versuche unternommen, um die Wahrnehmungsgrenzen bzgl. extrem kurzer Belichtungszeiten zu untersuchen.
Dabei wurden Kampfpiloten für eine extrem kurze Zeit die Silhouetten von Flugzeugen gezeigt.
Die Versuchspiloten konnten bei einer Belichtungszeit von einer 1/220 Sekunde noch bestimmen, welcher Flugzeugtyp abgebildet wurde.
Einfache Lichtblitze konnten noch wahrgenommen werden bei einer Belichtungszeit von < 1/1000 Sekunde.
Der menschlichen Wahrnehmung sind also selbst bei mehreren hundert Fps noch keine Grenzen gesetzt.
Und das ist durchaus relevant bei der Erzeugung synthetischer Bilder, da hier in den gerenderten Frames keine Belichtungszeiträume enthalten sind (die ggf. Bewegungsunschärfe enthielten), sondern nur ein Belichtungszeitpunkt. Das Ergebnis ist ein deutlich unruhigeres Bild, da bewegte Objekte im Bild innerhalb einer Frame an die neue Position "teleportieren".
Die Bildinformation "zwischen" den Frames, die bei einer Filmkamera in der Form von Bewegungsunschärfe enthalten ist, fehlt.
(Das, was in Games üblicherweise als "Motion Blur" bezeichnet wird, kann diese Information auch nicht nachbilden; hier werden einfach ältere Frames mit in das aktuell gerenderte Bild eingefügt.)
Den Effekt kann man teilweise sehr deutlich sehen, insbesondere bei schnell bewegten Objekten.
Der Effekt lässt erst bei mehreren hundert Fps nach.
Es ist also noch viel Luft nach oben.
(Edit: Zahlen korrigiert)
 
Zuletzt bearbeitet:
Und wieder ein unnötiger Grund warum alle jetzigen Mainboards automatisch zum altmüll gehören... Wie benutzt man denn so eine Grafikkarte ohne Stromanschlüsse an einem Mainboard das diesen Poweranschluss nicht hat? Gar nicht! Da kommt NVIDIA daher mit ihrem schrottigen und fehlerhaften 12VHP irgendwas Anschluss und wenn sich der solangsam beginnt einzupendeln und einwenig zu etablieren kommt schon der nächste Schwachsinn. Ja es schaut optisch schöner aus, gebraucht wird es allerdings nicht und viele reden ja schon davon das das der neue Standard werden könnte/wird. Entweder wirds für die Industrie unnötig teuer Grafikkarten in 2 Varianten anzubieten oder wir Konsumenten schauen beim künftigen Upgrade unnötigerweise durch die Röhre. Technologischer fortschritt ist immer Willkommen aber einfach nur was ändern weil mans kann ist mehr als unnütz. Kein Schwein braucht einen unsichtbaren 600w Stecker der alles andere obsolet macht. Die sollen lieber mal schauen das die Karten effizienter und nicht hungriger werden. Selbst mit ner 3080ti ist es nach 1-2 Stunden spielen schon unangenehm im selben Raum zu sitzen wie der Computer da braucht man nicht noch mehr Wärme und Verbrauch erzeugen schon gar nicht wenn es ganze ältere Generationen an Boards einfach ausschließt.
 
Und wieder ein unnötiger Grund warum alle jetzigen Mainboards automatisch zum altmüll gehören... Wie benutzt man denn so eine Grafikkarte ohne Stromanschlüsse an einem Mainboard das diesen Poweranschluss nicht hat? Gar nicht!
Das war auch mein erster Gedanke, aber es gäbe dann wahrscheinlich (ein entsprechendes Gehäuse vorausgesetzt) die Möglichkeit, per Riser-Kabel und Power-Adapter derartige Grafikkarten auch mit einem "normalem" Mainboard zu nutzen (wenn die Karten nicht höher als drei Slots sind).
Was die Effizienz angeht, stimme ich dir zu, da wäre es an der Zeit, dass sich auch die Hersteller ein Limit setzen (z.B. 375W und drei Slots für High-End, 225W und zwei Slots für die Mittelklasse, jeweils bei Standard-Takt). So wie's im Moment ist, kann es nicht weitergehen; es ist ja schon gar nicht mehr sinnvoll, einen Gaming-PC mit µATX-Board zu bauen - die Slots sind ohnehin alle von der Grafikkarte verdeckt.
 
Genau, am besten einfach alles limitieren.
Grafikkarten max. 15 W.
Gaming max. 1h am Tag.
Zimmergrösse max. 15m².
Frühstück max. 1 Brötchen.
Schuhe max. Grösse 40.
Alles andere ist reine Resourcenverschwendung.
(Die Zahlen sind alle verbindlich, schließlich hab ICH sie mir ausgedacht!)
</ironie>
 
Zurück