AMD RX Vega X2: Asus arbeitet angeblich an Dual-GPU-Variante

Nimm Zwei?

also ich weiß nicht, ob sowas eine brauchbare Grafiklösung sein kann. Aber so ein Vega X2 Test würde ich interessiert lesen.
 
Du glaubst also immernoch an den "Wundertreiber", der glaube an den Weihnachtsmann ist wohl realistischer. ^^

Ich rede von keinem Wundertreiber, sondern von einem Releasetreiber, der alle bisher verfügbaren Optimierungen und Funktionen implementiert. Danach sieht es bisher nicht aus, als wär da schon alles freigeschalten.
 
Wie DKK007 schon schrieb werden die wesentlichen Neuerungen bei Vega erst mit zukünftigen Treibern voll implementiert, ich vermute die fehlende Manpower in den vergangenen Jahren hat zu dem heutigen Leistungsbild maßgeblich beigetragen. AMD hatte vermutlich nur die Wahl soviel Manpower wie möglich in den Release von Ryzen, Threadripper und Epyc reinzustecken und die RTG musste mit einem Minimum an Personal den Vega Launch einleiten und darum sind vermutlich die Treiber noch längst nicht da wo AMD sie gerne hätte. Wieviel über die Treiber allerdings noch rauszuholen ist, ist alles andere als klar, das kann spekulativ von 5-10% bis hin zu Steigerungen auf 1080ti Niveau oder mehr werden. Dann wäre da noch die Entwicklung von Navi und dem damit einhergehenden grundlegenden Änderungen an dem zukünftigen Aufbau von Grafikkarten, diese sollte auch schon ziemlich weit sein und entsprechende Manpower benötigen. AMD ist meiner Meinung nach bei der Entwicklung und Innovation ganz ganz weit vorne, nur hatte AMD mit ganz anderen strukturellen und finanziellen Problemen zu kämpfen als seine Mitbewerber. AMD musste sich in den vergangenen Jahren kleinschrumpfen um zu überleben, heute ist man wieder ganz ordentlich aufgestellt und nun fehlt scheinbar Manpower um die Produkte oder Software wirklich fertig zu veröffentlichen.
 
Zuletzt bearbeitet:
Für 700W bräuchte man 5x 8pin PCIe-Stecker. Das ist dann wirklich was für Liebhaber :)

Nur wenn man unbedingt innerhalb der sehr konservativen PCI / ATX Vorgaben bleiben will.
(Was ja nicht mal Zotac mit seiner 1080Ti tut)
Technisch gesehen ist die Vorgabe des Stecker-Herstellers Molex: 9A pro Leitungspaar (+12V/GND). Macht 324W pro 8-Pin Stecker (weil nur 3 Leitungspaare pro 8-Pin).
3 Stecker würden also dicke reichen.

Trotzdem sind 700W auf einer einzelnen Karte natürlich ziemlich abartig.
Hauptproblem dürfte die Kühlung sein... ob die einzelnen GPUs wohl so weit voneinander entfernt liegen, dass man jeweils Universal-VGA WaKü Blocks drauf montieren kann?
Das könnte dann was werden... Auf die AiO Lösung von Asus würde ich mich nur ungern vertrauen.
 
Ich rede von keinem Wundertreiber, sondern von einem Releasetreiber, der alle bisher verfügbaren Optimierungen und Funktionen implementiert. Danach sieht es bisher nicht aus, als wär da schon alles freigeschalten.

Du erwartest doch nicht wirklich dass AMD jetzt ein Knöpfchen drückt und plötzlich läuft die Karte 20-30 % schneller, warum sollten sie bei ihrem jetzigen Treiber wichtige Funktionen einfach deaktiviert lassen um dann einen Benchmark drüber laufen zu lassen, um den Spielern zu zeigen wie gut sie verglichen mit der Konkurenz sind?
Selbst gegen eine 1080 OC wird sie einen schweren Stand haben, das Übertaktungspotenzial von Vega sieht eher mau aus, wie man anhand der Wakü Version und dem Stromverbrauch ableiten kann. Aber vielleicht quetscht AMD innert einem Jahr noch einpaar Prozent durch Treiber optimierungen heraus. Aber spähtestens dann steht ja bereits Volta bereit. Alles in allem leider eine Entäuschung...
 
Das wird eine ARES. Ich denke nicht, dass Asus eine neue Ares auflegt um eine besonders effiziente Karte zu designen... :devil:

Das ist ein Nischenprodukt für Leute die so etwas haben wollen und es sich leisten können

Vega bietet sich für eine neue Ares an, wegen dem platzsparendem HBM Speicher. Mit einer 1080Ti wäre die Karte sicherlich um einiges größer. Wahrscheinlich ist auch Single-Slot wieder möglich :love:
 
Du erwartest doch nicht wirklich dass AMD jetzt ein Knöpfchen drückt und plötzlich läuft die Karte 20-30 % schneller, warum sollten sie bei ihrem jetzigen Treiber wichtige Funktionen einfach deaktiviert lassen um dann einen Benchmark drüber laufen zu lassen, um den Spielern zu zeigen wie gut sie verglichen mit der Konkurenz sind?

Beim GPGPU fürs Mining ist es ja auch möglich: AMD Radeon RX Vega: Beim Ethereum-Mining angeblich die flotteste GPU

Verantwortlich sei der Treiber für den Performance-Sprung, wobei keine Taktraten für die angegebene Hash-Rate genannt werden.



Ich vergleiche auch nicht mit der 1080(ti), sondern mit der FuryX. Und da muss sich mal noch ein deutlicher Vorsprung bei gleichem Takt durch die neue Architektur zeigen, was bisher eben noch nicht der Fall ist. Denn schon Polaris hat eine höhere IPC als Fiji, wie man auch daran sieht, das die 580 teilweise auf dem Niveau der FuryX ist.
 
Es hieß ja immer mal wieder von raja, dass sie die stärkste Single Karte bauen wollen. Es hat niemand was gesagt wieviel Chips drauf sind. Falls sich das mit dem mining bewahrheiten SOLLTE, hat man auch für dieses Produkt denke ich einen verdammt guten Abnehmer. Rein fürs gaming wage ich zu bezweifeln dass sich diese Karte viele Leute kaufen werden.

Gesendet von meinem ZUK Z1 mit Tapatalk
 
Falls die Karte kommt geht's wohl primär nur darum sagen zu können: Wir haben den längsten

Denn seien wir ehrlich, davon lässt sich der Großteil der User beeindrucken, auch wenn sie dann selbst in einem ganz anderen Preisbereich kaufen.
"Die sind die besten am Markt, also muss das Modell XY das ich mir leisten kann auch das bestmögliche sein"

Funktioniert bei Intel ja auch.
 
Wow, jetzt gibt es dann sogar rot leuchtende Stromanschlüsse. :ugly:

Sicher ein pures GPU-Monster... Aber deren Sinn steht und fällt mit der Geschwindigkeit einer Vega-GPU und der Pflege der CF-Profile. Bringt ja nix, wenn die Karte 600-700W versenkt, dabei aber schon eine GPU nur knapp die 1080 schlägt und man mit ner miesen Multi-GPU-Skalierung vielleicht über der Ti landet, dafür aber den doppelten Verbrauch hat.
 
Hmm wasn Monster; sicher was für die gut Betuchten und Balkenvergleicher. 60TFlops bei 700W? Klingt fast nachm Schnäppschen für die Miners? Voltage runter und los jehts
 
Ich rede von keinem Wundertreiber, sondern von einem Releasetreiber, der alle bisher verfügbaren Optimierungen und Funktionen implementiert. Danach sieht es bisher nicht aus, als wär da schon alles freigeschalten.

Also ein bisschen was geht bestimmt noch bis zum Releasetreiber.
Aber wenn der von AMD bei der Präsentation genutzte Treiber wirklich absoluter Murks (z.B. 10-15% fehlen zur "normalen" Release-Leistung) gewesen wäre, dann hätte das AMD entweder nicht groß präsentiert oder explizit gesagt "da sind in 2 Monaten noch 15% drin". Weil das wäre marketingtechnisch ganz schön Selbstmord, wenn man zur Präsentation der ganzen Welt 15% weniger zeigt als das Produkt ZU RELEASE leisten kann.


Zum Thema:
Nette Karte für absolute Liebhaber. Den Stromverbrauch finde ich jetzt nicht so arg übermäßig außergewöhnlich bei einer 2GPU-Karte...
Wird halt vermutlich 1.500 € kosten... Das Ding ist wohl eher was für Rekorde als für den normalen High-End-User...
 
Also ein bisschen was geht bestimmt noch bis zum Releasetreiber.
Aber wenn der von AMD bei der Präsentation genutzte Treiber wirklich absoluter Murks (z.B. 10-15% fehlen zur "normalen" Release-Leistung) gewesen wäre, dann hätte das AMD entweder nicht groß präsentiert oder explizit gesagt "da sind in 2 Monaten noch 15% drin". Weil das wäre marketingtechnisch ganz schön Selbstmord, wenn man zur Präsentation der ganzen Welt 15% weniger zeigt als das Produkt ZU RELEASE leisten kann.

Eigentlich nicht. Selbstmord wäre es zu sagen, da kommen bis Release noch X% dazu und das nicht einhalten zu können.
Da ist es sinnvoller positiv zu überraschen und zu sagen: "Ach ja, wir haben seit der letzten Präsentation nochmal X% mehr Leistung im Vergleich zur Konkurrenz rausgeholt. Tendenz steigend!"
 
Also ein bisschen was geht bestimmt noch bis zum Releasetreiber.
Aber wenn der von AMD bei der Präsentation genutzte Treiber wirklich absoluter Murks (z.B. 10-15% fehlen zur "normalen" Release-Leistung) gewesen wäre, dann hätte das AMD entweder nicht groß präsentiert oder explizit gesagt "da sind in 2 Monaten noch 15% drin". Weil das wäre marketingtechnisch ganz schön Selbstmord, wenn man zur Präsentation der ganzen Welt 15% weniger zeigt als das Produkt ZU RELEASE leisten kann.


Zum Thema:
Nette Karte für absolute Liebhaber. Den Stromverbrauch finde ich jetzt nicht so arg übermäßig außergewöhnlich bei einer 2GPU-Karte...
Wird halt vermutlich 1.500 € kosten... Das Ding ist wohl eher was für Rekorde als für den normalen High-End-User...

Na endlich einer wo normal denkt


@Palmdale Meine Quellen naja die sagen was anderes,nur das problem diese Quellen sag ich nicht da bekomm ich stress und dass möchte ich nicht
 
Aber spähtestens dann steht ja bereits Volta bereit. Alles in allem leider eine Entäuschung...

Woher wissen denn alle das in nicht allzuferner Zukunft ( ~6-9 Monate ) "Volta" bereit steht ? Soll nicht erst noch ein Refresh kommen und es nicht mal sicher sein das Volta für den gemeinen Gamer erscheinen wird ? Hauptsache mal die Markenkeule ausgepackt und sinnbefreit daher geredet. Ich höre ständig von Nvidia Fans:" Selbst wenn die RX Vega an die 1080ti herankommt oder sie schlägt, steht ja schon Volta vor der Tür und ausserdem ist die ti viel älter bla bla blub" Man kann es wirklich keinem von euch auch nur ansatzweise recht machen. Wartet es doch einfach ab und lasst dieses total sinnbefreite Markenbashing. Im Endeffekt profitieren wir alle von gesunder Konkurrenz auf dem Markt.
 
Nur wenn man unbedingt innerhalb der sehr konservativen PCI / ATX Vorgaben bleiben will.
(Was ja nicht mal Zotac mit seiner 1080Ti tut)
Technisch gesehen ist die Vorgabe des Stecker-Herstellers Molex: 9A pro Leitungspaar (+12V/GND). Macht 324W pro 8-Pin Stecker (weil nur 3 Leitungspaare pro 8-Pin).
3 Stecker würden also dicke reichen.

Trotzdem sind 700W auf einer einzelnen Karte natürlich ziemlich abartig.
Hauptproblem dürfte die Kühlung sein... ob die einzelnen GPUs wohl so weit voneinander entfernt liegen, dass man jeweils Universal-VGA WaKü Blocks drauf montieren kann?
Das könnte dann was werden... Auf die AiO Lösung von Asus würde ich mich nur ungern vertrauen.

Man hat das Problem auch schon vor bisschen mehr als einem Jahr gelöst bekommen.
Die Nano X2 bzw Pro Duo zieht pro GPU rund 175 Watt also 350 Watt.

Ich denke Asus wird eine Vega Nano X2 zusammenlöten.
Die TDP der Vega Nano ist mir nicht bekannt
Also ich denke mal 200 Watt Maximal.
Wären also 400 Watt.
Und wenn man bedenkt das die Pro Duo noch leise geblieben ist, empfinde ich das als Machbar.
 
Finde ich ebenfalls möglich und das auch gut verkaufbar. Druch die Einsparungen der VRam-Fläche kann man alles zusammenrücken lassen und da es keine Stockversion davon geben soll sind alle Dinge selbst zu ertüfteln. Am Ende könnte auch eine Dual-GPU im Format einer Tripleslotkarte (mit Wakü) erscheinen. Mit der Möglichkeit, dass die Karten wieder nur an die Miner statt den Rest gehen, hat AMD sich da hoffentlich getraut den Herstellern komplett freie Hand zu lassen, damit diese dann Vega eine klare Differenzierung zwischen den Modellen aufbauen.
Letztendlich wird es darauf hinauslaufen, dass AMD dazu übergeht wie Nvidia kleinere Consumerchips(Gaming gehört hierzu) und größere Rechendies die über die nötige Power in speziellen Bereichen bieten. Anders kann AMD in dem Bereich erstmal nicht die Richtung angeben
 
Zurück