Computex 2011: Asus präsentiert eine GTX 595 Ares

AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Puh, wer braucht so eine Karte. Anstatt einen mobilen Tischgrilles der mehr Strom verbraucht wie eine Batterie an Rechnern, wäre es doch sinnvoller sich auf den Hauptmarkt zu konzentrieren. Ist mir schon klar das man durch solche Monster auch für den Endkundenmarkt was dabei heraus bekommt, nur warum werden Spezifikationen festgelegt wenn man versucht die permanent zu unterlaufen.
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Ja, bei einem PC ginge noch einiges mehr als de-facto aktuell verfügbar ist (zumindest bei ASUS, siehe EVGA SR2; wird sich eventuell mit Sandy Bridge E ändern) aber bei einer GraKa ist das wohl ziemlich das Maximum, was aktuell machbar ist

32x PCIe wäre irgendwie sinnlos, da es keine Boards damit gibt, es wäre zwar eine Lösung denkbar, bei der eine GraKa gleich zwei PCIe Steckplätze nutzt... aber warum dann nicht gleich zwei GraKas?

Nene, schon 32X Slots. Sonst macht das ja echt keinen Sinn :ugly:

Es gäbe im HPC Bereich mehr als genug Punkte, wo man sich über einen 32x Steckplatz freuen würde. Dual-GPU-Karten haben ja z.B. in dem Bereich ein echtes Handycap, wenn man viele Daten hin und her schaufeln muss, und die Daten eben nicht einfach aufteilen kann auf beide GPUs.

Genau so, warum gibt es keine AMD Dual-Sockel-Boards mit 64 PCI-E 2.0 Lanes? Oder noch besser 128 PCI-E 2.0 Lanes? Wäre eigentlich machbar. Dual-Sockel-Board und dann Opterons mit 2 bzw. 3 vollen HT Links ran und an jede CPU dann ein bzw zwei Chipsätze anbinden. DAS wäre ein echtes GPU Monster :ugly: 4 bzw gar 8 GPUs mit vollen 16x anbinden. WTF sag ich da nur...
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Dual-GPU-Karten haben ja z.B. in dem Bereich ein echtes Handycap,

welches Handycap meinst du da genau? Dual GPU Karten haben genauso eine SLI verbindung wie 2 einzelkarten. Eine Dual GPU Karte ist nichts anderes als 2 Sinlge GPU Karten die per nF200 auf einen 16x Port angeschlossen sind. Der Leistungsverlust dadurch liegt aktuell bei 0-4%

mfg
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Das ist ja das Problem. Sobald nicht die gleichen Daten an die GPUs sollen, ist das recht schnell Mist.

Ich hab z.B. auf ner GTX295 programmiert. Da hat mir die zweite GPU genau NULL gebracht, weil nur der PCI-E Anschluss der limitierende Faktor war. Die Datenübertragung hat 80% der Zeit ausgemacht. Mit einer doppelt so breiten Anbindung hätte ich also fast doppelt so schnell mein Problem gelöst...

Mal ein bischen weiter denken als nur an schnöde Games, bei denen die Daten immer an beide GPUs müssen. Naja, und selbst da sind wie du selbst sagst zwischen 0-4% Leistungsverlust da, und wenn ich mir anschaue wie die Leute hier wegen 5% abgehen und OC machen etc etc. ist das einfach unverständlich...

Für die letzten 5-10% der am Markt verfügbaren Leistung zahlt man ein schweine Geld, und dann das so einfach hinnehmen ist mir unverständlich.
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Nene, schon 32X Slots. Sonst macht das ja echt keinen Sinn :ugly:

Da müsste man ein eigenes Spezial MB extra für die ARES entwickeln...

Aber warum auch? Das Ziel bis zur nächsten GPU Generation die Einzelkarten- Benchmarkkrone zu erobern wird sicherlich auch so erreicht

Es gäbe im HPC Bereich mehr als genug Punkte, wo man sich über einen 32x Steckplatz freuen würde.

Gibt es die da nicht auch?

Dual-GPU-Karten haben ja z.B. in dem Bereich ein echtes Handycap, wenn man viele Daten hin und her schaufeln muss, und die Daten eben nicht einfach aufteilen kann auf beide GPUs.

Dual GPU Karten sind mit herkömmlichen GPUs, die nicht dafür gebaut wurden (was ja bei allen Dual GPU Karten in jüngerer Vergangenheit der Fall war) so oder so prinzipiell eine Pfuschlösung...

Genau so, warum gibt es keine AMD Dual-Sockel-Boards mit 64 PCI-E 2.0 Lanes? Oder noch besser 128 PCI-E 2.0 Lanes?

Das kann wohl nur AMD beantworten...

Aber... mit 2 CPUs und 2x SR5690 Chipsatz sollte man doch eigentlich auf immerhin 84 PCIe 2.0 Lanes kommen...

DAS wäre ein echtes GPU Monster :ugly: 4 bzw gar 8 GPUs mit vollen 16x anbinden. WTF sag ich da nur...

Mit dem EVGA SR2 und prinzipiell auch anderen 1366er Dualsockelboards mit 5520er Chipsatz gibt es immerhin 64 PCIe 2.0 Lanes

Viel Spaß mit dem Mikroruckeln! Für mehr als 4 GPUs gibt es auch keine Treiber

Abgesehen davon liegt hier in der Praxis sogut wie immer eine CPU Limitierung vor, auch zwei CPUs helfen hier nur eingeschränkt, da am Ende an ein Hauptthread limitiert, das trifft vor allem die /Kern langsameren AMD CPUs
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Mal ein bischen weiter denken als nur an schnöde Games, bei denen die Daten immer an beide GPUs müssen.

Naja, dafür sind Grafikkarten aber primär gedacht. Und da stellt die aktuelle Lösung kein wirkliches Problem dar. Für den HPC bereich gibts seperate Karten mit entsprechendem Interface. Und der HPC Bereich ist auch nicht wirklich Thema dieses Forums.

Naja, und selbst da sind wie du selbst sagst zwischen 0-4% Leistungsverlust da

Eine Dual GPU Karte verliert schonmal mindestens 20% nur allein desshalb weil 2 GPUs nicht mit 100% skalieren und dann nochmal 20% durch den niedrigen Takt. Wer da über die im schnitt 1% aufgrund der Anbindung mekkert dem ist ohnehin nicht mehr zu helfen.

mfg
 
Zuletzt bearbeitet:
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Da müsste man ein eigenes Spezial MB extra für die ARES entwickeln...

Aber warum auch? Das Ziel bis zur nächsten GPU Generation die Einzelkarten- Benchmarkkrone zu erobern wird sicherlich auch so erreicht
Ja das wird Sie sicherlich. Die Frage ist nur, wie langlebig ist die Karte, und wie oft muss Sie runter takten.

Gibt es die da nicht auch?
Nein leider nicht. Der Desktop Bereich treibt zwar viele Entwicklungen im HPC Bereich an, weil durch diesen die Sachen erst finanzierbar werden, aber ist halt auch oft ein Klotz am Bein wie hier. Die Chips sind ja für die Profi-Karten und die normalen Consumer-Karten die gleichen. Ergo hast du auch nur einen 16x PCI-E Controller etc.

AMD/nVidia sind sich eventuell auch nicht 100% im klaren über das Problem, bzw. scheuen den Schritt in diese Richtung. AMD hat ja in den Präsentationsfolien zur HD6k Serie selbst angesprochen, das der PCI-E Slot ein großer Flaschenhals ist im GPGPU Bereich. Daher hat die HD6k Serie ja auch 2 DMA-Controller, damit die Verbindung besser ausgelastet werden kann.

Es bringt aber nichts, wenn AMD allein vor stürmt und 32X Karten bringt und dann keine Boards vorhanden sind. Dabei wäre das in meinen Augen eine sehr gute Möglichkeit, um den Heimanwender vom Profi abzugrenzen. Der Heimanwender brauch das eigentlich nie. Der Profi kann es je nach Aufgabe sehr wohl benötigen. Genau wie 2GB+ dort sehr gern gesehen sind. 32x ist ja als Standard auch vorhanden. Die Realisierung wäre also kein Problem, die Firmen müssten nur dazu die Eier in der Hose haben.

Aber hier ist halt das Henne Ei Problem mal wieder anzutreffen. Keiner fordert so etwas, weil es so etwas eben auch nicht gibt. Weil aber keine fordert, wird es auch nicht gebaut :ugly:
Son 32x kostet halt wohl schon etwas mehr als ein 16x. Alles sehr zwiespältig, findet man aber auch an vielen anderen Stellen.

Z.B. arbeiten die 64Bit Prozessoren physikalisch noch immer "nur" mit 48-Bit Adressen (bin mir grad nicht mehr sicher ob es 40 oder 48 Bit sind) Das klingt ja erst mal nicht schlimm, da man ja damit noch immer 256 TB an Adressraum adressieren kann. Für eine einzelne Maschine MEHR als genug, selbst Quad-/Octa-Sockel-Systeme kommen damit ohne Probleme aus. Wenn man aber jetzt einen großen Rechner mit globalem Adressraum bauen will, stößt man "schnell" an die CPU-Grenze.

Rechnen wir mal schnell nach. Ein Server hat normal 8-12 Dim-Slots. Gehen wir mal von 12 aus, in dem jeweils 4GB Riegel stecken. Wenn man son großen Rechner mit globalem Adressraum baut, macht man das nicht zum Spaß, sondern weil man muss, also massig RAM rein. Haben wir also 48GB (btw ich glaub 96GB pro CPU gibt es auch schon). Da wir ja gut sind, nehmen wir ein Quad-Sockel-System (Octa ist uns zu teuer :lol:) Damit kommen wir dann auf 192GB (384GB) Ram in einem Knoten. Ich glaub man sieht schon worauf die Sache hinausläuft ;)

Insgesamt können wir 256TB an Adressen adressieren. Ergo können wir 256*1024/192=1365 (256*1024/384=682) Knoten zusammenschrauben. Danach ist Sense. Und das bei 48Bit echter Adressbreite. Bei 40Bit echter Adressbreite kann man nur 1TB Speicher adressieren, man könnte also nur 5 (bzw 2) Knoten zusammenschließen zu einem shared Memory Rechner.

Btw. hab mal nochmal nachgeschaut 512GB pro 4Sockel Node ist das Maximum was z.B. SuperMicro grad anbietet für AMD Systeme, soweit ich das gesehen habe. Mit den 48Bit echter Adressbreite kommt man damit auf gerade einmal 512Nodes, bevor der Adressraum ausgeht! Ok, es gibt meist nur bis 256Knoten Systeme mit gemeinsamen Adressraum, da Sie nicht so gut skalieren wie distributed Memory Systeme, aber man sieht, das man hier schon durch Hardware wieder eingegrenzt wird. Denn man sollte es zwar nicht glauben, aber es gibt wirklich Leute, die würden gern größere SharedMemorySysteme bauen als die mit 256TB. Zudem gibt es auch eine ganz lustige Entwicklung, die ich auf der CeBIT sehen konnte. Da hast du dann quasi 10TB Ram in einem Node drin :ugly: Ist noch nicht 100% ausgereift, aber in den nächsten Jahren kommt das sicherlich. Tja und was machst du dann mit deinen 48Bit realer Adressbreite? Richtig, dir schnell in den ARSCH beisen :(

Dual GPU Karten sind mit herkömmlichen GPUs, die nicht dafür gebaut wurden (was ja bei allen Dual GPU Karten in jüngerer Vergangenheit der Fall war) so oder so prinzipiell eine Pfuschlösung...
Naja, wirklich Pfusch nicht, aber man hat halt 2 Einschränkungen normal mehr, als man eh schon hat (und man hat eigentlich schon mit einer GPU zu viele...). PCI-E muss geteilt werden, was je nach Aufgabe halt in 1-50% weniger Leistung enden kann, und dann noch das Problem, das die normalen Dual-GPUs niedriger getaktet sind. Wenn man die zweite also nicht vernünftig verwenden kann, hat man auch noch ne langsamere Karte, als wenn man nur eine GPU hat....

Das kann wohl nur AMD beantworten...

Aber... mit 2 CPUs und 2x SR5690 Chipsatz sollte man doch eigentlich auf immerhin 84 PCIe 2.0 Lanes kommen...
Ja stimmt, hab die restlichen Lanes ganz vergessen :ugly: Aber die brauch man ja auch für andere Sachen :D

Mit dem EVGA SR2 und prinzipiell auch anderen 1366er Dualsockelboards mit 5520er Chipsatz gibt es immerhin 64 PCIe 2.0 Lanes
Also ich kann mit täuschen, aber waren es nicht "nur" 32 echte Lanes +2x NF200.

EDIT: Ok hab nochmal nachgeschaut. Es gibt zwei Versionen des Tylersburg-Chipsatzes, von dem es 2 Versionen gibt. Einmal den 5500 mit 24x Lanes, und den 5520 mit 36x Lanes. Auf dem SR2 ist der 5520 verbaut. eigentlich sollte ein NF200 ausreichen, aber um wohl alles mit allem zu verdrahten brauch man dann 2 NF200. Wie auch immer. Man hat "nur" 32 echte PCI-E-Lanes. Der NF200 erhöht ja noch die Latenzen und ermöglicht "nur" ein variables zuteilen der Lanes und Multicast, soweit ich das verstanden habe. Es gibt halt kaum Dokumente zum NF200 frei verfügbar.

Viel Spaß mit dem Mikroruckeln! Für mehr als 4 GPUs gibt es auch keine Treiber
Das ist nicht zum zocken gedacht ;)

PS:SuperMicro hat jetzt/jetzt bald eine Maschine mit 5 GPUs im Angebot. Sehr schickes teil :D

Abgesehen davon liegt hier in der Praxis sogut wie immer eine CPU Limitierung vor, auch zwei CPUs helfen hier nur eingeschränkt, da am Ende an ein Hauptthread limitiert, das trifft vor allem die /Kern langsameren AMD CPUs
Kommt drauf an. Ich hab auch schon Programme geschrieben, die auf 128 Cores gelaufen sind, und dabei sogar recht gut skaliert haben. Es kommt halt immer auf das Problem an, das man sich anschaut. Für Games etc. ist so etwas natürlich völlig unbrauchbar. Höchstens mit RayTracing könnte es wieder interessant werden, aber dann stellt sich trotzdem keiner so ein System ins Wohnzimmer :ugly: (Ok vielleicht 1-2 ein paar Spinner gibt es ja immer :lol:
 
Zuletzt bearbeitet:
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Naja, dafür sind Grafikkarten aber primär gedacht. Und da stellt die aktuelle Lösung kein wirkliches Problem dar. Für den HPC bereich gibts seperate Karten mit entsprechendem Interface. Und der HPC Bereich ist auch nicht wirklich Thema dieses Forums.
Nein, gibt es so wie du meinst nicht. Die Karten setzen auf das gleiche PCI-E Interface. Da hast du zu 100% die gleiche Situation wie bei den Consumer-Karten. Bei den Teslas kommt nur ECC, mehr RAM, keine beschnittene DP-Leistung und andere Treiber dazu. Das wars dann aber auch. Von der Hardware Seite her unterscheidet sich ne Tesla von ner normalen Consumer Karte sogar nur durch die Platine, die halt mehr RAM und ECC unterstützt. Das wars dann aber auch. Der eigentliche Chip sowie das PCI-E Interface sind die gleichen. Und mehr gibts da halt nicht, weil die normalen Verbraucher das halt nicht brauchen/bezahlen würden, und einfach dazu packen kannste auch nicht. Das würde sich einfach nicht lohnen rein wirtschaftlich gesehen. Du müsstest ja dann extra eigene Chips machen für den HPC Bereich (wobei dann andere Bereiche beschnitten sein müssten, nVidia ist mit dem GF100/110 ja an der Grenze der Produktionsgröße für einen DIE), oder aber ALUs von der ConsumerKarte wegen dem Problem in der Klammer runter schmeisen.

Eine Dual GPU Karte verliert schonmal mindestens 20% nur allein desshalb weil 2 GPUs nicht mit 100% skalieren und dann nochmal 20% durch den niedrigen Takt. Wer da über die im schnitt 1% aufgrund der Anbindung mekkert dem ist ohnehin nicht mehr zu helfen.

mfg

Jetzt erzählst du aber Stuss XE85......

Das durch niedrigeren Takt die Rechenleistung mehr oder weniger linear abfällt ist klar. Aber nur dadurch das es 2 GPUs sind, skalieren Sie nicht schon mal um mindestens 20% schlechter... Sorry das ist bullshit....

Der Speedup errechnet sich nach Amdahl´s law

Also Speedup=1/((1-Paralleler_Programmanteil)+Paralleler_Programmanteil/#Prozessoren)

Ob die Rechenwerke nu in einer GPU oder in zwei sitzen spielt dabei überhaupt keine Rolle. Wie gut/schlecht die Skalierung ist, hängt ganz davon ab, wie viele Rechenwerke ich habe und wie groß der sequenzielle Programmanteil ist (Cachingeffekte etc mal außen vor). Man kann also gar nicht sagen, ne Dual-GPU skaliert so und so viel schlechter.

Unter 90% Parallelität lohnt es sich eh kaum was Multicore zu machen, und für ne GPU schon gleich 10 mal nicht. Da hat man nur einen Beschleunigungsfaktor von rund 10-15 das lohnt nicht, da man ja die Daten auch erst mal rüber scheffeln muss etcpp (PS: man geht ja immer von einem einzelnen Kern aus, und die Leistung eines GPU-Kerns ist misserabel)

Man wird also einen Wert haben, wo man ca. 99,99-99,999% Parallelität hat. Das hört sich verdammt viel an, aber wenn man an die typischen Probleme denkt, schafft man da auch noch weit aus höhere Werte ohne Probleme. Man kann also auch mit 2 GPUs locker besser skalieren als mit dem 20% Verlust den du angesprochen hast. (Zumal man das ja wie gesagt eh überhaupt nicht so allgemein sagen kann) Davon das man sogar Superskalarität erreichen kann unter Umständen mal ganz zu schweigen.
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Nein leider nicht. Der Desktop Bereich treibt zwar viele Entwicklungen im HPC Bereich an, weil durch diesen die Sachen erst finanzierbar werden, aber ist halt auch oft ein Klotz am Bein wie hier. Die Chips sind ja für die Profi-Karten und die normalen Consumer-Karten die gleichen. Ergo hast du auch nur einen 16x PCI-E Controller etc.

Es geht hier um dual-GPU Karten, diese haben 2x PCIe x16...

Z.B. arbeiten die 64Bit Prozessoren physikalisch noch immer "nur" mit 48-Bit Adressen

Ja, die lausigen x86-64Bit CPUs; wozu gibt es auch entsprechende Mainframe CPUs wie etwa POWER 7, ITANIUM/Tukwila oder SPARC T3

Will man aus Kosten oder sonstigen Gründen auf mehr oder weniger herkömmliche PC CPUs setzen sollte man sich nicht wundern, wenn man auf Probleme trifft

Dual GPU Karten sind mit herkömmlichen GPUs, die nicht dafür gebaut wurden (was ja bei allen Dual GPU Karten in jüngerer Vergangenheit der Fall war) so oder so prinzipiell eine Pfuschlösung...
Naja, wirklich Pfusch nicht, aber man hat halt 2 Einschränkungen normal mehr, als man eh schon hat (und man hat eigentlich schon mit einer GPU zu viele...). PCI-E muss geteilt werden, was je nach Aufgabe halt in 1-50% weniger Leistung enden kann, und dann noch das Problem, das die normalen Dual-GPUs niedriger getaktet sind. Wenn man die zweite also nicht vernünftig verwenden kann, hat man auch noch ne langsamere Karte, als wenn man nur eine GPU hat....

Die wichtigsten Einschränkungen sehen ganz anders aus...

Die wichtigste ist definitiv die nur sehr begrenzte Kommunikation zwischen den GPUs; da diese so nur suboptimal ist führt das am Ende zum AFR Verfahren, bei dem man die GPUs relativ unabhängig voneinander abwechselnd Bilder berechnen lässt- mit bekannten (enormen) Problemen...

Auch die (damit durchaus zusammenhängende) Tatsache, dass de-facto der VRAM zwei mal mit den selben Daten belegt ist und so extrem ineffizient genutzt wird ist sehr unschön

Wären GPUs von Grundauf für Multi-GPU Systeme/Karten gebaut, mit einem Hochgeschwindigkeitsbus zur Anbindung an andere GPUs, besserer Speicheraufteilung, und der Fähigkeit effektiver Aufgaben bei der 3D und 2D Berechnung eines Bildes auf die einzelnen GPUs zu verteilen könnten Multi GPU Systeme einerseits sehr viel besser skalieren und hätten andererseits die bekannten, gravierenden Probleme großteils nicht

Die von dir genannten Probleme sind dagegen eher gering (du hast wohl Probleme im Vergleich zu zwei einzelnen GPUs gemeint); die Taktraten sind sowieso "nur" eine Frage der Kühlung, der PCIe Bus ist zwar ein gewisses Hinderniss aber bei weitem nicht das größte Problem- und dieses Problem sollte mit PCIe 3.0 in absehbarer Zukunft mittelfristig aus der Welt geschafft werden...

Das ist nicht zum zocken gedacht ;)

Wenn nicht dafür, wofür braucht man denn sonst so viel GPU Leistung... in einem PC...
 
Zuletzt bearbeitet:
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Nein, gibt es so wie du meinst nicht. Die Karten setzen auf das gleiche PCI-E Interface. Da hast du zu 100% die gleiche Situation wie bei den Consumer-Karten.

Das weis ich - Es ging mir um die GPU/Platine - bei den Tesla Karten hat jede Karte(GPU) ihr PCIe interface. Wenn man mehr als eine GPU braucht nimmt man mehrere Karten. Im Gamerbereich gibts eben die zwischenlösung mit 2 GPUs auf einer Platine, ein Konfig die offenbar für den HPC bereich nicht optimal ist. Im Gamerbereich stört das 16x interface über den nF200 jedenfalls nicht.

Jetzt erzählst du aber Stuss XE85......

Achso? Na dann schau dir mal an wie SLI und Crossfire aktuell skalieren. 80% mehr Leistung gegenüber einer GPU sind aktuell das maximal mögliche. Wenn du pech hast sind es gar 0%. Und das gleiche gilt natürlich auch für eine Dual GPU Karte.

Und genau darum gehts mir, man hat bei einer Dual GPU Karte Nachteile beim Takt (von extremen Ausnahmen mal anbgesehn), eine schlechte Skalierung und die sonst üblichen Dual GPU Nachteile (MR, IL,...) - wer da über die 0-4% durch das interface meckert dem ist nicht mehr zu helfen.

mfg
 
Zuletzt bearbeitet:
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

^^ Zwecks kühlung ^^ (http://extreme.pcgameshardware.de/newreply.php?do=newreply&p=2999672)
Also für die Kühlung baut man einfach eine GPU unten und einen oben auf die Karte dann kloppt man 2x Alpenföhn Peter drauf und belüftet sie mit 4x Scythe Gentle Typhoon Lüfter 5400 rpm @ 50db :devil:(120mm) fertig. Das sollte die Karte dann in nem angenhmen bereich halten :ugly:.

Edit: Naja bei der Kühlung wäre man so bei 180€ ist doch nicht viel XD

Ich finde meine Idee richtig gut wäre dann halt min. 3er Slot XD
Das würde einfach nur so abartig Böse ausschaun
 
AW: Computex 2011: Asus präsentiert eine GTX 595 Ares

Ich finde meine Idee richtig gut wäre dann halt min. 3er Slot XD
Das würde einfach nur so abartig Böse ausschaun

Sowohl bei der MARS als auch bei der ARES (1) hat Asus mit enormem Aufwand versucht sich auf zwei Slots zu beschrenken; würde micht sehr wundern, wenn es diesmal anders wäre
 
Zurück