Hat es für mich einen Vorteil ausser das ich Strom spare wenn ich diese Karte anstatt 2 einzelne R9 Furys nehme?? Mikroruckler haben doch sicher beide oder???
Die Leistungsaufnahme der Karte liegt dabei ungefähr bei 375 Watt. Im Vergleich dazu wartet die Radeon R9 295X2 mit einem Single-Precision-Compute von 11,5 TFLOPS auf. Hierbei liegt die TDP jedoch bei circa 500 Watt. Die Energieeffizienz der Gemini bezüglich Rechenleistung ist also ungefähr 40 Prozent höher als bei der R9 295X2.
Hat es für mich einen Vorteil ausser das ich Strom spare wenn ich diese Karte anstatt 2 einzelne R9 Furys nehme?? Mikroruckler haben doch sicher beide oder???
Äh... Und wenn die Gemini nur 250 Watt verbraucht dann ist sie 80% effizienter als die 295X2 obwohl sie immer noch 50% des Stroms verbraucht ? Eure 40% Angabe haut nicht hin, liebes PCGH Team.
Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.Problem an der Sache: Damit diese Karte ihre Power aussopielen könnte braucht man Auflösungen von UHD und darüber, da bringt die theoretische Power richtig was. Blöd nur, wenn die 4GB vRAM dann schon lange alle sind.
Richtig, jetzt hat AMD mal was gutes, aber der HBM 1 Speicher limitiert wieder in der größe. 4 GB Ram sind einfach zu wenig. Wenn ich GTA5 in WQHD Spiele hab ich schon gute 5Gb Ram verbraucht XD
Die Rechnung würde ich gern mal sehen. Es ist ja nicht getan mit einer 32-Bit-RGBA-Oberfläche – da wären es in der Tat nur wenige Megabyte (immer noch ein paar Größenordnungen über der Handvoll kBytes).Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.
In Rise of the Tomb Raider sind auch meine 6GB VRAM durchgehend bis zum letzen MB voll. Viele Spiele (ROTTR, Ark, Lords of the Fallen, Black Ops 3, GTA V, usw) cachen den Speicher einfach voll ohne negative Performance Probleme.
Nicht. Höhere Auflösungen kosten eine Handvoll kBytes VRam. Da machen 4 oder 6 GB keinen nennenswerten Unterschied. Oder 3,5 oder 4. Texturen und ob eine Engine über ein funktionierendes Streaming verfügt, sind da alles.
Die Rechnung würde ich gern mal sehen. Es ist ja nicht getan mit einer 32-Bit-RGBA-Oberfläche – da wären es in der Tat nur wenige Megabyte (immer noch ein paar Größenordnungen über der Handvoll kBytes).
Doch, das haut sehr wohl hin, lieber Pumpi.
Radeon R9 295X2: 11,5 TFLOPS / 500W = 0,023 TFLOPS/W
Gemini: 12 TFLOPS / 375W = 0,032 TFLOPS/W
0,032/0,023 = 1,40 (gerundet)
oder anders gesagt die Gemini ist 40% effizienter
(bei einem Wert von 1 wäre sie genauso effizient)
MFG
Vielleicht kannst du mir ja schreiben, was genau im VRAM alles mit der Auflösung skaliert, außer den drei benannten Puffern...
Na zum Beispiel alle intermediären Puffer, wie zum Beispiel der G-Buffer eines deferred Renderers/Shaders, der Engine, die oft – nicht immer – in Gleitkommagenauigkeit abgelegt sind, dazu gern auch die durch Multisample-AA aufgeblähten Bildpuffer.
Zum Beispiel belegt allein der G-Buffer für ein 4-MRT pro Pixel 64 Byte. Für Full HD sind das 132.710.400 Byte, für Ultra HD schon 530.841.600, ergo 506,25 MiByte. Allein für den G-Buffer.
Hier mal ein Beispiel, wie das auch praktisch gehandhabt werden kann - man braucht ja auch etwas Antialiasing, will aber nicht den kompletten Speicher vollprügeln:
https://books.google.de/books?id=TUuhiPLNmbAC&pg=PA96&lpg=PA96&ots=mSMd5jJ5iv&focus=viewport
(Aus GPU Pro v4 von Wolfgang Engel)
... und noch eins:
http://jcgt.org/published/0002/02/04/paper.pdf
AMDs Maßnahme schnell noch die alten GPUs raus zuhauen bevor sie keiner mehr will. Gab es nicht auch Gerüchte um eine NV Karte mit 2 Gpus
komischer Zufall. Wenn dann sollten sie die Preise ihrer High-End Karten senken wenn sie schon genau wissen das in 6 Monaten sie keiner mehr kaufen wird.
AMDs Maßnahme schnell noch die alten GPUs raus zuhauen bevor sie keiner mehr will. Gab es nicht auch Gerüchte um eine NV Karte mit 2 Gpus
komischer Zufall. Wenn dann sollten sie die Preise ihrer High-End Karten senken wenn sie schon genau wissen das in 6 Monaten sie keiner mehr kaufen wird.
Pascal wurde wahrscheinlich auf 2H verschoben, AMD hatte schon vor Nvidia eine Dual Karte angekündigt und während der letzten Präsentation wurde ein Stück Holz seitens Nvidia gezeigt was Pascal sein sollte