Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte
 
@Nvidia: Zu spät, zu langsam, zu teuer

Moment... die Karte gibts ab ca. 75,- zzgl. Versand. Die erheblich schnellere 4770 gibts bereits ab 70,- zzgl. Versand. Und jetzt meine Frage:

Wer sollte die GT240 kaufen wollen? Und wenn ja: Warum???
 
Krass, die GT240 mit 260GFlops ist schneller im Computing als die HD4830 mit 740 GFlops :ugly:

Schade, dass Lautsärke und Stromverbrauch fehlen, das sind bei solchen Karten sehr wichtige Eckdaten.
 
AW: @Nvidia: Zu spät, zu langsam, zu teuer

Moment... die Karte gibts ab ca. 75,- zzgl. Versand. Die erheblich schnellere 4770 gibts bereits ab 70,- zzgl. Versand. Und jetzt meine Frage:

Wer sollte die GT240 kaufen wollen? Und wenn ja: Warum???


Es gibt halt Leute die bevorzugen NV Produkte.:schief:
 
Krass, die GT240 mit 260GFlops ist schneller im Computing als die HD4830 mit 740 GFlops :ugly:

Schade, dass Lautsärke und Stromverbrauch fehlen, das sind bei solchen Karten sehr wichtige Eckdaten.
Ja, deswegen gehen wir in der Print-Marktübersicht auch ausführlich auf diese Eckdaten ein. Bei einem Referenz-Chipsatz-Test Nicht-Referenz-Modelle für solche Messungen herzunehmen ist aber IMO etwas sinnlos.
 
Vielleicht eine Blöde frage, aber warum nur dx9 testen, wenn es eine dx10 und sogar dx10.1 ist.
Gerade da wäre es doch mal interessant, wie gut es funktioniert
 
Siehe Marktübersicht in der kommenden PCGH 01/2010. Da es eh alles Partner-Board sind...

MSI:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 33 / 34
Oh je, ihr habt entdeckt, dass PowerDirector 8 (und 7 und MSE und MS5) auf Radeons laufen.
Habt ihr nebenbei die Taktraten der Radeons kontrolliert? Bei PD8 bin ich mir nicht ganz sicher, aber zB MSE nutzt DXVA der Radeons, was dazu führt, dass diese während der Umwandlung mit UVD-Takt laufen. Das kann sogar von Vorteil sein, da die CPU nicht die bremsende Komponente ist.
 
Warum sieht Nvidia nicht ein, dass das DX10.1 rennen gegen ATI verloren ist und setzt mehr auf DX11. Dann hätten die vllt. schon eine DX11 KArte draußen, statt nur einen Dummy.
 
Schöner Test

Aber eine kleine Frage bzw. Berichtigung einer Angabe:

Warum schreibt der Autor die 1700Mhz bei der GDDR5-Variante wäre die Summe der beiden Writeclocks?

Das impliziert, dass eine einzelne Writeclock (die nicht dem Namen nach nur für Schreibvorgänge zuständig ist, sondern auch für Lesevorgänge) mit 850Mhz getaktet ist und der demzufolge pro Takt 32bit zugewiesen werden, um die Datenrate aufrecht zu erhalten. Bei 2WCK wäre das ein 64bit Datenwort pro Takt, ein Speicherchip GDDR5 ist aber nur 32bit breit.

Die Aussage ist also so nicht richtig.

Es gibt 2 Writeclocks, die übertragen aber nicht 2x 32bit bei 850 Mhz,
sondern 2x 16bit bei 1700 Mhz.

Hier ein Zitat aus dem Quimonda White Paper zu GDDR5:

GDDR5 operates with two different clock types. A differential command clock (CK) to where address and command inputs
are referenced, and a forwarded differential write clock (WCK) where read and write data are referenced to. Being more
precise, the GDDR5 SGRAM uses two write clocks, each of them assigned to two bytes. The WCK runs at twice the CK
frequency. Taking a GDDR5 with 5 Gbps data rate per pin as an example, the CK clock runs with 1.25 GHz and WCK with
2.5 GHz.
Hier der Link dazu:
http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf

Das Zitat findet ihr unter 2.1 Clocking.
Die Aussagen anderer Hersteller in ihren Productpapers decken sich.

Der Text beschreibt es eindeutig:

Jede der beiden Writeclocks ist verknüpft mit 2 Bytes (16bit) und taktet doppelt so hoch wie die Commandclock.
Mit 2 WCK liest/schreibt man also genau 2x16bit pro Takt aus einem Speicherchip, dessen 32bit-Breite somit nicht verletzt wird.
Der Takt jeder WCK ist bei GDDR5-Karte im Test also 1700Mhz und diese summiert sich auch nicht, die Bitbreite von 16 für jede WCK summiert sich auf die benötigten 32bit.
Die Commandclock, über die Adressierung und Befehle laufen, aber keine Daten, ist mit 850Mhz getaktet.


Deshalb hier mein Vorschlag an den Autor als zusätzliche Angabe zum GDDR5-Takt:

statt das verwirrende und falsche
"angegeben ist die Summe der beiden Writeclocks",

lieber
"angegeben ist der Takt der Datenleitungen"

Gruß
Kakerlake
 
Oh je, ihr habt entdeckt, dass PowerDirector 8 (und 7 und MSE und MS5) auf Radeons laufen.
Habt ihr nebenbei die Taktraten der Radeons kontrolliert? Bei PD8 bin ich mir nicht ganz sicher, aber zB MSE nutzt DXVA der Radeons, was dazu führt, dass diese während der Umwandlung mit UVD-Takt laufen. Das kann sogar von Vorteil sein, da die CPU nicht die bremsende Komponente ist.
Oje, deekey777 hat ein Thema entdeckt, zu dem er etwas beitragen möchte. :ugly:(findest du sowas freundlich? Ich nicht.)

Manche Radeons nutzten den UVD-Takt, manche den vollen 3D-Takt, bei manchen schwankte es. So - und nun? Müsste eine 5870 (welche nebenbei bemerkt auf vollem Takt lief) nicht auch auf ihrem UVD-Takt, sogar im 2D-Takt mit 157 MHz schneller als eine 4670 sein?
 
Schöner Test

Aber eine kleine Frage bzw. Berichtigung einer Angabe:

Warum schreibt der Autor die 1700Mhz bei der GDDR5-Variante wäre die Summe der beiden Writeclocks?

Das impliziert, dass eine einzelne Writeclock (die nicht dem Namen nach nur für Schreibvorgänge zuständig ist, sondern auch für Lesevorgänge) mit 850Mhz getaktet ist und der demzufolge pro Takt 32bit zugewiesen werden, um die Datenrate aufrecht zu erhalten. Bei 2WCK wäre das ein 64bit Datenwort pro Takt, ein Speicherchip GDDR5 ist aber nur 32bit breit.

Die Aussage ist also so nicht richtig.

Es gibt 2 Writeclocks, die übertragen aber nicht 2x 32bit bei 850 Mhz,
sondern 2x 16bit bei 1700 Mhz.

Hier ein Zitat aus dem Quimonda White Paper zu GDDR5:

Hier der Link dazu:
http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf

Das Zitat findet ihr unter 2.1 Clocking.
Die Aussagen anderer Hersteller in ihren Productpapers decken sich.

Der Text beschreibt es eindeutig:

Jede der beiden Writeclocks ist verknüpft mit 2 Bytes (16bit) und taktet doppelt so hoch wie die Commandclock.
Mit 2 WCK liest/schreibt man also genau 2x16bit pro Takt aus einem Speicherchip, dessen 32bit-Breite somit nicht verletzt wird.
Der Takt jeder WCK ist bei GDDR5-Karte im Test also 1700Mhz und diese summiert sich auch nicht, die Bitbreite von 16 für jede WCK summiert sich auf die benötigten 32bit.
Die Commandclock, über die Adressierung und Befehle laufen, aber keine Daten, ist mit 850Mhz getaktet.


Deshalb hier mein Vorschlag an den Autor als zusätzliche Angabe zum GDDR5-Takt:

statt das verwirrende und falsche
"angegeben ist die Summe der beiden Writeclocks",

lieber
"angegeben ist der Takt der Datenleitungen"

Gruß
Kakerlake
:daumen:
Danke, das PDF kenne ich. Allerdings habe ich den von dir zitierten Absatz wohl falsch verstanden.
 
Zurück