Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte

Schau dir mal die Leistungsaufnahme an:

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 28 / 34

Es kommt nicht nur auf die fps-Balken an, für einen HTPC ist die Karte wohl die deutlich bessere Wahl. Die ATI schluckt schon im Idle knapp das 3fache(!) an Leistung.

Naja, die HD4770 ist ja auch ein klein wenig schneller, nicht? ;)
Ich finde diese Tabellen hier wesentlich interesanter:

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 31 / 34

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 32 / 34

Der Verbrauch passt, die Karte ist nur einfach zu teuer für die gebotene Performance.
 
Sowas nenn ich OEM Karte. Ausser für Büro und HTPC nicht zu gebrauchen. Aber man wird sie in vielen 1000 Fertig PC finden - vielleicht im nächsten Aldi PC. Das macht durchaus Sinn - kann man doch ein kleines (billigeres) Netzteil einbauen. Bei 1000 Stück rechnet sich das.

Ärgerlich ist, das NVidia zugunsten der DX10 (210-240) Serie die anderen G200 Modelle praktisch nicht mehr produzieren lässt. Für Spieler wäre ein Update mit DX10 z.B. für die GF260 oder 275 interessant gewesen - aber leider rentieren sich grosse Chips bei der schlechten Ausbeute von TSMC zur Zeit nicht.
 
Naja, die HD4770 ist ja auch ein klein wenig schneller, nicht? ;)
Was beim Einsatz als Karte im HTPC oder auch Büro niemanden interessiert. Es gibt eben verschiedene Einsatzgebiete, wer eben mehr spielt holt sich die ATI, wer weniger spielt und dafür weniger Stromverbrauch haben will die Nvidia.

Viele vergessen, dass auch ATI in der entsprechenden Leistungsklasse kein DX11 hat und Nvidia jetzt das gesamte Low/Midend mit billig zu produzierenden 40nm-GPUs ausgestattet hat. Wann ATI das schafft ist angesichts der Probleme mit dem Highend fraglich.
 
Bucklew mach bitte weiter, du schreibst mit Abstand die lustigsten Posts :hail:

@GT 240:
Ist sicher gut für OEMs, ansonsten Elektroschrott ...
 
Oje, deekey777 hat ein Thema entdeckt, zu dem er etwas beitragen möchte. :ugly:(findest du sowas freundlich? Ich nicht.)
Ich sehe keine Balken mit PowerDirector in den letzten Tests zur HD5000-Serie. Oder ArcSoft TMT mit dessen Hochskalierung.

Manche Radeons nutzten den UVD-Takt, manche den vollen 3D-Takt, bei manchen schwankte es. So - und nun? Müsste eine 5870 (welche nebenbei bemerkt auf vollem Takt lief) nicht auch auf ihrem UVD-Takt, sogar im 2D-Takt mit 157 MHz schneller als eine 4670 sein?
Also war die Videobeschleunigung nicht aktiv. MSE (und MS5) hat dafür eine Option, wo man die Anzahl der Threads einstellen kann. Das senkt die Dauer der Umwandlung gewaltig, da mein kleiner X2 4200+ mit H.264 mit gleichen Opionen wie bei einer Blu-ray überfordert ist. Auch die HD2000/3000, soweit sie UVD haben, können die CPU unterstützen (sie können ja Videos nicht umwandeln).
 
Viele vergessen, dass auch ATI in der entsprechenden Leistungsklasse kein DX11 hat und Nvidia jetzt das gesamte Low/Midend mit billig zu produzierenden 40nm-GPUs ausgestattet hat. Wann ATI das schafft ist angesichts der Probleme mit dem Highend fraglich.

Nachdem Ati mit den HD43xx bis HD46xx Karten ein sehr breites Angebot in diesem Sektor hat, besteht hier wohl kaum Handlungsbedarf. Die im alten 55nm-Verfahren gefertigte HD4670 ist der GT 240, was Leistung und Verbrauch angeht, fast ebenbürtig. Sie kostet dafür aber um einiges weniger.

Außerdem ist, denke ich, mittlerweile jedem klar, dass die "Probleme im Highend" (ich vermute, du sprichst von der Lieferbarkeit) ausschließlich von TSMC ausgehen und NVidia davongenauso betroffen sein würde, wenn sie jetzt entsprechende High-End Chips auf den Markt werfen wollten.
Von daher ist ein späteres Erscheinem des Fermi-Chips natürlich ein schlauer Zug, da man davon ausgehen kann, dass die Fertigung bis dahin runder läuft.
 
Ich sehe keine Balken mit PowerDirector in den letzten Tests zur HD5000-Serie. Oder ArcSoft TMT mit dessen Hochskalierung.
Was ist das für eine Logik? Wir testen ja auch nicht mehr mit Final Reality und 'Queke' 3 Arena.
edit: Sprich: Dürfen wir unsere Testmethoden nicht erweitern?

Also war die Videobeschleunigung nicht aktiv. MSE (und MS5) hat dafür eine Option, wo man die Anzahl der Threads einstellen kann. Das senkt die Dauer der Umwandlung gewaltig, da mein kleiner X2 4200+ mit H.264 mit gleichen Opionen wie bei einer Blu-ray überfordert ist. Auch die HD2000/3000, soweit sie UVD haben, können die CPU unterstützen (sie können ja Videos nicht umwandeln).
Doch, schon. Es ging ja deutlich schneller als mit der CPU allein. Das habe ich jedesmal in einem Kontrolldurchlauf gegentestet (die Werte stehen auch im Diagramm).

Oder gibt es da Tricks, die Cyberlink dem User zumutet? Reicht ein gut versteckter Knopf unter "Einstellungen" -> Ati Stream Technology aktivieren nicht?
 
Nachdem Ati mit den HD43xx bis HD46xx Karten ein sehr breites Angebot in diesem Sektor hat, besteht hier wohl kaum Handlungsbedarf. Die im alten 55nm-Verfahren gefertigte HD4670 ist der GT 240, was Leistung und Verbrauch angeht, fast ebenbürtig. Sie kostet dafür aber um einiges weniger.
Nur das die 4670 eben deutlich langsamer ist:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 30 / 34
Wobei das in diesem Gebiete eh ziemlich egal ist. Wichtiger ist eben z.B. die Stromaufnahme und da ist die GT240 sehr gut, vorallem was das Performance/Watt-Verhältnis angeht:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 31 / 34
Das sie etwas teurer ist liegt natürlich auch daran, dass sie noch neu ist.

Dennoch werden die Karten GT240/GT220/G210 die Cashcows sein, die den Gewinn einfahren.

Außerdem ist, denke ich, mittlerweile jedem klar, dass die "Probleme im Highend" (ich vermute, du sprichst von der Lieferbarkeit) ausschließlich von TSMC ausgehen und NVidia davongenauso betroffen sein würde, wenn sie jetzt entsprechende High-End Chips auf den Markt werfen wollten.
Von daher ist ein späteres Erscheinem des Fermi-Chips natürlich ein schlauer Zug, da man davon ausgehen kann, dass die Fertigung bis dahin runder läuft.
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?
 
Also zum zocken gibt es zu dieser Karte im gleichen Preissegment bessere alternativen. Vieleicht kommt sie aber in irgendwelchen Fertig PCs unter.
Im Officebereich wird sie wohl eher nicht eingesetzt. Dafür ist die entweder zu potent (für Word, Excel und andere Bürosoftware reichen die Onboard Chips von Intel, die haben nicht von ungefähr 60% Marktanteil im Grafikkartenmarkt) oder zu schwach (wer Grafikpower braucht wird sicher nicht zur Sparvariante greifen).

Bemerkenswert finde ich aber das NVidia DX10.1, implementiert hat. Gibt es einen Grund dafür? Immerhin haben sie ja ein Jahr vorher noch dagegen gewettert was das Zeug hielt.
 
Was ist das für eine Logik? Wir testen ja auch nicht mehr mit Final Reality und 'Queke' 3 Arena.
edit: Sprich: Dürfen wir unsere Testmethoden nicht erweitern?
Es wird oft hingewiesen, dass mittels Cuda einige Anwendungen beschelunigt werden, so gar ganz ohne Balken:

Doch, schon. Es ging ja deutlich schneller als mit der CPU allein. Das habe ich jedesmal in einem Kontrolldurchlauf gegentestet (die Werte stehen auch im Diagramm).

Oder gibt es da Tricks, die Cyberlink dem User zumutet? Reicht ein gut versteckter Knopf unter "Einstellungen" -> Ati Stream Technology aktivieren nicht?
Es geht nicht um das Encoding über die GPU, sondern um (zusätzliches) Decoding. Bei MSE findet man diese Option, indem man auf die Tasse Espresso drückt. Die meisten Reviews der HD4200 haben mit MSE getestet, um die Entlastung der CPU während der Umwandlung durch UVD zu zeigen (die HD4200 kann ja nur dekodieren).
Darum frage ich, ob PD8 nicht auch über die gleiche Option verfügt, denn einmal hüpft der Takt nicht herum (konstant UVD-Takt), dann muss die CPU sich nicht um das Decoding kümmern, was je nach System die Dauer der Umwandlung senkt.
(Wenn man diese Option nutzt, ist die Angabe der Taktraten natürlich für den Arsch)
 
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?

1. Amd hat mit der Mittelklasse die 40nm eingeleitet, siehe 4770

2. Nvidia fängt beim Fermi doch selber oben an, nämlich mit den Tesla

3. Amds Low\Midrange ist eben immernoch konkurenzfähig. Gerade die Radeon 4350, die für HTPC ausreicht und extrem wenig Strom zieht.

4. Meiner Meinung nach sollte von Nvidia lieber mal Fermi fertig gestellt werden bzw endlich kaufbar sein.
 
1. Amd hat mit der Mittelklasse die 40nm eingeleitet, siehe 4770
Stimmt, danach kam aber nix, bis jetzt zum Highend - was ja auch nicht wirklich zu funktionieren scheint.

2. Nvidia fängt beim Fermi doch selber oben an, nämlich mit den Tesla
Ja, mit einer neuen Archiektur, aber nicht mit 40nm. Der wurde jetzt erst mit G210/GT220/GT240 eingeführt.

3. Amds Low\Midrange ist eben immernoch konkurenzfähig. Gerade die Radeon 4350, die für HTPC ausreicht und extrem wenig Strom zieht.
~ ähnlich viel wie die HD4670 (Link) und damit ungefähr auf dem Niveau der GT240/GT220 - bei allerdings deutlich weniger Leistung. Die durchaus interessant sein kann in gewissen Grenzen, man denke mal an DVD-Upscaling.

4. Meiner Meinung nach sollte von Nvidia lieber mal Fermi fertig gestellt werden bzw endlich kaufbar sein.
Wie sagt man so schön? When it's done ;)
 
Es wird oft hingewiesen, dass mittels Cuda einige Anwendungen beschelunigt werden, so gar ganz ohne Balken:
Jetzt weisen wir nicht mehr darauf hin, sondern nutzen Balken wenn wir Zeit haben, welche zu malen. Benchmarkmethoden evolved?


Es geht nicht um das Encoding über die GPU, sondern um (zusätzliches) Decoding. Bei MSE findet man diese Option, indem man auf die Tasse Espresso drückt. Die meisten Reviews der HD4200 haben mit MSE getestet, um die Entlastung der CPU während der Umwandlung durch UVD zu zeigen (die HD4200 kann ja nur dekodieren).
Darum frage ich, ob PD8 nicht auch über die gleiche Option verfügt, denn einmal hüpft der Takt nicht herum (konstant UVD-Takt), dann muss die CPU sich nicht um das Decoding kümmern, was je nach System die Dauer der Umwandlung senkt.
(Wenn man diese Option nutzt, ist die Angabe der Taktraten natürlich für den Arsch)
MSE ist eine ziemlich wenig potente Anwendung - man kann zum Beispiel keine Werbung aufgenommener Fernsehsendungen herausschneiden; daher haben wir uns für das interessantere Power Director entschieden. Dieses bietet nur einen Knopf unter "Bearbeiten" -> "Voreinstellungen" -> "Bearbeitung": GPU-Beschleunigung aktivieren. Dort gibt's je nach eingesetzter Grafikkarte Ati Stream oder eben Cuda. Laut Schaltfläche im Menü wird die GPU nur für die Codierung des Videos eingesetzt. Allerdings läuft der übertaktete Core i7 (hier inklusive SMT) nicht bei 100% Auslastung, daher sollte die möglicherweise auf der CPU stattfindende HD-MPEG2 Dekodierung nicht allzusehr ins Gewicht fallen. HD-MPEG2 schaffen sogar ziemlich alte Rechner noch.
 
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?
Ähm, AMD hat doch mit der HD5750/HD5770 Mittelklassegrafikkarten veröffentlicht. Lowend soll Anfang nächsten Jahres rauskommen(angeblich im 45nm-Verfahren bei GF gefertigt).
Warum soll nun AMD schuld sein, dass TSMC die 40nm-Fertigung nicht gebacken bekommt?

Die schlechte Yieldrate hat auch was guten. Jede Menge Chips (ala HD5830) bleiben ürbig um die Lücke zwischen HD5850 und HD5770 zu schließen.:schief:
 
Ich frage mich, wieso bei Grafikkarten dieser Leistungsklasse oft rote Platinen verwendet werden:schief: Entsteht da nicht der Eindruck einer Radeon?
 
@PCGH was ist denn nun mit dx10.1?
hat die da so schlecht abgeschnitten, oder warum habt ihr das nicht veröffentlicht oder begenched?
 
@Two-Face - wo is eine rote Platine? Wär es eine ATI in dem Preissegment wären mehr Frames die Folge.

DAs Fazit auf CB sagt, sie wäre nichtmal einer 9600GT gewachsen.

Ich muss trotzdem jedesmal lachen, wenn wieder eine DX10.1 Nvidia Karte erscheint.
 
Zurück