• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte gefragt. Beachten Sie dabei unsere Forenregeln.

Zurück zum Artikel: Test Geforce GT 240: Nvidias schnellste DirectX-10.1-Grafikkarte
 

frEnzy

Software-Overclocker(in)
@Nvidia: Zu spät, zu langsam, zu teuer

Moment... die Karte gibts ab ca. 75,- zzgl. Versand. Die erheblich schnellere 4770 gibts bereits ab 70,- zzgl. Versand. Und jetzt meine Frage:

Wer sollte die GT240 kaufen wollen? Und wenn ja: Warum???
 

Bucklew

Gesperrt
Krass, die GT240 mit 260GFlops ist schneller im Computing als die HD4830 mit 740 GFlops :ugly:

Schade, dass Lautsärke und Stromverbrauch fehlen, das sind bei solchen Karten sehr wichtige Eckdaten.
 

kuer

BIOS-Overclocker(in)
AW: @Nvidia: Zu spät, zu langsam, zu teuer

Moment... die Karte gibts ab ca. 75,- zzgl. Versand. Die erheblich schnellere 4770 gibts bereits ab 70,- zzgl. Versand. Und jetzt meine Frage:

Wer sollte die GT240 kaufen wollen? Und wenn ja: Warum???


Es gibt halt Leute die bevorzugen NV Produkte.:schief:
 

PCGH_Carsten

Ex-Redakteur
Krass, die GT240 mit 260GFlops ist schneller im Computing als die HD4830 mit 740 GFlops :ugly:

Schade, dass Lautsärke und Stromverbrauch fehlen, das sind bei solchen Karten sehr wichtige Eckdaten.
Ja, deswegen gehen wir in der Print-Marktübersicht auch ausführlich auf diese Eckdaten ein. Bei einem Referenz-Chipsatz-Test Nicht-Referenz-Modelle für solche Messungen herzunehmen ist aber IMO etwas sinnlos.
 

BigBubby

PCGH-Community-Veteran(in)
Vielleicht eine Blöde frage, aber warum nur dx9 testen, wenn es eine dx10 und sogar dx10.1 ist.
Gerade da wäre es doch mal interessant, wie gut es funktioniert
 

deekey777

Komplett-PC-Käufer(in)
Siehe Marktübersicht in der kommenden PCGH 01/2010. Da es eh alles Partner-Board sind...

MSI:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 33 / 34
Oh je, ihr habt entdeckt, dass PowerDirector 8 (und 7 und MSE und MS5) auf Radeons laufen.
Habt ihr nebenbei die Taktraten der Radeons kontrolliert? Bei PD8 bin ich mir nicht ganz sicher, aber zB MSE nutzt DXVA der Radeons, was dazu führt, dass diese während der Umwandlung mit UVD-Takt laufen. Das kann sogar von Vorteil sein, da die CPU nicht die bremsende Komponente ist.
 

Phenom BE

Freizeitschrauber(in)
Warum sieht Nvidia nicht ein, dass das DX10.1 rennen gegen ATI verloren ist und setzt mehr auf DX11. Dann hätten die vllt. schon eine DX11 KArte draußen, statt nur einen Dummy.
 

kakerlake

Kabelverknoter(in)
Schöner Test

Aber eine kleine Frage bzw. Berichtigung einer Angabe:

Warum schreibt der Autor die 1700Mhz bei der GDDR5-Variante wäre die Summe der beiden Writeclocks?

Das impliziert, dass eine einzelne Writeclock (die nicht dem Namen nach nur für Schreibvorgänge zuständig ist, sondern auch für Lesevorgänge) mit 850Mhz getaktet ist und der demzufolge pro Takt 32bit zugewiesen werden, um die Datenrate aufrecht zu erhalten. Bei 2WCK wäre das ein 64bit Datenwort pro Takt, ein Speicherchip GDDR5 ist aber nur 32bit breit.

Die Aussage ist also so nicht richtig.

Es gibt 2 Writeclocks, die übertragen aber nicht 2x 32bit bei 850 Mhz,
sondern 2x 16bit bei 1700 Mhz.

Hier ein Zitat aus dem Quimonda White Paper zu GDDR5:

GDDR5 operates with two different clock types. A differential command clock (CK) to where address and command inputs
are referenced, and a forwarded differential write clock (WCK) where read and write data are referenced to. Being more
precise, the GDDR5 SGRAM uses two write clocks, each of them assigned to two bytes. The WCK runs at twice the CK
frequency. Taking a GDDR5 with 5 Gbps data rate per pin as an example, the CK clock runs with 1.25 GHz and WCK with
2.5 GHz.
Hier der Link dazu:
http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf

Das Zitat findet ihr unter 2.1 Clocking.
Die Aussagen anderer Hersteller in ihren Productpapers decken sich.

Der Text beschreibt es eindeutig:

Jede der beiden Writeclocks ist verknüpft mit 2 Bytes (16bit) und taktet doppelt so hoch wie die Commandclock.
Mit 2 WCK liest/schreibt man also genau 2x16bit pro Takt aus einem Speicherchip, dessen 32bit-Breite somit nicht verletzt wird.
Der Takt jeder WCK ist bei GDDR5-Karte im Test also 1700Mhz und diese summiert sich auch nicht, die Bitbreite von 16 für jede WCK summiert sich auf die benötigten 32bit.
Die Commandclock, über die Adressierung und Befehle laufen, aber keine Daten, ist mit 850Mhz getaktet.


Deshalb hier mein Vorschlag an den Autor als zusätzliche Angabe zum GDDR5-Takt:

statt das verwirrende und falsche
"angegeben ist die Summe der beiden Writeclocks",

lieber
"angegeben ist der Takt der Datenleitungen"

Gruß
Kakerlake
 

PCGH_Carsten

Ex-Redakteur
Oh je, ihr habt entdeckt, dass PowerDirector 8 (und 7 und MSE und MS5) auf Radeons laufen.
Habt ihr nebenbei die Taktraten der Radeons kontrolliert? Bei PD8 bin ich mir nicht ganz sicher, aber zB MSE nutzt DXVA der Radeons, was dazu führt, dass diese während der Umwandlung mit UVD-Takt laufen. Das kann sogar von Vorteil sein, da die CPU nicht die bremsende Komponente ist.
Oje, deekey777 hat ein Thema entdeckt, zu dem er etwas beitragen möchte. :ugly:(findest du sowas freundlich? Ich nicht.)

Manche Radeons nutzten den UVD-Takt, manche den vollen 3D-Takt, bei manchen schwankte es. So - und nun? Müsste eine 5870 (welche nebenbei bemerkt auf vollem Takt lief) nicht auch auf ihrem UVD-Takt, sogar im 2D-Takt mit 157 MHz schneller als eine 4670 sein?
 

PCGH_Carsten

Ex-Redakteur
Schöner Test

Aber eine kleine Frage bzw. Berichtigung einer Angabe:

Warum schreibt der Autor die 1700Mhz bei der GDDR5-Variante wäre die Summe der beiden Writeclocks?

Das impliziert, dass eine einzelne Writeclock (die nicht dem Namen nach nur für Schreibvorgänge zuständig ist, sondern auch für Lesevorgänge) mit 850Mhz getaktet ist und der demzufolge pro Takt 32bit zugewiesen werden, um die Datenrate aufrecht zu erhalten. Bei 2WCK wäre das ein 64bit Datenwort pro Takt, ein Speicherchip GDDR5 ist aber nur 32bit breit.

Die Aussage ist also so nicht richtig.

Es gibt 2 Writeclocks, die übertragen aber nicht 2x 32bit bei 850 Mhz,
sondern 2x 16bit bei 1700 Mhz.

Hier ein Zitat aus dem Quimonda White Paper zu GDDR5:

Hier der Link dazu:
http://www.qimonda.com/static/download/products/Qimonda_GDDR5_whitepaper.pdf

Das Zitat findet ihr unter 2.1 Clocking.
Die Aussagen anderer Hersteller in ihren Productpapers decken sich.

Der Text beschreibt es eindeutig:

Jede der beiden Writeclocks ist verknüpft mit 2 Bytes (16bit) und taktet doppelt so hoch wie die Commandclock.
Mit 2 WCK liest/schreibt man also genau 2x16bit pro Takt aus einem Speicherchip, dessen 32bit-Breite somit nicht verletzt wird.
Der Takt jeder WCK ist bei GDDR5-Karte im Test also 1700Mhz und diese summiert sich auch nicht, die Bitbreite von 16 für jede WCK summiert sich auf die benötigten 32bit.
Die Commandclock, über die Adressierung und Befehle laufen, aber keine Daten, ist mit 850Mhz getaktet.


Deshalb hier mein Vorschlag an den Autor als zusätzliche Angabe zum GDDR5-Takt:

statt das verwirrende und falsche
"angegeben ist die Summe der beiden Writeclocks",

lieber
"angegeben ist der Takt der Datenleitungen"

Gruß
Kakerlake
:daumen:
Danke, das PDF kenne ich. Allerdings habe ich den von dir zitierten Absatz wohl falsch verstanden.
 

Apokalypsos

Freizeitschrauber(in)
Schau dir mal die Leistungsaufnahme an:

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 28 / 34

Es kommt nicht nur auf die fps-Balken an, für einen HTPC ist die Karte wohl die deutlich bessere Wahl. Die ATI schluckt schon im Idle knapp das 3fache(!) an Leistung.

Naja, die HD4770 ist ja auch ein klein wenig schneller, nicht? ;)
Ich finde diese Tabellen hier wesentlich interesanter:

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 31 / 34

techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 32 / 34

Der Verbrauch passt, die Karte ist nur einfach zu teuer für die gebotene Performance.
 

Genghis99

PCGH-Community-Veteran(in)
Sowas nenn ich OEM Karte. Ausser für Büro und HTPC nicht zu gebrauchen. Aber man wird sie in vielen 1000 Fertig PC finden - vielleicht im nächsten Aldi PC. Das macht durchaus Sinn - kann man doch ein kleines (billigeres) Netzteil einbauen. Bei 1000 Stück rechnet sich das.

Ärgerlich ist, das NVidia zugunsten der DX10 (210-240) Serie die anderen G200 Modelle praktisch nicht mehr produzieren lässt. Für Spieler wäre ein Update mit DX10 z.B. für die GF260 oder 275 interessant gewesen - aber leider rentieren sich grosse Chips bei der schlechten Ausbeute von TSMC zur Zeit nicht.
 

Bucklew

Gesperrt
Naja, die HD4770 ist ja auch ein klein wenig schneller, nicht? ;)
Was beim Einsatz als Karte im HTPC oder auch Büro niemanden interessiert. Es gibt eben verschiedene Einsatzgebiete, wer eben mehr spielt holt sich die ATI, wer weniger spielt und dafür weniger Stromverbrauch haben will die Nvidia.

Viele vergessen, dass auch ATI in der entsprechenden Leistungsklasse kein DX11 hat und Nvidia jetzt das gesamte Low/Midend mit billig zu produzierenden 40nm-GPUs ausgestattet hat. Wann ATI das schafft ist angesichts der Probleme mit dem Highend fraglich.
 

Graywulf28

Komplett-PC-Aufrüster(in)
Bucklew mach bitte weiter, du schreibst mit Abstand die lustigsten Posts :hail:

@GT 240:
Ist sicher gut für OEMs, ansonsten Elektroschrott ...
 

deekey777

Komplett-PC-Käufer(in)
Oje, deekey777 hat ein Thema entdeckt, zu dem er etwas beitragen möchte. :ugly:(findest du sowas freundlich? Ich nicht.)
Ich sehe keine Balken mit PowerDirector in den letzten Tests zur HD5000-Serie. Oder ArcSoft TMT mit dessen Hochskalierung.

Manche Radeons nutzten den UVD-Takt, manche den vollen 3D-Takt, bei manchen schwankte es. So - und nun? Müsste eine 5870 (welche nebenbei bemerkt auf vollem Takt lief) nicht auch auf ihrem UVD-Takt, sogar im 2D-Takt mit 157 MHz schneller als eine 4670 sein?
Also war die Videobeschleunigung nicht aktiv. MSE (und MS5) hat dafür eine Option, wo man die Anzahl der Threads einstellen kann. Das senkt die Dauer der Umwandlung gewaltig, da mein kleiner X2 4200+ mit H.264 mit gleichen Opionen wie bei einer Blu-ray überfordert ist. Auch die HD2000/3000, soweit sie UVD haben, können die CPU unterstützen (sie können ja Videos nicht umwandeln).
 

Apokalypsos

Freizeitschrauber(in)
Viele vergessen, dass auch ATI in der entsprechenden Leistungsklasse kein DX11 hat und Nvidia jetzt das gesamte Low/Midend mit billig zu produzierenden 40nm-GPUs ausgestattet hat. Wann ATI das schafft ist angesichts der Probleme mit dem Highend fraglich.

Nachdem Ati mit den HD43xx bis HD46xx Karten ein sehr breites Angebot in diesem Sektor hat, besteht hier wohl kaum Handlungsbedarf. Die im alten 55nm-Verfahren gefertigte HD4670 ist der GT 240, was Leistung und Verbrauch angeht, fast ebenbürtig. Sie kostet dafür aber um einiges weniger.

Außerdem ist, denke ich, mittlerweile jedem klar, dass die "Probleme im Highend" (ich vermute, du sprichst von der Lieferbarkeit) ausschließlich von TSMC ausgehen und NVidia davongenauso betroffen sein würde, wenn sie jetzt entsprechende High-End Chips auf den Markt werfen wollten.
Von daher ist ein späteres Erscheinem des Fermi-Chips natürlich ein schlauer Zug, da man davon ausgehen kann, dass die Fertigung bis dahin runder läuft.
 

PCGH_Carsten

Ex-Redakteur
Ich sehe keine Balken mit PowerDirector in den letzten Tests zur HD5000-Serie. Oder ArcSoft TMT mit dessen Hochskalierung.
Was ist das für eine Logik? Wir testen ja auch nicht mehr mit Final Reality und 'Queke' 3 Arena.
edit: Sprich: Dürfen wir unsere Testmethoden nicht erweitern?

Also war die Videobeschleunigung nicht aktiv. MSE (und MS5) hat dafür eine Option, wo man die Anzahl der Threads einstellen kann. Das senkt die Dauer der Umwandlung gewaltig, da mein kleiner X2 4200+ mit H.264 mit gleichen Opionen wie bei einer Blu-ray überfordert ist. Auch die HD2000/3000, soweit sie UVD haben, können die CPU unterstützen (sie können ja Videos nicht umwandeln).
Doch, schon. Es ging ja deutlich schneller als mit der CPU allein. Das habe ich jedesmal in einem Kontrolldurchlauf gegentestet (die Werte stehen auch im Diagramm).

Oder gibt es da Tricks, die Cyberlink dem User zumutet? Reicht ein gut versteckter Knopf unter "Einstellungen" -> Ati Stream Technology aktivieren nicht?
 

Bucklew

Gesperrt
Nachdem Ati mit den HD43xx bis HD46xx Karten ein sehr breites Angebot in diesem Sektor hat, besteht hier wohl kaum Handlungsbedarf. Die im alten 55nm-Verfahren gefertigte HD4670 ist der GT 240, was Leistung und Verbrauch angeht, fast ebenbürtig. Sie kostet dafür aber um einiges weniger.
Nur das die 4670 eben deutlich langsamer ist:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 30 / 34
Wobei das in diesem Gebiete eh ziemlich egal ist. Wichtiger ist eben z.B. die Stromaufnahme und da ist die GT240 sehr gut, vorallem was das Performance/Watt-Verhältnis angeht:
techPowerUp :: MSI N240GT GeForce GT 240 512 MB GDDR5 Review :: Page 31 / 34
Das sie etwas teurer ist liegt natürlich auch daran, dass sie noch neu ist.

Dennoch werden die Karten GT240/GT220/G210 die Cashcows sein, die den Gewinn einfahren.

Außerdem ist, denke ich, mittlerweile jedem klar, dass die "Probleme im Highend" (ich vermute, du sprichst von der Lieferbarkeit) ausschließlich von TSMC ausgehen und NVidia davongenauso betroffen sein würde, wenn sie jetzt entsprechende High-End Chips auf den Markt werfen wollten.
Von daher ist ein späteres Erscheinem des Fermi-Chips natürlich ein schlauer Zug, da man davon ausgehen kann, dass die Fertigung bis dahin runder läuft.
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?
 

MasterOhh

Komplett-PC-Aufrüster(in)
Also zum zocken gibt es zu dieser Karte im gleichen Preissegment bessere alternativen. Vieleicht kommt sie aber in irgendwelchen Fertig PCs unter.
Im Officebereich wird sie wohl eher nicht eingesetzt. Dafür ist die entweder zu potent (für Word, Excel und andere Bürosoftware reichen die Onboard Chips von Intel, die haben nicht von ungefähr 60% Marktanteil im Grafikkartenmarkt) oder zu schwach (wer Grafikpower braucht wird sicher nicht zur Sparvariante greifen).

Bemerkenswert finde ich aber das NVidia DX10.1, implementiert hat. Gibt es einen Grund dafür? Immerhin haben sie ja ein Jahr vorher noch dagegen gewettert was das Zeug hielt.
 

deekey777

Komplett-PC-Käufer(in)
Was ist das für eine Logik? Wir testen ja auch nicht mehr mit Final Reality und 'Queke' 3 Arena.
edit: Sprich: Dürfen wir unsere Testmethoden nicht erweitern?
Es wird oft hingewiesen, dass mittels Cuda einige Anwendungen beschelunigt werden, so gar ganz ohne Balken:

Doch, schon. Es ging ja deutlich schneller als mit der CPU allein. Das habe ich jedesmal in einem Kontrolldurchlauf gegentestet (die Werte stehen auch im Diagramm).

Oder gibt es da Tricks, die Cyberlink dem User zumutet? Reicht ein gut versteckter Knopf unter "Einstellungen" -> Ati Stream Technology aktivieren nicht?
Es geht nicht um das Encoding über die GPU, sondern um (zusätzliches) Decoding. Bei MSE findet man diese Option, indem man auf die Tasse Espresso drückt. Die meisten Reviews der HD4200 haben mit MSE getestet, um die Entlastung der CPU während der Umwandlung durch UVD zu zeigen (die HD4200 kann ja nur dekodieren).
Darum frage ich, ob PD8 nicht auch über die gleiche Option verfügt, denn einmal hüpft der Takt nicht herum (konstant UVD-Takt), dann muss die CPU sich nicht um das Decoding kümmern, was je nach System die Dauer der Umwandlung senkt.
(Wenn man diese Option nutzt, ist die Angabe der Taktraten natürlich für den Arsch)
 

Die Stämme Spieler

Kabelverknoter(in)
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?

1. Amd hat mit der Mittelklasse die 40nm eingeleitet, siehe 4770

2. Nvidia fängt beim Fermi doch selber oben an, nämlich mit den Tesla

3. Amds Low\Midrange ist eben immernoch konkurenzfähig. Gerade die Radeon 4350, die für HTPC ausreicht und extrem wenig Strom zieht.

4. Meiner Meinung nach sollte von Nvidia lieber mal Fermi fertig gestellt werden bzw endlich kaufbar sein.
 

Bucklew

Gesperrt
1. Amd hat mit der Mittelklasse die 40nm eingeleitet, siehe 4770
Stimmt, danach kam aber nix, bis jetzt zum Highend - was ja auch nicht wirklich zu funktionieren scheint.

2. Nvidia fängt beim Fermi doch selber oben an, nämlich mit den Tesla
Ja, mit einer neuen Archiektur, aber nicht mit 40nm. Der wurde jetzt erst mit G210/GT220/GT240 eingeführt.

3. Amds Low\Midrange ist eben immernoch konkurenzfähig. Gerade die Radeon 4350, die für HTPC ausreicht und extrem wenig Strom zieht.
~ ähnlich viel wie die HD4670 (Link) und damit ungefähr auf dem Niveau der GT240/GT220 - bei allerdings deutlich weniger Leistung. Die durchaus interessant sein kann in gewissen Grenzen, man denke mal an DVD-Upscaling.

4. Meiner Meinung nach sollte von Nvidia lieber mal Fermi fertig gestellt werden bzw endlich kaufbar sein.
Wie sagt man so schön? When it's done ;)
 

PCGH_Carsten

Ex-Redakteur
Es wird oft hingewiesen, dass mittels Cuda einige Anwendungen beschelunigt werden, so gar ganz ohne Balken:
Jetzt weisen wir nicht mehr darauf hin, sondern nutzen Balken wenn wir Zeit haben, welche zu malen. Benchmarkmethoden evolved?


Es geht nicht um das Encoding über die GPU, sondern um (zusätzliches) Decoding. Bei MSE findet man diese Option, indem man auf die Tasse Espresso drückt. Die meisten Reviews der HD4200 haben mit MSE getestet, um die Entlastung der CPU während der Umwandlung durch UVD zu zeigen (die HD4200 kann ja nur dekodieren).
Darum frage ich, ob PD8 nicht auch über die gleiche Option verfügt, denn einmal hüpft der Takt nicht herum (konstant UVD-Takt), dann muss die CPU sich nicht um das Decoding kümmern, was je nach System die Dauer der Umwandlung senkt.
(Wenn man diese Option nutzt, ist die Angabe der Taktraten natürlich für den Arsch)
MSE ist eine ziemlich wenig potente Anwendung - man kann zum Beispiel keine Werbung aufgenommener Fernsehsendungen herausschneiden; daher haben wir uns für das interessantere Power Director entschieden. Dieses bietet nur einen Knopf unter "Bearbeiten" -> "Voreinstellungen" -> "Bearbeitung": GPU-Beschleunigung aktivieren. Dort gibt's je nach eingesetzter Grafikkarte Ati Stream oder eben Cuda. Laut Schaltfläche im Menü wird die GPU nur für die Codierung des Videos eingesetzt. Allerdings läuft der übertaktete Core i7 (hier inklusive SMT) nicht bei 100% Auslastung, daher sollte die möglicherweise auf der CPU stattfindende HD-MPEG2 Dekodierung nicht allzusehr ins Gewicht fallen. HD-MPEG2 schaffen sogar ziemlich alte Rechner noch.
 

mr-lo

Komplett-PC-Aufrüster(in)
Deswegen fängt man ja auch mit kleineren Karten auf der alten Basis von unten an und nähert sich dann dem Highend. Vom frühen erscheinen der RV870-Karten kann ATI keinen großen Vorteil ziehen, wirkliche Stückzahlen dauern wohl auch da noch bis Anfang nächsten Jahres, das Weihnachtsgeschäft verpasst ATI auch zum großen Teile. Und ob nun ein Lowend Modell DX10.1 oder DX11 hat - wayne. Um ATIs Low/Midrange ist es ja auch sehr leise gewordne, sollten die nicht noch dieses Jahr vorgestellt werden?
Ähm, AMD hat doch mit der HD5750/HD5770 Mittelklassegrafikkarten veröffentlicht. Lowend soll Anfang nächsten Jahres rauskommen(angeblich im 45nm-Verfahren bei GF gefertigt).
Warum soll nun AMD schuld sein, dass TSMC die 40nm-Fertigung nicht gebacken bekommt?

Die schlechte Yieldrate hat auch was guten. Jede Menge Chips (ala HD5830) bleiben ürbig um die Lücke zwischen HD5850 und HD5770 zu schließen.:schief:
 

Two-Face

PCGH-Community-Veteran(in)
Ich frage mich, wieso bei Grafikkarten dieser Leistungsklasse oft rote Platinen verwendet werden:schief: Entsteht da nicht der Eindruck einer Radeon?
 

BigBubby

PCGH-Community-Veteran(in)
@PCGH was ist denn nun mit dx10.1?
hat die da so schlecht abgeschnitten, oder warum habt ihr das nicht veröffentlicht oder begenched?
 

Nobbis

Software-Overclocker(in)
@Two-Face - wo is eine rote Platine? Wär es eine ATI in dem Preissegment wären mehr Frames die Folge.

DAs Fazit auf CB sagt, sie wäre nichtmal einer 9600GT gewachsen.

Ich muss trotzdem jedesmal lachen, wenn wieder eine DX10.1 Nvidia Karte erscheint.
 
Oben Unten