Nvidia: Neue 40nm-Desktop-Grafikchips mit DirectX 10.1?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia: Neue 40nm-Desktop-Grafikchips mit DirectX 10.1? gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Nvidia: Neue 40nm-Desktop-Grafikchips mit DirectX 10.1?
 
Erst kritisiert Nvidia Ati, weil sie GDDR5 und DX 10.1 unterstützen und jetzt, da sie es selbst tun, ist es das Größte. Ich sehs schon kommen, die Nvidia-Liebhaber werden das gleiche tun und jetzt für die Fortschritte schwärmen, die Ati schon längst gemacht hat. Nvidias CEO hat ja behauptet, Ati wäre ein Nachzügler. Tja wer ist jetzt der Nachzügler.
 
Erst kritisiert Nvidia Ati, weil sie GDDR5 und DX 10.1 unterstützen und jetzt, da sie es selbst tun, ist es das Größte. Ich sehs schon kommen, die Nvidia-Liebhaber werden das gleiche tun und jetzt für die Fortschritte schwärmen, die Ati schon längst gemacht hat. Nvidias CEO hat ja behauptet, Ati wäre ein Nachzügler. Tja wer ist jetzt der Nachzügler.

Ja sie haben ATI wegen DX10.1 runter gemacht. (obwohl ich selbst auch kein Sinn drinne sehe.) Nur wo haben sie ATI wegen dem Speicher kritisiert? Ist mir das entgangen?
 
Oh mann, das is doch nur dazu da, das die Leute auch NVIDIA Grakas kaufen, weil sie nicht nur bei ATI 10.1 haben, nein NVIDIA macht das jetzt auch und so gewinnen sie wieder Kunden, als Übergang zum GT300 chip... Ich freu mcihs chon auf den, die Graka is dann schon gekauft:D

NVIDIA FTW

Ati is schrott, keiner braucht 10.1 und GDDR5...

GDDR3-GDDR5 das is kein großer leistungsschritt, schau dir die Treiber von NVIDIA an, alleind as macht das wieder quitt.

Und 10.1 vs. 10.0 Das macht auch kaum was aus, beim Spielen merktst du von dem Unterschied eh kaum was. DX11 is wichtig

Auf GDDR5 kann man auch noch später zugreifen, NVIDIA is meienr meinugn nach immernoch Favourit. :devil:
 
GDDR3-GDDR5 das is kein großer leistungsschritt, schau dir die Treiber von NVIDIA an, alleind as macht das wieder quitt.

Und 10.1 vs. 10.0 Das macht auch kaum was aus, beim Spielen merktst du von dem Unterschied eh kaum was. DX11 is wichtig
GDDR 5 ist dopelt so schnell! :what:
Und 10.1 bringt schon was, zieh dir maln ungepatches Assassins Creed rein, mehr Leistung bei besserer Optik...


Aber naja, was soll man von nem Fanboy erwarten..

PS: Hier spricht ein 8800GTX Eigentümer
 
GDDR 5 ist dopelt so schnell! :what:
Und 10.1 bringt schon was, zieh dir maln ungepatches Assassins Creed rein, mehr Leistung bei besserer Optik...


Aber naja, was soll man von nem Fanboy erwarten..

PS: Hier spricht ein 8800GTX Eigentümer

DDR 5 würde nicht kritisiert wegen der Leistung sondern wegen der Probleme mit dem runtertakten und so...

@ toppic

Wer weiss, viellecht komme ich zu ATI zurück! Mal sehen wer das Rennen um DX11 Krone gewinnt!;)
 
GDDR3-GDDR5 das is kein großer leistungsschritt, schau dir die Treiber von NVIDIA an, alleind as macht das wieder quitt.

Die Leistung mag zwar gleich sein, aber:

1. Spart GDDR5 im Vergleich zum dreier Strom
2. Die Produktionskosten werden erheblich gesenkt. Einmal am PCB, weil es wenige komplizieten Leiterbahnen mehr gibt. Aber auch braucht man keine großen Speicherinterface mehr. Die auch ganz schön die Kosten treiben.

Mit den Treibern wäre ich mal vorsichtig. ATI muss immer viel nachträglich, durch ihre GPU-Architektur, verbessern. Bei NV läuft fast alles auf anhieb gut ausgelastet.
 
Oh mann, das is doch nur dazu da, das die Leute auch NVIDIA Grakas kaufen, weil sie nicht nur bei ATI 10.1 haben, nein NVIDIA macht das jetzt auch und so gewinnen sie wieder Kunden, als Übergang zum GT300 chip... Ich freu mcihs chon auf den, die Graka is dann schon gekauft:D

NVIDIA FTW

Ati is schrott, keiner braucht 10.1 und GDDR5...

GDDR3-GDDR5 das is kein großer leistungsschritt, schau dir die Treiber von NVIDIA an, alleind as macht das wieder quitt.

Und 10.1 vs. 10.0 Das macht auch kaum was aus, beim Spielen merktst du von dem Unterschied eh kaum was. DX11 is wichtig

Auf GDDR5 kann man auch noch später zugreifen, NVIDIA is meienr meinugn nach immernoch Favourit. :devil:
Genau das hab ich gemeint. Ich will dich ja nicht beleidigen, aber du führst dich auf wien Fanboy. Tut mir leid aber is so. Nvidia ist vielleicht auch deswegen in vielen Spielen besser, weil sie sich massiv in die Entwicklung einmischen und die Entwickler drängen, das Spiel so zu programmieren, dass vorallem Nvidia Karten profitieren und schneller sind, als andere Karten.
 
Schon ganz schön mieß für Nvidia. Wenn die jetzt auf dem Desktop erst mit DX10.1 rauskommen werden sie bestimmt noch deutlich über ein halbes Jahr brauchen bis sie DX11 für low mid- bis high-end anbieten können.
Die werden ja ihre neuen Chips nicht nach 4-6 Monaten schon wieder über Bord werfen.
AMD wird im Oktober vermutlich low mid-end bis high-end mit DX11 in 40nm bedienen. Damit hätten sie mindestens 3 monate Vorsprung auf Nvidia. Sollte der GT300 auch kein DX11 bieten wird das Ganze noch schlimmer für Nvidia. Dann hätten sie auch im High-End-Bereich ein riesiges technologisches Manko.

Wer sich dann noch ne Nvidia kauft muss schließlich nicht nur auf Zukunftssicherheit in Sachen Spielegrafik/-Performance verzichten, sondern vor Allem auf GPGPU. Das dürfte für Leute die ihre Graka wenigstens mehr als 1 Jahr behalten nicht in Frage kommen. Für Leute die sich jedes halbe Jahr ne neue Karte kaufen dürfte das Ganze nicht so tragisch sein aber das ist ein minimaler Teil des Marktes.
 
1. Spart GDDR5 im Vergleich zum dreier Strom
Theoretisch schon, praktisch verbrät der Speicher haufenweise Energie, weil es ATI nicht hingekriegt hat ihn runterzutakten.

2. Die Produktionskosten werden erheblich gesenkt. Einmal am PCB, weil es wenige komplizieten Leiterbahnen mehr gibt. Aber auch braucht man keine großen Speicherinterface mehr. Die auch ganz schön die Kosten treiben.
Was mir als Kunde egal ist, entscheidend ist, was ich als Kunde bezahle. Ob die Karte in der Herstellung nun 10€ oder 20€ kostet ist mir doch völlig egal. Und nebenbei kostet GDDR5-Speicher logischerweise mehr als GDDR3 ;)

Womit unter dem Strich, für mich als Kunden, die Entscheidung GDDR3 zu nutzen bei den aktuellen Grafikkarten absolut richtig war. Wenn das Heruntertakten im Idle funktioniert, ist es selbstverständlich vernünftig auf DDR5 umzusteigen.
 
NVIDIA FTW

Ati is schrott, keiner braucht 10.1 und GDDR5...

DX 10.1 bringt nichts, solange es sich nicht auf breiter Front durchsetzt, soweit richtig. In Anbetracht von DX 11, was ja schon an die Tür klopft, wird es das auch nicht mehr.
Aber Physics auf der GPU ist jetzt ja auch noch nicht so doll verbreitet, oder?
Ich hab bis jetzt kein einziges Spiel zu Hause, bei dem ich das eine oder andere vermisst hätte.

Was die Treiber angeht:
bis 2003 (?) hatte ich ausschließlich NVIDIA verbaut, von der ersten TNT bis zur Ti4200 fast alle Modelle. Danach nur noch ATI, angefangen mit der 9700 Pro bis heute mit der 4870. Hatte nie Probleme mit den Treibern, weder bei den Grünen, noch bei den Roten.
Irgendwas mache ich wohl falsch...

Ich kaufe grundsätzlich die beste Leistung zum kleinsten Preis, da sind beide Hersteller momentan ungefähr gleichauf. Bei dem was der NVIDIA-CEO aber so von sich gibt, wird die nächste Karte wohl wieder eine rote.
 
Theoretisch schon, praktisch verbrät der Speicher haufenweise Energie, weil es ATI nicht hingekriegt hat ihn runterzutakten.


Was mir als Kunde egal ist, entscheidend ist, was ich als Kunde bezahle. Ob die Karte in der Herstellung nun 10€ oder 20€ kostet ist mir doch völlig egal. Und nebenbei kostet GDDR5-Speicher logischerweise mehr als GDDR3 ;)

Womit unter dem Strich, für mich als Kunden, die Entscheidung GDDR3 zu nutzen bei den aktuellen Grafikkarten absolut richtig war. Wenn das Heruntertakten im Idle funktioniert, ist es selbstverständlich vernünftig auf DDR5 umzusteigen.

Daß Powerplay immer noch nicht anständig funktioniert, ist auch nicht akzeptabel. Meines Wissens liegt das am Bildflackern beim umschalten auf 2D-Taktraten, weswegen der Speicher im Idle nicht runtergetaktet wird.
Mit den ATT läßt sich das manuell regeln, womit der Mediamarktkunde in der Regel überfordert ist.

Meine 4870-512 läuft mit 500/250 MHz GPU-/Speichertakt unter Windows. Mit dem 6300@3,2GHz alles in allem ca. 130 Watt im Idle.
So schlimm ist es dann auch nicht mit dem GDDR5, wenn man selber Hand anlegt.
 
Oh Oh Nvidia!! Jetzt bringen die im Herbst Direct X 10.1 Karten auf den Markt und ein paar Tage später stehen ATI's Direct X 11 Karten in den Läden. Man muß kein Hellseher sein um Nvidia im Herbst ein Debakel vorrauszusagen.
 
Was mir als Kunde egal ist, entscheidend ist, was ich als Kunde bezahle. Ob die Karte in der Herstellung nun 10€ oder 20€ kostet ist mir doch völlig egal. Und nebenbei kostet GDDR5-Speicher logischerweise mehr als GDDR3 ;)

so viel ist das bestimmt auch nciht mehr. Und wenn dir die 10 Euro Wurst sind, dann schau dir mal die GTX260 und aufwärts an. Ich sag nur Spulenfiepen.
 
Womit unter dem Strich, für mich als Kunden, die Entscheidung GDDR3 zu nutzen bei den aktuellen Grafikkarten absolut richtig war. Wenn das Heruntertakten im Idle funktioniert, ist es selbstverständlich vernünftig auf DDR5 umzusteigen.

Dann erklär mir bitte mal wieso eine hd4770 20W im idle verbraucht mit gddr5 speicher und eine hd4850 mit gddr3 speicher 30W. Die behauptung das Amd oder die kartenhersteller nur deshalb so stromhungrige chips/karten (im idle) baut weil sie nur das runtertakten von gddr5 nicht packen ist damit quasi widerlegt.

Mir scheint eher das es den Herstellern anscheinend wurscht ist, bzw es zu teuer wäre dort hardware zu verbauen (spannungswandler) die das runtertakten gescheit untersützen oder das sich die ati-chips selber schlecht runter takten lassen.

Ich kanns mir nicht erklären, aber alles nur auf gddr5 speicher zu schieben ist wie schon geschrieben zu einfach.
 
Wer sich dann noch ne Nvidia kauft muss schließlich nicht nur auf Zukunftssicherheit in Sachen Spielegrafik/-Performance verzichten, sondern vor Allem auf GPGPU.

nö, gibts schon längst... CUDA. Und im Gegensatz zu Ati hat Nvidia sogar schon Erfahrungen auf diesem Gebiet sammeln können.

Dann erklär mir bitte mal wieso eine hd4770 20W im idle verbraucht mit gddr5 speicher und eine hd4850 mit gddr3 speicher 30W.

afaik ist es genau anders herum.

...dann schau dir mal die GTX260 und aufwärts an. Ich sag nur Spulenfiepen.

Spulenfiepen kann man wenigstens abschalten (VSYNC), flimmernde Texturen und viel zu laute Lüfter nicht.
 
ATI geht den Steinigen Weg und Nvidia nimmt den Sessellift, am Ziel ankommen tun sie aber Beide! Nvidia hat halt 512bit anstatt sich mit Kinderkrankheiten rumzuschlagen... am Ende werden beide gegenseitig aufschließen. Nvidia verbaut GDDR5 und Ati verbaut 512bit. Da bedarf es keinem geflame auch wenn Nvidia mehr Öffentlichkeits-Arbeit betreibt - ATI ist eher zurückhaltend. (wer schweigt sagt nichts falsches) und wer überhauptnicht warten kann auf DX11 karten ist eh und sowieso, opferlike. :D
 
Super Thread. Da wird ja wieder was am kopf gehauen. einfach rofl.
@Topick Fuzilla ist nicht immer der verlässlichste Partner. Aber wenns stimmt, wird es wohl einfach so sein, dass nvidia dx10.1 testet, da die dx11 karten ende des jahres ja abwärtskompatibel sein müssen. So kann man den großteil in ruhe austesten. Wie mit der prozessverkleinerung...
 
Spulenfiepen kann man wenigstens abschalten (VSYNC), flimmernde Texturen und viel zu laute Lüfter nicht.
Dann hast du aber immer noch ein nerviges Knarzen, welches du eben nicht abstellen kannst(was aber meiner Erfahrung gemäß bei ATI und Nvidia gleich ist).
Zu den Texturen muss ich dir leider recht geben, war der Hauptgrund für mich meine ATI Karte gegen eine von Nvidia zu tauschen(und das obwohl die langsamer ist-.-).
 
Zurück