Nvidia: Tape-Out des G300-Chips vollzogen

Na das ist endlich Zeit das diese mühsamen Herren von Nvidia denn fortschrittlicheren GDDR5 einsetzen!!!

Ich weiß nicht... nur weil etwas neuer und "fortschrittlicher" ist muss es noch nicht besser sein finde ich...

Sicher erlaubt GDDR5 höhere Taktraten aber das bei gleichzeitig wesentlich höheren latenzen (was den Performancevorteil wieder etwas relativiert) und bei hohem Energieverbrauch (meine alte HD4870 brauchte im Idle fast 50W weniger als ich den vRAM auf 300MHz runtergetaktet hatte!).

Fortschritt ok, aber erst dann wenn es wirklich ausgereift ist!
 
Da kann man ja nurnoch hoffen, dass TSMC bzw. andere Hersteller mal in Herstellung investieren sodass die 40nm und der GDDR5 für beide Seiten, ATi und Nvidia gewährleistet sind.:hail:

Mal schauen ob nvidia mal ne fertige Graka herausbringt und nicht wieder nach 2 Monaten ein neues Modell, das das alte in Rente schickt.:)

Gruß
Z
 
Sicher erlaubt GDDR5 höhere Taktraten aber das bei gleichzeitig wesentlich höheren latenzen (was den Performancevorteil wieder etwas relativiert) und bei hohem Energieverbrauch (meine alte HD4870 brauchte im Idle fast 50W weniger als ich den vRAM auf 300MHz runtergetaktet hatte!).

Der Energieverbrauch von GDDR5 ist eigentlich niedrig, die HD4 taktet sich nur nicht ordentlich runter. Der Rest stimmt so.
 
Wayne? Die paaren den vermutlich eh nur mit nem vergleichsweise kleinen SI, wodurch dann ein ähnlicher Datendurchsatz wie bei aktuellen GDDR3-Karten rauskommt. ;)

Dabei sparen sie aber an Platinenkosten und somit macht das ganze wieder Sinn.
Was heißt denn für dich klein? Sie werden mit Sicherheit die aktuelle Bandbreite aufbohren und da NV beim SI i.d.R. nicht den sparsamsten Weg nimmt wirds vermutlich kein 256 BIT SI.
 
Ich gucke dem Ganzen gelassen zu.
Meine GTX 260 @730/1512/1250 packt im Moment alles was ich game @ 1680 x 1050. Leistung habe ich eigentlich genug. die GTX200/HD4000 Generation hat dies bzgl. noch Reserven.

DX11 ist für mich kein Anreiz, da die Games erst später auftauchen und es fraglich ist, ob die Leistung einer GTX300 oder HD58xx dann ausreichend ist.

Als User der jetzigen Generation kann man sich erstmal einen Überblick verschaffen und ist nicht unter Zugzwang direkt eine neue Karte zu ergattern. Das Abwarten wird sich auch im Geldbeutel wiederspiegeln.

mfg

Kosake
 
Sicher erlaubt GDDR5 höhere Taktraten aber das bei gleichzeitig wesentlich höheren latenzen(was den Performancevorteil wieder etwas relativiert)

Ja na und?
Einfach zu sagen "CL9 ist schechter als CL7" oder tRas oder sonst was ist humbug!
Les hier...
... und du siehst das ein DDR5, mit niedrigem Takt und hoher Latenz, schneller sein kann, als DDR3 mit hohem Takt und niedriger Latenz.
 
Ja na und?
Einfach zu sagen "CL9 ist schechter als CL7" oder tRas oder sonst was ist humbug!
Les hier...
... und du siehst das ein DDR5, mit niedrigem Takt und hoher Latenz, schneller sein kann, als DDR3 mit hohem Takt und niedriger Latenz.

Ich glaube du hast deine eigene Quelle nicht richtig gelesen.
Dort steht nicht nämlich wie wichtig gerade der "reale" Takt ist...
Ist der Reale Takt von GDDR4 geringer, kombiniert mit der Übertragung von nicht benötigten Datenpaketen, kann DDR5 sehr wohl langsamer sein.
 
rechne doch einfach mal!
Sagen wir DDR3 getaktet mit 1600 und Timings von 7-7-7-21 vs. DDR2 1066MHz mit 5-5-5-15

Macht 2*7/1600 = 8.75ns
Und 2*21/1600 = 26.25ns

Beim DDR2 ergibt das 9,38ns und 28ns!

Also nur in diesem Beispiel hat DDR3 mit schlechteren Timings schon vorne gelegen!
Das DDR3 hier in der Datenübertragung klar vorliegt braucht nicht erwähnt werden, oder?
Ich sehe deine Argumentation nicht...
 
Du rechnest auf Basis der theoretischen Taktrate. Die führt zu dem Problem welches in deinem Link beschrieben wird:

Da ein DDR2-Modul vier Datenpakete pro Takt verschickt, aber nicht unbedingt alle später auch verwendet werden (es werden zu dem angeforderten Paket einfach die nachfolgenden drei mit ausgelesen), ist die erhöhte Datenrate zudem nicht voll nutzbar.
DDR4,5 usw. übertragen mehr Datenpakete in einem Taktzyklus, dass heisst leider nicht das diese Daten auch immer verarbeitet werden. Deine Rechnung ist hinfällig.
 
Zuletzt bearbeitet:
Du rechnest auf Basis der theoretischen Taktrate. Die führt zu dem Problem welches in deinem Link beschrieben wird:

DDR4,5 usw. übertragen mehr Datenpakete in einem Taktzyklus, dass heisst leider nicht das diese Daten auch immer verarbeitet werden. Deine Rechnung ist hinfällig.

Und genau das ist das Problem der Speicher auf DDRx Basis, es werden (weil höhere Taktraten (intern) nur sehr schwer machbar sind) einfach immer mehrere Datenpakete auf einmal gesendet - ob man die braucht oder nicht wird nicht gefragt, hauptsache man kann dem Kunden bandbreite vorgaukeln. Der bezahlt und alle sind glücklich - der Hersteller hat sein Zeug verkauft und der Kunde glaubt sich im Besitz nutzbarer Bandbreite...

ich will hier nicht die Technik schlecht machen, natürlich hat sich in dem Bereich einiges getan hinsichtlich der Performance aber prinzipiell sind die Speicherchips schon seit Jahren am Anschlag... es wird weniger Performance duch bessere Chips herausgeholt sondern mehr durch andere Ansprechverfahren wie oben beschrieben. Bin gespannt wo diese Entwicklung hinführt.
 
Also nur in diesem Beispiel hat DDR3 mit schlechteren Timings schon vorne gelegen!
Das DDR3 hier in der Datenübertragung klar vorliegt braucht nicht erwähnt werden, oder?
Ich sehe deine Argumentation nicht...

GDDR5 ist 10-15% langsamer bei gleichem Takt als GDDR3 (aufgrund der schlechteren Latenzzeiten), wurde selbst von pcgh Mark und in vielen Tests bestätigt.

Werde gleich die Tests adden, aber das Grillfleisch ist sonst hinüber.

mfg

Kosake
 
So hier auch gleich die Quelle und das entscheidende Zitat:
"In unserem Test arbeitet der GDDR5-Speicher bei gleicher Frequenz wie der GDDR3-Vorgänger um durchschnittlich 14 Prozent langsamer, unabhängig von der Qualitätseinstellung."
Quelle
Bericht: Was bringt GDDR5 auf der Radeon HD 4870? (Seite 7) - 18.07.2008 - ComputerBase

Dieser Wert wird auch von anderen Tests ermittelt. GDDR5 wird sich erst absetzen, wenn durch niedrigere Fertigungsgröße höhere Taktraten bei gleichzeitig niedrigeren Latenzzeiten möglich sind.

mfg

Kosake
 
Und genau das ist das Problem der Speicher auf DDRx Basis, es werden (weil höhere Taktraten (intern) nur sehr schwer machbar sind) einfach immer mehrere Datenpakete auf einmal gesendet - ob man die braucht oder nicht wird nicht gefragt, hauptsache man kann dem Kunden bandbreite vorgaukeln. Der bezahlt und alle sind glücklich - der Hersteller hat sein Zeug verkauft und der Kunde glaubt sich im Besitz nutzbarer Bandbreite...

ich will hier nicht die Technik schlecht machen, natürlich hat sich in dem Bereich einiges getan hinsichtlich der Performance aber prinzipiell sind die Speicherchips schon seit Jahren am Anschlag... es wird weniger Performance duch bessere Chips herausgeholt sondern mehr durch andere Ansprechverfahren wie oben beschrieben. Bin gespannt wo diese Entwicklung hinführt.

naja - wenn man bedenkt, dass die Texturen, welche aus dem VRAM geholt werden auch immer größer werden, so macht es sicherlich Sinn mehrere Pakete auf einmal zu übertragen. Dann werden nur sinnlose Datenpakete übertragen, wenn man am Ende einer Textur ist.
Demnach kann dieses System noch lange gut gehen, was danach kommt - hmm - wird man sehen!
 
naja - wenn man bedenkt, dass die Texturen, welche aus dem VRAM geholt werden auch immer größer werden, so macht es sicherlich Sinn mehrere Pakete auf einmal zu übertragen. Dann werden nur sinnlose Datenpakete übertragen, wenn man am Ende einer Textur ist.
Demnach kann dieses System noch lange gut gehen, was danach kommt - hmm - wird man sehen!

Prinzipiell stimmt das schon - zumindest bei großen Dateien wie Texturen.

PS: Lies mal meine Signatur ;)
 
Kann mir kaum vorstellen, dass dein System das nicht flüssig schaffen sollte :lol:
Selbst bei mir mit einer 285er gehts mit 30fps alles max in 1920x1200...

Nene, Triple SLI und i7 Combi verlangsamt das System wieder um 110%.:lol::lol:

Im Ernst selbst mit einer Grafikkarte bekommt man es in 1680x1050 max in DX10 hin. Alles darüber (vllt noch 24er) halte ich für realitätsfern.

mfg

Kosake
 
Zurück