Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Na klar, die Lederjackensammlung muss finanziert werden. Und die Orks vom Grünen Auge werden es kaufen. Eine Graka sie zu knechten.....

"Moderat" heißt bei Nvidia für die 1150 dann 500-600 Lappen. 1160 600-700 und 1170 wohl um die 1000.

Ne Sorry da bin ich raus. Dafür kauf ich mir dann doch einfach ne Xbone X. Meine 290X schafft WoW weiterhin in 60 FPS, und für andere Spiele braucht man keinen PC.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Mein 2600k @ 4,7 überlebt wohl auch noch dieses Jahr.
Warum? Ich spiele echt eigentlich alles quer durch den Garten.
Aber ich habe "nur" den Anspruch an absolut stabile 60 FPS und das schafft das teil immer noch in allen Games...

Mit Ryzen war ich das erste mal am überlegen.
Jetzt mit Ryzen 2 wäre ich fast schwach geworden.
Aber dann stellte ich fest das meine Graka in WQHD öfter mal ins schwitzen kommt als meine CPU, dazu diese Wahnsinnspreise, und schon stand fest, das man sich mal wieder das Geld für ne Dicke Graka spart in den nächsten 1-2 Jahren statt es in CPU/ Board / Ram zu pumpen.

Sry wenn ich das mal so in den Raum werfe, aber der 2600k bremst schon etwas. Hab das mit meinem Buben sein System durch. War zwar ein FX8350 @4,4 GHz, welcher in etwa die gleiche Leistung der 2. Core I Gen hat, aber im Zusammenspiel mit seiner RX 480 doch weniger FPS auf den Schirm zaubert als der jetzige Ryzen 1600 @ 3,8 GHz, welcher laut Cinebench fast doppelt so schnell rechnet( MT 668 vs 1270 Punkte). Abseits davon ist die PCIe 2.0 Bremse von rund 10% nicht mehr vorhanden, dank PCIe 3.0 der CPUs. Es läuft alles besser, und läßt das System auch mehr aus der Graka holen.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Na klar, die Lederjackensammlung muss finanziert werden. Und die Orks vom Grünen Auge werden es kaufen. Eine Graka sie zu knechten.....

"Moderat" heißt bei Nvidia für die 1150 dann 500-600 Lappen. 1160 600-700 und 1170 wohl um die 1000.

Ne Sorry da bin ich raus. Dafür kauf ich mir dann doch einfach ne Xbone X. Meine 290X schafft WoW weiterhin in 60 FPS, und für andere Spiele braucht man keinen PC.

Lächerlicher geht es wohl nicht mehr. So behämmert wird keiner außer Minern sein solche Preiserhöhungen mitzugehen. Auch Preiserhöhungen haben eine Schmerzgrenze. Wenn man für schlechtere Leistung mehr als die Vorläufergeneration bezahlen soll, dann möchte ich mal die Käufer sehen.
Vergiss bitte nicht, dass die Vorläuferkarten nicht plötzlich vom Markt verschwinden.

Die 1150 (mit der Leistung einer GTX1060) wirst du nicht für mehr als 300 € Lappen loswerden. Gleiches gilt für 1160 und 1170 die der GTX1070 bzw. GTX1080(TI) entsprechen werden also max 500 € für die GTX1160 und max 750 € für die GTX1170. Alles darüber hinaus würde dazu führen das die Karten im Laden liegenbleiben. Und für Käufer der Vorläufergeneration bekommst du sowieso keine Verkäufe bei den hier angegeben Max-Preisen zustande. Selbst NVIDIA kann sich sowas nicht leisten.

BTW. Aktuell sehe ich 0 Bedarf bei mir für eine Karte der nächsten Generation. Die grafischen Unterschiede die man mit mehr Leistung und damit Ultra-Einstellungen erreichen kann in WQHD sind nicht mal auf Screenshots geschweige den in Spielbetrieb zu erkennen. ALK hat schon recht. Man muss nicht jede Generation mitgehen, damit man vernünftig spielen kann. 1-2 Generationen auslassen und man zahlt wesentlich weniger als in den Jahren davor.
Früher war jede Generation eine neue Grafikkarte nötig um überhaupt die neusten Titel mit einigermaßen vernünftigen Einstellungen spielen zu können. Jetzt kann man auch mal locker 1-2 Generationen überspringen. So gesehen ist das Hobby eher günstiger den teurer geworden. Wenn man dann noch die Spielepreise in Betracht zieht, so spart man da inzwischen auch das Geld für neue Hardware locker ein.

Inzwischen sinken die Spiele so schnell im Preis, dass wenn sie fertig gepatcht sind nur noch ein Bruchteil dessen kosten was sie zu Release gekostet haben.

Nimm mal nur mal 10 Spiele pro Jahr, die bei Release 60 Euro kosten und kaufe sie wenn sie fertig gepatcht sind. In einem Sale oder in Bundlepaketen kosten sie dann nur noch die Hälfte nach ca. 9 Monaten. Früher war vielleicht nach 2-3 Jahren an so einen Preisverfall zu denken. Das spart locker 300-400 € im Jahr ein. 2 Jahre und man kann sich eine GTX1080Ti leisten. Wenn man jetzt eine Generation überspringt, dann hat man mal eben 1600€ zur Verfügung, was auch einen Titan erschwinglich macht.

Nur mal ein paar Beispiele:

Project Cars 2 - Standard Edition 59,99 (22.09.2017 erschienen also 8 Monate alt) - Im aktuellen Humble Bundle Sale 29,99 €= 30 € gespart.
Destiny 2 -Preis bei Release 59,99 € (24.10.2017 erschienen 7 Monate alt) - Wenn du das Monthly Bundle für nächsten Monat nimmst kannst du jetzt für 1-10 € direkt loslegen (je nach dem wieviele der anderen Spiele dir gefallen) - Ersparnis 49,99-58,99 €. Außerdem würdest du auf alle Salepreise nochmals 10% Rabatt bekommen so dass sich bei 3 im Sale gekauften Spielen a 30 € Salepreis - Destiny 2 und die anderen 9 Spiele gar nichts kosten. Kannst das Abo auch sofort wieder kündigen.
Elex - Preis bei Release: 49,99 € (17.10.2017 erschienen 7 Monate alt) - Im aktuellen Humble Sale für 24,99 € zu bekommen. Ersparnis: 25 €
Wolfenstein 2: The New Collosus-Preis bei Release: 59,99 € (27.10.2017 erschienen 7 Monate alt) - Im aktuellen Humble Sale für 29,99 € - Ersparnis 30 €
Get Even - Preis bei Release: 29,99 € (23.06.2017 erschienen 11 Moante alt) - Im aktuellen Humble Sale für 10,19 zu bekommen - Ersparnis 19,80 €
Dishonored Complete Collection- Preis bei Release 69,99 € (15.09.2017- 8 Monate alt) - Im aktuellen Humble Sale für 34,99 zu bekommen - Ersparnis 35 €

für all diese Titel kannst du dir bei Humble Bundle nochmal 5% (vor Steuern) auf deine Humble Wallet gutschreiben lassen für spätere Sale-Käufe oder sie spenden (was ich bevorzuge).

Mit ein wenig geschickten Einkaufen bei Spiele sparst du soviel ein, dass sich die Hardware von selbst bezahlt macht. Je niedriger dabei die Hardwareklasse um so weniger Spiele musst du kaufen um die nächste Grafikkarte locker raus zu haben.

Und wenn du keine Spiele kaufst, warum brauchst du dann überhaupt eine Grafikkarte?

Das Hobby an sich ist wenn man sich geschickt anstellt im Vergleich zu vor 5 Jahren erheblich preisgünstiger geworden. Aber das will ja keiner sehen.
 
Zuletzt bearbeitet:
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Ich finde das seht interessant, hier wird immer nach 16 GB VRAM geschrien aber die Grafikkarten dürfen dann nur 300€ kosten. Jetzt hat man zumindest mal eine Quelle, die zeigt, dass der RAM eine Grafikkarte ein gehöriger Preistreiber ist und aktuell und auch in 2-3 Jahren 8 GB das sinnvolle Mittelmaß darstellen. Für 16 GB Ram 180€ auszugeben, die dann eigentlich nicht gebraucht werden ...
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Das Hobby an sich ist wenn man sich geschickt anstellt im Vergleich zu vor 5 Jahren erheblich preisgünstiger geworden. Aber das will ja keiner sehen.

Ich würde sogar noch etwas weiter zurückgehen und die 2 Jahrzehnte zuvor betrachten, wo man noch jährlich Leistungssteigerungen um das Doppelte und mehr hatte. Entsprechend war die Hardware aus dem Vorjahr schon wieder recht schwach und eine Aufrüstung lohnte sich. Heute hast du pro Generation (alle 2 Jahre!) im Schnitt ein Leistungsplus von ca 50% pro Klasse, was spürbar ist, aber man kann getrost eine Generation aussetzen. Und auch wenn die Produktionskosten gestiegen sind, Nvidia auf Grund von mangelnder Konkurrenz die Preise für die jeweiligen Chips erhöht hat, und man den Mining Wahn zuletzt berücksichtigt, halten heutigen CPU/GPUs so lang wie nie zuvor und mit denen kann man wunderbar spielen. Das liegt natürlich auch daran, weil man nicht mehr so drastische Leistungssprünge (Hardware) vollbringen kann sowie viele Spiele (Software) auf den kleinen gemeinsamen Nenner berücksichtigt entwickelt werden (Konsolen).

Man muss halt einfach nur die Regler bedienen können, und natürlich seine Ansprüche etwas anpassen. Zudem wir mittlerweile ein Level erreicht haben, wo auch mit reduzierten Details Spiele immernoch sehr ansehnlich aussehen, und ein der Großteil aller Spiele da draußen läuft sowieso auf weit schwächerer Hardware. Und letzten Endes hat man auch mit schwächerer Hardware den selben Spaß, vorausgesetzt das Game weiß zu überzeugen. Highend selbst bleibt natürlich, grade wenn man immer halt das Neuste vom Neuste haben will, aber das war schon immer so.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Kann ich mir vorstellen ALK, über die Jahre hat man ja den einen oder anderen Kommentar gelesen und daraus erschließe ich mir zwischen uns einen ganz unbedeutenden Altersunterschied :D
Bei einer News vor ein paar Jahren habe ich glaube schon von Frau, Kindern, Haus und co bei dir gehört.
Mein Alter steht in meinem Profil (32), Haus und Frau ja, Kinder bisher nicht. ;)

Dementsprechend bist du auch schon ein paar bedeutende Jahre mehr diesem Hobby erlegen als ich :)
Bis aufs hören-sagen kenne ich die Zeiten von "Neue GPU/CPU alle 6 Monate und teils weniger" leider nicht.

Sagen wir mal so, zu Zeiten von Voodoo, RivaTNT(2) und der ersten GeForce und auch danach GeForce 2, 3, 4 war es durchaus normal, dass die kommende Generation die vergangene um Faktor 2-3 oder mehr geschlagen hat.
Wenn du dir 1999 eine Geforce256 ("Geforce1") gekauft hattest war die irre schnell gegenüber allem was sonst so am Markt war. Nur dass keine 12 Monate später eine GeForce2 Ultra kaufbar war die mehr als den doppelten Takt, viel mehr Einheiten und über die 4-fache Füllrate bot. Übertrieben gesagt so, als würdest du von einer GTX580 auf eine 1080 aufrüsten - und zwar jedes Jahr. Und damals hatte ich natürlich keine 100 DM im Monat sparen können als Schüler... so viele Zeitungen gabs nicht auszutragen. :haha:

Da hatteste sehr schnell Geldprobleme (eine GF2 Ultra kostete ~1500 DM was heute wohl preislich der TitanXP entspricht, diese Preisregionen sind also bei Weitem nicht neu), einfach weil die Entwicklung anfangs sehr rasant war. Für solche Performancesprünge wartest du heutzutage gefühlt 5 Jahre... da hat man genug zeit zum sparen. Man darf sich nur eben nicht vom Marketing einreden lassen, dass 30 oder 40% gegenüber dem Vorgänger eine große Leistungssteigerung ist.

Bei CPUs dasselbe - von 486 (~50 MHz) auf Pentium oder von Pentium 1 (~100 MHz) auf 2 (~400 MHz) auf 3 (~1000 MHz) auf 4 (3000 MHz) waren Leistungssprünge die du heute hast wenn du von nem i5-750 auf nen i3-8100 oder so springst um mal bei der gleichen kernzahl zu bleiben... und zwischen den letztgenannten CPUs liegen fast 10 Jahre.
 
Zuletzt bearbeitet:
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

"moderat" bedeutet sicherlich in Relation zu den krass gestiegenen Einkommen. [/sark-off]
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Wußtest du, dass PC 800 Rambuspeicher schon im Jahr 2000 mit 400MHz Realfrequenz unterwegs war? Das ist soviel wie DDR4 3200 und die später herausgekommenen 533MHz, von PC 1066, sehen wir wohl erst in 2-3 Jahren regulär bei DDR4-4266.

War allerdings sau teuer und hätte beinahe Intel beerdigt (glücklicherweise konnten sie sich freikaufen). Geschwindigkeit ist eben manchmal nicht alles, auch wenn es technisch extrem beeindruckend war.

Ohja hab mir anfang 2010 nen i7920 für 250€ + Giga UDH3 250€ + Corsair XMS3 DIMM Kit 6GB, DDR3-1600, CL9-9-9-24 (CMX6GX3M3A1600C9) Preisvergleich | Geizhals Deutschland 250€ gegönnt :lol: aber die Gtx285 hat nur 320€ gekostet Gainward Geforce GTX 285 mit 2 GiByte im PCGH-Testlabor - Bildergalerie, Bild 1 und mit ner 285ger konntest die neuen titel nicht auf Ultra spielen wenn du 60fps wolltest.
 
Zuletzt bearbeitet von einem Moderator:
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

So bremst man sich halt selbst aus, aber Hauptsache die Marge stimmt. 300% wenn nicht sogar noch höher. Die könnten Klamotten verkaufen. :ugly:
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Sry wenn ich das mal so in den Raum werfe, aber der 2600k bremst schon etwas. Hab das mit meinem Buben sein System durch. War zwar ein FX8350 @4,4 GHz, welcher in etwa die gleiche Leistung der 2. Core I Gen hat, aber im Zusammenspiel mit seiner RX 480 doch weniger FPS auf den Schirm zaubert als der jetzige Ryzen 1600 @ 3,8 GHz, welcher laut Cinebench fast doppelt so schnell rechnet( MT 668 vs 1270 Punkte). Abseits davon ist die PCIe 2.0 Bremse von rund 10% nicht mehr vorhanden, dank PCIe 3.0 der CPUs. Es läuft alles besser, und läßt das System auch mehr aus der Graka holen.

Die Kombi hab ich auch schon durch im zweit System.
Da ist ein FX 8350 @ 4,5 sowie einstmal eine R9 290 drin gewesen.
Hab ich letztens auch umgerüstet.

Zum Rest magst du recht haben, habe selbst schon diverse aktuellere Systeme verbaut, da ich der haupt Ansprechpartner in Sachen PC´s unterm einen bekannten bin.
Allerdings ändert das für mich alles nichts daran, das so lange meine CPU es schafft meine Games flüssig mit ihren 60 FPS @ VSync konstant laufen zu lassen, und der flaschenhals @ 1440p zumeist immer bei der GPU hängt statt der CPU, ich keinen Grund sehe die CPU endlich in ihre Verdiente Rente zu schicken.

Wenn das erste Game kommt was mich interessiert und CPU bedingt eben genau das nicht mehr schafft, dann geht sie im Ruhestand :-)
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Julian versucht einen FX 8350@4,4Ghz zuvergleichen mit nem 2600K@4,5Ghz Ich würde mal behaupten das der 2600K ca25-40% schneller ist. Mein alter i7 920@3,6Ghz ist sogar manchmal schneller gewesen als der FX8370 meines Freundes.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Na er hatte halt die doppelte Bremse, den schwachen FX Prozessor + AMD Karte mit dem damaligen und teils immer noch vorhandenen DX11 Overhead.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

wusstet ihr, dass DDR3 speicher schneller sind als DDR4. Latenzen sind nunmal wichtiger als die taktraten. der speicher ist von der funktion her all die jahre gleich geblieben. kein technischer fortschritt

Das ist bei Grafikkarten eher nicht der Fall, zumindest wenn es um Echtzeitgrafik geht. Durch die hohe Parallelisierung lassen sich die Speicherlatenzen, die nicht durch die Caches abgefangen werden in der Regel gut verstecken. Das viel durch Caches abgefangen wird gilt übrigens auch für Prozessoren, aber da ist der Effekt in der Tat größer (auch wenn sich hier z.B. durch SMT Latenzen verstecken lassen). Tatsächlich ist zwar DDR3-Speicher mit der gleichen externen Taktfrequenz wie DDR2-Speicher langsamer, dass liegt aber eher daran, dass DDR3 immer 8 aufeinanderfolgende Worte à 64bit auf einmal prefetcht (DDR2: 4, DDR: 2). Wenn du davon aber nur eins brauchst, bringt dir das nichts. DDR4 hat aber die gleiche Prefetchlänge wie DDR3 und ist davon erstmals nicht betroffen.

Was mich aber wundert, sind die oft vergleichsweise hohen Latenzen von DDR4. Zwar gab kaum Fortschritt bei den Speicherzellen, aber eigentlich auch keinen Rückschritt.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

wusstet ihr, dass DDR3 speicher schneller sind als DDR4. Latenzen sind nunmal wichtiger als die taktraten. der speicher ist von der funktion her all die jahre gleich geblieben. kein technischer fortschritt
Das ist falsch und leider derart in den Köpfen der Leute festgehämmert dass sogar im Wikipedia-Artikel über DDR-RAM extra ein Abschnitt eingerichtet wurde (DDR-SDRAM – Wikipedia).

Was stimmt ist, dass die Zugrifsszeiten teilweise seit Jahrzehnten nicht viel gesunken sind (DDR1-200 CL2 --> 20 ns, DDR4-3200 CL16 --> 10 ns), bei den gleichen Zugriffszeiten die Bandbreiten aber massiv gestiegen sind (DDR1-200 CL2 --> ~2 GB/s, DDR4-3200 CL16 --> ~26 GB/s).

Der "kein technischer Fortschritt" ist hier die etwa Vervierzehnfachung der Bandbreite bei Halbierung der Latenz zwischen DDR1 und DDR4 - also übertrieben gesagt eine theoretische Leistungssteigerung um Faktor 34 (bei gleichzeitiger massiver Reduzierung des Stromverbrauchs). Was wäre ich froh, wenn es diesen nicht vorhandenen technichen Fortschritt auch in allen anderen Bereichen gegeben hätte. :ugly:

Dass Latenzen wichtiger als Taktraten sind ist ebenfalls blödsinn. Das trifft auf einige wenige ausgewählte Anwendungen zu die tatsächlich sehr Latenzkritisch sind (teilweise sogar absichtlich wie manches Cryptomining...), die überwältigende Mehrheit aller Anwendungen (und Spiele) profitiert aber weitaus mehr von RAMTakt als von scharfen Latenzen. Das kannste in nahezu jedem besseren Test in dieser Richtung aus den letzten 10 Jahren nachlesen. Beispiel aus dem aktuellen PCGH+-Artikel dazu:
In BF1 im CPU-Limit (720p und so) liefert DDR4-3200 CL16 RAM bei einem 8700K@4,7 GHz 310 fps. Ein DDR4-2400 CL12 dagegen 279 fps. Das sind 11% mehr praktische (!) Leistung durch einen höheren RAM-Takt obwohl die effektive Zugriffszeit die gleiche ist.
 
Zuletzt bearbeitet:
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Der "kein technischer Fortschritt" ist hier die etwa Vervierzehnfachung der Bandbreite bei Halbierung der Latenz zwischen DDR1 und DDR4 - also übertrieben gesagt eine theoretische Leistungssteigerung um Faktor 34 (bei gleichzeitiger massiver Reduzierung des Stromverbrauchs). Was wäre ich froh, wenn es diesen nicht vorhandenen technichen Fortschritt auch in allen anderen Bereichen gegeben hätte.

Als Einwand hier könnte man halt sagen, dass es um die eigentlichen Speicherzellen geht. Da reden wir von einer Verdrei- bis Vierfachung der Frequenz und halbierung der Latenz über fast 20 Jahre. Und es ist schon so: Random-Access auf einzelne 4- oder 8-Byte-Bereiche, wie sie für einzelne Primitive nötig sind, sind durch das Prefetch nicht schneller geworden. Die effektive Bandbreite von SDR auf DDR auf DDR2 auf DDR3 hat sich nur erhöht, wenn hintereinanderliegende Daten abgegriffen wurden (entsprechend 16, 32 und 64 Byte).
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Da haste Recht. Das liegt aber nunmal an grundlegenden physikalischen Eigenschaften von DRAM-Zellen. Da kann (und wurde) zwar viel optimiert werden aber hier sind halt keine neuen Größenordnungen mehr drin. Deswegen geht man seit Jahrzehnten ja den Umweg über SDR --> DDR --> QDR (genutzt bei GDDR und ich glaube geplant für DDR5?) und erhöht Nennfrequenzen auf Kosten von Latenzen und baut Architekturen mit dual/Triple/Quad-Channel usw. weil an den eigentlichen effektiven Schaltzeiten von DRAM nunmal nicht mehr viel gerüttelt werden kann.

Wenn Einzelne Zellen nicht mehr schneller werden muss man eben zusehen dass man möglichst viele davon organisiert gleichzeitig auslesen kann. Das ist das, was seit ~20 Jahren gemacht wird.

Ist wie bei NAND: Wenn mans nicht mehr kleiner machen kann ohne dass es nach 50x schreiben tot ist muss mans eben verbreitern/stapeln/dreidimensional anordnen/mehr bits pro Zelle speichern/was weiß ich. :-D
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Deswegen geht man seit Jahrzehnten ja den Umweg über SDR --> DDR --> QDR (genutzt bei GDDR und ich glaube geplant für DDR5?) und erhöht Nennfrequenzen auf Kosten von Latenzen und baut Architekturen mit dual/Triple/Quad-Channel usw. weil an den eigentlichen effektiven Schaltzeiten von DRAM nunmal nicht mehr viel gerüttelt werden kann.

Ich dachte immer GDDR wäre Dual-Port-RAM, sonst müsste er ja GQDR heißen. Aber Konsequenz bei der Namensgebung ist im Hardwarebereich leider keine Tugend. Intel's FSB war wohl QDR.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Ohje, an den Namen kannste sowas schon lange nicht mehr ablesen. Namen werden so gewählt dass sie einen Wiedererkennungswert haben, nach "schneller" aussehen und sich gut verkaufen können - nicht so dass sie technisch korrekt sind.

Aber ich muss mich korrigieren - GDDR5 ist technisch noch DDR, QDR ist im Einseatz bei GDDR5X.
GDDR6 kann sogar beides. :fresse:

Fun-Fact: Die JEDEC hat in ihrer GDDR6-Spec sogar ODR (OctaDataRate) definiert. Aber nur definiert halt im Sinne von den Ausdruck eingeführt/geschützt. Schätze mal das sehen wir dann bei GDDR7...?
 
Zuletzt bearbeitet:
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Also von einer JEDEC-Spezifikation bis zum Einsatz dauert es ja normalerweise "ein bisschen". Mal abwarten, erstmal muss man ja was finden, was sich überhaupt mit diesen Taktsignalen befeuern lässt. Aber natürlich ist eine handfeste Spezifikation ein wichtiger erster Schritt und bis man dann die erste Implementierung hat, kann man sie vielleicht sogar schon für irgendwas gebrauchen.
 
AW: Geforce 2018: Kosten für GDDR6-RAM sollen moderat steigen

Ich dachte immer GDDR wäre Dual-Port-RAM, sonst müsste er ja GQDR heißen. Aber Konsequenz bei der Namensgebung ist im Hardwarebereich leider keine Tugend. Intel's FSB war wohl QDR.

QDR-FSB hat Intel mit dem Pentium 4 eingeführt, davor war es SDR – was Pentium-III-RAMBUS-Systeme (RD-RAM nutzt ebenfalls QDR) besonders fragwürdig macht. AMD nutzte für alle K7 DDR. DDR5X ist komplexer. Soweit ich es verstehe, arbeitet einige Bereiche weiterhin mit zwei Operationen pro Taktsignal, formell also DDR.
 
Zurück