Geforce RTX 2070 mit 16 GB: Youtuber baut seine Grafikkarte um

Physische Größe oder Speicherkapazität? Letzere beträgt 1 GB = 8 Gb bei allen bisherigen Desktop-Geforce 3000, die Größenunterschiede kommen durch 6/8/10/2*12-Chips je nach Interface zustande. Erst die RTX 3060 müsste mit sechs 2-GB-Chips starten. (Bei Quadros nutzt Nvidia die schon länger, um 48 GB auf den 12-Kanal-GPUs anzubieten). Allerdings würde ich abwarten, ob es jemandem gelingt, soviel Speicher nach einem Mod auch zu belegen. Physisch sind die GPUs dazu in der Lage, keine Frage, aber ein VRAM-Interface ist nicht Plug & Play. Neben Abstürzen wegen unpassender, nur durch BIOS-Rewrites änderbarer Konfiguration müssen Firmware und Treiber überhaupt erst einmal kapieren, dass jetzt mehr Platz genutzt werden soll. Mit Glück wird die zu nutzende Speichermenge ausgelesen – aber sie könnte auch ebensogut nach Erkennung einer "3070" oder "3080" festgelegt werden. Warum zwei Abfragen machen, wenn die Antwort auf die zweite durch die Antwort auf die erste eigentlich schon festgelegt ist?

Übrigens sollte man auch Aufwand und Risiko so einer Lötaktion nicht unterschätzen. Und wenn man schon 170 Euro, respektive bei einer 3080 dann 205 Euro für die Chips zusätzlich zur Karte ausgibt, wird der ganze Spaß schnell teurer als auf das Serienmodell zu warten, wenn man noch Geräte anschaffen oder das Risiko eines Defektes einpreist.
Danke für die Erklärung, es war auch eher eine theoretische Frage zur Machbarkeit als zur Alltagstauglichkeit. :)

So hab ich als junger Noob mal einen Duron 800 geschrottet. Wollte die GHz-Mauer durchbrechen, und hab kurz ohne Kühler gebootet um zu sehen ob es geklappt hat.. Leider kam dieses (damals sehr umstrittene) Video zu spät für mich:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
 
Zuletzt bearbeitet:
Man stelle sich nur mal "nackte" Grafikkarten vor, ähnlich einem Mainboard, mit entsprechenden Slots um den gewünschten Bedarf selbst konform dem Speicherinterface einzustecken.
Das wäre ja ganz was neues:
VGA RAM erweiterbar.jpg

.
 
Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
Wie gesagt, war halt ein Noob. Heute haben alle Boards und CPUs Schutzmaßnahmen damit sie nicht abrauchen, damals aber nicht immer. Der Duron hatte sich auch ohne große Last nach wenigen Sekunden verabschiedet. Wie schon jemand unter dem YouTube-Video sagt:
TBF the Thunderbird core Athlon didn't have an on-die thermal diode and therefore was incapable of protecting itself in a situation like this; it was a serious issue at the time of the very first socket A Althlons and Durons, as was fragile dies cracking.
 
Wie manche Leute glauben sie seien schlauer als ein Konzern wie Nvidia mit einem Haufen an Ingenieuren.... schon ziemlich dämlich die Aktion...
Die Tatsache, dass die Grafikkarte mit Speicherchips doppelter Kapazität überhaupt noch irgendwas tut zeugt eher davon, dass die 8 GB der Ladenregalversion eher durch Geiz von nVidia, als durch technische Probleme herrühren.

Ich tippe mal darauf, dass die 16 GB mit leichten Anpassungen des Boardlayouts problemlos auch unter Last laufen würden.
 
Die Tatsache, dass die Grafikkarte mit Speicherchips doppelter Kapazität überhaupt noch irgendwas tut zeugt eher davon, dass die 8 GB der Ladenregalversion eher durch Geiz von nVidia, als durch technische Probleme herrühren.
Definitiv keine technischen Probleme.
Ich verstehe auch nicht warum NVidia nicht von vornherein zweigleisig fährt und die Karten mit zwei Speichergrößen anbietet.
 
Reine Kosten-/Nutzen-Rechnung inklusive Aufmerksamkeit: Eine zweite Version der Karte zu vertreiben, die zudem wesentlich teurer wäre, bringt viel Chaos, negative Publicity und, solange ohnehin keine Konkurrenz da ist, nicht unbedingt zusätzlichen Absatz. Also kann man sie auch einfach für ein Refresh in der Hinterhand halten.

Wie gesagt, war halt ein Noob. Heute haben alle Boards und CPUs Schutzmaßnahmen damit sie nicht abrauchen, damals aber nicht immer. Der Duron hatte sich auch ohne große Last nach wenigen Sekunden verabschiedet. Wie schon jemand unter dem YouTube-Video sagt:

"serious issue" ist etwas weit gegriffen. Als Thunderbird rauskam, hatte gar kein Prozessor eigene Temperaturkontrollmechanismen. Die wurden erstmals mit dem Pentium 4 eingeführt. Was Sockel-A-, aber auch -370-Prozessoren gegenüber den Nachfolgern und den meisten Vorgängern besonders empfindlich macht: Sie hatten auch keinen Heatspreader und waren somit mechanisch ungeschützt als auch zu extrem rasanten Temperatursprüngen fähig. Ein heutiger Prozessorpackage bietet einfach die mindestens 20 fache Wärmekapazität, wärend eine CPU im Format des Duron 800 selbst mit heutiger Regeltechnik gegebenenfalls schneller durchbrennen als sich runtertakten würde. Zumindest wenn ohne Stromsparmechanismus unmittelbar ab Einschalten des Stroms mit voller Spannung und vollem Takt gearbeitet wird, wie das damals bei allen Desktop-Prozessoren üblich war.
 
Ich warte auf den Tag, das dies wieder eingeführt wird....
Hab ich auch.
Jetzt hab ich graue Haare.

oder halt GPU und CPU greifen auf den gleichen "schnellen" speicher auf einen MB zurück.
Das ist technisch nicht gut.
Der VRAM wird immer schneller sein.

Alleine die Zugriffswege auf der Grafikkarte sind wesentlich kürzer, als auf den Hauptspeicher.
Und bei den heutigen Geschwindigkeiten macht die Leitungslänge etwas aus.
 
Danke für die Erklärung, es war auch eher eine theoretische Frage zur Machbarkeit als zur Alltagstauglichkeit. :)



Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
Du bist ja krass ! Respekt.

Bin auch kein Kind von Traurigkeit, was OC und Basteleien an Hardware (je älter die Hardware, desto mutiger bin ich) angeht, aber nen Zen2 ohne Kühler (nochmal: wow !) zu booten würde ich mich nicht trauen :D
 
Das ist wirklich faszinierend. Hier gab es Mal so ein Thema wo jemand das mit einer GTX970 versuchen wollte. Keiner konnte genau sagen ob das funktioniert hätte.

Aber das es bei der 2070 schon so geplant war macht die Sache nur halb so spannend. Vielleicht gibt's ja jemanden der es auch Mal mit einer 970 ausprobiert.
 
Das ist ne feine Sache. 170 Euro mehr für anständig mehr VRam und dann auch noch selbstgemacht, so geht das! :D

Schade, daß es nicht ganz funktioniert hat. Dann kostet da 8gig VRam die Hälfte, sind wir bei 85 Euronen. Nvidia kauft nicht bei irgendwelchen Zwischenhändlern sondern gleich frisch aus der "Chippresse" in Massen raus, setzen wir die Hälfte des Preises an oder eher n Drittel, wahrscheinlich sind es weniger, dann hätte es für schlanke 525 Euronen UVP (auch schon massiv zu teuer für ne XX70, aber das ist nun wohl derzeit so) auch ne richtige Grafikkarte gegeben, aber NEIN, mangels Konkurrenz hat man das ja nicht nötig. :D
 
Du bist ja krass ! Respekt.

Bin auch kein Kind von Traurigkeit, was OC und Basteleien an Hardware (je älter die Hardware, desto mutiger bin ich) angeht, aber nen Zen2 ohne Kühler (nochmal: wow !) zu booten würde ich mich nicht trauen :D
3900x 12 Kerne 24 Threads oben ohne....klingt erstmal böse. Allerdings taktet sich die CPU sofort runter und im BIOS liegt auch keine Last an. Auch geht der Takt auf (glaube 800mhz)runter. Die Temperatur dafür rauf auf 90C°. Wie gesagt. Um 2-3 min im BIOS zu Verweilen geht das. Intel und AMD machen was das Temperaturmanagement angeht heute einen guten Job. Aber Windows würde ich so nicht booten wollen.
 
Also ich habe mir dieses Video angesehen. Ich hätte noch ein paar Gedanken warum es nicht gehen könnte.
Ich habe gesehen, das er mindestens 1 Chip mit der Beschriftung andersrum reingebaut hat.

Normal denke ich werden die Chips von einem Roboter eingebaut, es wäre denkbar das er es nicht so perfekt hinbekommen hat.

Wenn es Abweichungen gibt (und bei Handarbeit gehe ich schwer davon aus) könnten diese ja vielleicht erst bei einem gewinssen Füllstand schlagend werden.
Da müsste es denke ich auch nicht unbedingt etwas bedeuten, das sein GPU Testprogi 16 GB anzeigte........
Beim Testlauf könnte dann der Speicher gefüllt worden sein, bis zu einem nicht sauber verbundenen Teil....Blubb.
(damit wäre auch der funktionierende Desktopbetrieb erklärbar).

Hat er es wirklich geschafft alle Kontakte zu schliessen, ohne "Wackler"?
Der Test war kurz nach dem Einbau, könnte noch etwas von der Verbindungsmasse (er verteilte ja was auf den leeren Plätzen noch flüssig gewesen sein?

Durch den Heissluftfön Beschädigungen, an den Slots?

Die Kleinteile die er wild neu angeordnet hat, wie sicher war das das es überhaupt für Last funktionieren soll?

Nicht vergessen, beim Einbau lag die Platine, danach war sie wohl hochkant im Rechner, es könnte auch noch etwas verrutscht sein, es war ja auch noch recht frisch.
 
Das ist wirklich faszinierend. Hier gab es Mal so ein Thema wo jemand das mit einer GTX970 versuchen wollte. Keiner konnte genau sagen ob das funktioniert hätte.

Aber das es bei der 2070 schon so geplant war macht die Sache nur halb so spannend. Vielleicht gibt's ja jemanden der es auch Mal mit einer 970 ausprobiert.
Das wird da nicht gehen wegen ihrem seltsamen Speichercontroller 3,5GB volle + 0,5GB langsamere Ram Anbindung.
 
So hab ich als junger Noob mal einen Duron 800 geschrottet. Wollte die GHz-Mauer durchbrechen, und hab kurz ohne Kühler gebootet um zu sehen ob es geklappt hat.. Leider kam dieses (damals sehr umstrittene) Video zu spät für mich:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Stimmt das Video war damals sehr umstrittenen.
Aber dafür hat man heute gut Schutzmechanismen :D
Vielleicht auch deswegen.

PS.
Die Musik im Video.
Brr irgendwie ein Ohrwurm.
 
Zurück