• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 2070 mit 16 GB: Youtuber baut seine Grafikkarte um

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 2070 mit 16 GB: Youtuber baut seine Grafikkarte um

Ein Youtuber hat seiner Geforce RTX 2070 ein aufwendiges Hardware-Upgrade spendiert. Um die Speicherkapazität auf 16 GiByte zu erhöhen, montierte er doppelt so große GDDR6-Chips. Damit ließ sich das System sogar booten, doch unter Last gab es Probleme.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 2070 mit 16 GB: Youtuber baut seine Grafikkarte um
 

SFT-GSG

Software-Overclocker(in)
Was eine Arbeit....schade das es instabil geworden ist. Habe gerade nicht im Kopf welche Größe die gddr6x auf der 3080 haben....dann könnte man sich ein Bedarf seine 3080ti selber löten?
 

sinchilla

BIOS-Overclocker(in)
Das Interesse beider großen Hersteller bezüglich solcher Basteleien ist ja sehr überschaubar, aus einfachem Grund, sie würden weniger verdienen.

Man stelle sich nur mal "nackte" Grafikkarten vor, ähnlich einem Mainboard, mit entsprechenden Slots um den gewünschten Bedarf selbst konform dem Speicherinterface einzustecken.

Einerseits würde gddr billiger werden aufgrund der großen Konkurrenz, andererseits bleibt es ein feuchter Traum.

UVP RTX 3080FE (ohne Ram) 499€, extra 20GB Ram ~300€ =799€ für eine 3080ti:devil:

Bei Customkarten obige Rechnung einfach mit Zwei multiplizieren...
 

Andrej

Software-Overclocker(in)
Das Interesse beider großen Hersteller bezüglich solcher Basteleien ist ja sehr überschaubar, aus einfachem Grund, sie würden weniger verdienen.

Man stelle sich nur mal "nackte" Grafikkarten vor, ähnlich einem Mainboard, mit entsprechenden Slots um den gewünschten Bedarf selbst konform dem Speicherinterface einzustecken.

Einerseits würde gddr billiger werden aufgrund der großen Konkurrenz, andererseits bleibt es ein feuchter Traum.

UVP RTX 3080FE (ohne Ram) 499€, extra 20GB Ram ~300€ =799€ für eine 3080ti:devil:

Bei Customkarten obige Rechnung einfach mit Zwei multiplizieren...
Du sparst ca.200€ und verlierst im Gegenzug die Garantie. Also ich zahle da lieber die 200€ mehr!
 

LDNV

Software-Overclocker(in)
Wie manche Leute glauben sie seien schlauer als ein Konzern wie Nvidia mit einem Haufen an Ingenieuren.... schon ziemlich dämlich die Aktion...
Genauso dämlich als man vor Jahren noch CPU´s mit Bleistiften übertakten konnte.
V-Mods mit Silberleitlack realisiert hat.
Deaktivierte Shader mit ähnlichen Mitteln freischalten konnte.
Pins im Mainboard abgeklebt hat um Zustand XY zu erreichen.
und und und ...

All das hat auch irgendwann mal irgendwer versucht.

Genau DAS war mal der Reiz dieses Hobbys, da wäre niemand auf die Idee gekommen derartige Versuche als Dämlich hinzustellen sondern hätte sich gemeinsam an den Versuchen Erfreut und ausgetauscht.

Manche , inkl. Mich, interessiert bei solchen Basteleien auch die Garantie nicht.
Es geht schlicht ums Spaß am Hobby und an den Basteleien und erfreut sich am Erfolg oder hat eben etwas Lehrgeld bezahlt aber dafür mehr Erfahrung :D
 

Standeck

BIOS-Overclocker(in)
Genauso dämlich als man vor Jahren noch CPU´s mit Bleistiften übertakten konnte.
V-Mods mit Silberleitlack realisiert hat.
Deaktivierte Shader mit ähnlichen Mitteln freischalten konnte.
Pins im Mainboard abgeklebt hat um Zustand XY zu erreichen.
und und und ...

All das hat auch irgendwann mal irgendwer versucht.

Genau DAS war mal der Reiz dieses Hobbys, da wäre niemand auf die Idee gekommen derartige Versuche als Dämlich hinzustellen sondern hätte sich gemeinsam an den Versuchen Erfreut und ausgetauscht.

Manche , inkl. Mich, interessiert bei solchen Basteleien auch die Garantie nicht.
Es geht schlicht ums Spaß am Hobby und an den Basteleien und erfreut sich am Erfolg oder hat eben etwas Lehrgeld bezahlt aber dafür mehr Erfahrung :D
Ja das war super. Hab meine damalige Geforce 6800 LE freigeschaltet. Mit dem Riva Tuner glaub ich. Jetzt kannst du froh sein wenn du sie überhaupt noch übertakten kannst.
 

LDNV

Software-Overclocker(in)
Wohl wahr.
Zumal OC ja eh nur noch in Ausnahmefällen wirklich Sinnvoll ist und UV inzwischen eigentlich schon fast spannender ist ...

Auch eine Sache die mir den PC immer langweiliger werden lässt, weswegen ich mich viel lieber und öfter als früher noch, vor die Konsole setze. Aber das nur am Rand erwähnt ,soll kein Thema werden :)
 

Mazrim_Taim

BIOS-Overclocker(in)
Gab es nicht ~letztes Jahr was ähnliches?
Da hatte es geklappt.

Wie wäre es PCG-H.
Ein Tutorial für Dummies; inc. Fachberatung per Telefon / Skype von und mit Raffael, Thorsten, David und Co.
Ihr wolltet doch schon immer ne 1A Herausforderung....oder :D
 

4B11T

Software-Overclocker(in)
Tolle Aktion, vielleicht springen ja z.B. der8auer, Steve oder Linus sein Team darauf an und kommen noch einen Schritt weiter. Wäre zwar trotzdem nichts für jedermann, aber mal eine Vergleichbarkeit zu haben, was eine Speicherverdopplung in der Midrange überhaupt bringt wäre interessant.
 

AlphaMale

Software-Overclocker(in)
Wie manche Leute glauben sie seien schlauer als ein Konzern wie Nvidia mit einem Haufen an Ingenieuren.... schon ziemlich dämlich die Aktion...
Aufweia.:schief:..Hast du noch nie in deinem Leben was richtig "verrücktes" gemacht, wie das hier von dem YT ? (mir war klar, das es wohl nixt richtig funxen dürfte...weil daran ja mehr hängt, als ein paar Lötstellen zu verarbeiten)...
Oder bist du einer der Art Typ Mensch, der auf einer lockeren Gartenparty sich selbst seine Stehtische mitgebracht hat ? :D:lol:
 

plusminus

BIOS-Overclocker(in)
Sehr interessant , ich hoffe er bleibt dran und löst das Problem :daumen:

Habe auch noch ne RTX2070 rumliegen , der ich gerne eine Lötoperation spendieren würde :D

Solche Leute wie auch Roman Hartung gefallen mir und haben meinen Respekt das sind Praktiker !
 

PCGH_Torsten

Redaktion
Teammitglied
Was eine Arbeit....schade das es instabil geworden ist. Habe gerade nicht im Kopf welche Größe die gddr6x auf der 3080 haben....dann könnte man sich ein Bedarf seine 3080ti selber löten?

Physische Größe oder Speicherkapazität? Letzere beträgt 1 GB = 8 Gb bei allen bisherigen Desktop-Geforce 3000, die Größenunterschiede kommen durch 6/8/10/2*12-Chips je nach Interface zustande. Erst die RTX 3060 müsste mit sechs 2-GB-Chips starten. (Bei Quadros nutzt Nvidia die schon länger, um 48 GB auf den 12-Kanal-GPUs anzubieten). Allerdings würde ich abwarten, ob es jemandem gelingt, soviel Speicher nach einem Mod auch zu belegen. Physisch sind die GPUs dazu in der Lage, keine Frage, aber ein VRAM-Interface ist nicht Plug & Play. Neben Abstürzen wegen unpassender, nur durch BIOS-Rewrites änderbarer Konfiguration müssen Firmware und Treiber überhaupt erst einmal kapieren, dass jetzt mehr Platz genutzt werden soll. Mit Glück wird die zu nutzende Speichermenge ausgelesen – aber sie könnte auch ebensogut nach Erkennung einer "3070" oder "3080" festgelegt werden. Warum zwei Abfragen machen, wenn die Antwort auf die zweite durch die Antwort auf die erste eigentlich schon festgelegt ist?

Übrigens sollte man auch Aufwand und Risiko so einer Lötaktion nicht unterschätzen. Und wenn man schon 170 Euro, respektive bei einer 3080 dann 205 Euro für die Chips zusätzlich zur Karte ausgibt, wird der ganze Spaß schnell teurer als auf das Serienmodell zu warten, wenn man noch Geräte anschaffen oder das Risiko eines Defektes einpreist.
 

jhonnyX

Kabelverknoter(in)
Schon ziemlich coole Aktion muss ich sagen. Allerdings wäre es eventuell interessant dann auch gleich auf höher getaktete Chips zu gehen, so dass auch gleich Mehrleistung dabei rauskommt. Ich hatte diese Idee mal in Zeiten, bevor es BGA Chips gab. Einfach ne defekte Highend Karte mit GDDR1 kaufen und eine etwas schlechtere damit bestücken. Dann ordentlich an der Taktschraube drehen und sich über die höhere Speicherbandbreite freuen.
Ich denke ich versuche das mal bei einer Geforce 4/5. Damals war ein Vmod auch noch easy mit nem Drehpoti zu realisieren und die Verlustleistung war mit nem CPU Kühlermod zu bändigen.
 

Nuallan

PCGH-Community-Veteran(in)
Genauso dämlich als man vor Jahren noch CPU´s mit Bleistiften übertakten konnte.
So hab ich als junger Noob mal einen Duron 800 geschrottet. Wollte die GHz-Mauer durchbrechen, und hab kurz ohne Kühler gebootet um zu sehen ob es geklappt hat.. Leider kam dieses (damals sehr umstrittene) Video zu spät für mich:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

SFT-GSG

Software-Overclocker(in)
Physische Größe oder Speicherkapazität? Letzere beträgt 1 GB = 8 Gb bei allen bisherigen Desktop-Geforce 3000, die Größenunterschiede kommen durch 6/8/10/2*12-Chips je nach Interface zustande. Erst die RTX 3060 müsste mit sechs 2-GB-Chips starten. (Bei Quadros nutzt Nvidia die schon länger, um 48 GB auf den 12-Kanal-GPUs anzubieten). Allerdings würde ich abwarten, ob es jemandem gelingt, soviel Speicher nach einem Mod auch zu belegen. Physisch sind die GPUs dazu in der Lage, keine Frage, aber ein VRAM-Interface ist nicht Plug & Play. Neben Abstürzen wegen unpassender, nur durch BIOS-Rewrites änderbarer Konfiguration müssen Firmware und Treiber überhaupt erst einmal kapieren, dass jetzt mehr Platz genutzt werden soll. Mit Glück wird die zu nutzende Speichermenge ausgelesen – aber sie könnte auch ebensogut nach Erkennung einer "3070" oder "3080" festgelegt werden. Warum zwei Abfragen machen, wenn die Antwort auf die zweite durch die Antwort auf die erste eigentlich schon festgelegt ist?

Übrigens sollte man auch Aufwand und Risiko so einer Lötaktion nicht unterschätzen. Und wenn man schon 170 Euro, respektive bei einer 3080 dann 205 Euro für die Chips zusätzlich zur Karte ausgibt, wird der ganze Spaß schnell teurer als auf das Serienmodell zu warten, wenn man noch Geräte anschaffen oder das Risiko eines Defektes einpreist.
Danke für die Erklärung, es war auch eher eine theoretische Frage zur Machbarkeit als zur Alltagstauglichkeit. :)

So hab ich als junger Noob mal einen Duron 800 geschrottet. Wollte die GHz-Mauer durchbrechen, und hab kurz ohne Kühler gebootet um zu sehen ob es geklappt hat.. Leider kam dieses (damals sehr umstrittene) Video zu spät für mich:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
 
Zuletzt bearbeitet:

Nuallan

PCGH-Community-Veteran(in)
Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
Wie gesagt, war halt ein Noob. Heute haben alle Boards und CPUs Schutzmaßnahmen damit sie nicht abrauchen, damals aber nicht immer. Der Duron hatte sich auch ohne große Last nach wenigen Sekunden verabschiedet. Wie schon jemand unter dem YouTube-Video sagt:
TBF the Thunderbird core Athlon didn't have an on-die thermal diode and therefore was incapable of protecting itself in a situation like this; it was a serious issue at the time of the very first socket A Althlons and Durons, as was fragile dies cracking.
 

Mephisto_xD

BIOS-Overclocker(in)
Wie manche Leute glauben sie seien schlauer als ein Konzern wie Nvidia mit einem Haufen an Ingenieuren.... schon ziemlich dämlich die Aktion...
Die Tatsache, dass die Grafikkarte mit Speicherchips doppelter Kapazität überhaupt noch irgendwas tut zeugt eher davon, dass die 8 GB der Ladenregalversion eher durch Geiz von nVidia, als durch technische Probleme herrühren.

Ich tippe mal darauf, dass die 16 GB mit leichten Anpassungen des Boardlayouts problemlos auch unter Last laufen würden.
 

Buggi85

Software-Overclocker(in)
Die Tatsache, dass die Grafikkarte mit Speicherchips doppelter Kapazität überhaupt noch irgendwas tut zeugt eher davon, dass die 8 GB der Ladenregalversion eher durch Geiz von nVidia, als durch technische Probleme herrühren.
Definitiv keine technischen Probleme.
Ich verstehe auch nicht warum NVidia nicht von vornherein zweigleisig fährt und die Karten mit zwei Speichergrößen anbietet.
 

PCGH_Torsten

Redaktion
Teammitglied
Reine Kosten-/Nutzen-Rechnung inklusive Aufmerksamkeit: Eine zweite Version der Karte zu vertreiben, die zudem wesentlich teurer wäre, bringt viel Chaos, negative Publicity und, solange ohnehin keine Konkurrenz da ist, nicht unbedingt zusätzlichen Absatz. Also kann man sie auch einfach für ein Refresh in der Hinterhand halten.

Wie gesagt, war halt ein Noob. Heute haben alle Boards und CPUs Schutzmaßnahmen damit sie nicht abrauchen, damals aber nicht immer. Der Duron hatte sich auch ohne große Last nach wenigen Sekunden verabschiedet. Wie schon jemand unter dem YouTube-Video sagt:

"serious issue" ist etwas weit gegriffen. Als Thunderbird rauskam, hatte gar kein Prozessor eigene Temperaturkontrollmechanismen. Die wurden erstmals mit dem Pentium 4 eingeführt. Was Sockel-A-, aber auch -370-Prozessoren gegenüber den Nachfolgern und den meisten Vorgängern besonders empfindlich macht: Sie hatten auch keinen Heatspreader und waren somit mechanisch ungeschützt als auch zu extrem rasanten Temperatursprüngen fähig. Ein heutiger Prozessorpackage bietet einfach die mindestens 20 fache Wärmekapazität, wärend eine CPU im Format des Duron 800 selbst mit heutiger Regeltechnik gegebenenfalls schneller durchbrennen als sich runtertakten würde. Zumindest wenn ohne Stromsparmechanismus unmittelbar ab Einschalten des Stroms mit voller Spannung und vollem Takt gearbeitet wird, wie das damals bei allen Desktop-Prozessoren üblich war.
 

wuselsurfer

Kokü-Junkie (m/w)
Ich warte auf den Tag, das dies wieder eingeführt wird....
Hab ich auch.
Jetzt hab ich graue Haare.

oder halt GPU und CPU greifen auf den gleichen "schnellen" speicher auf einen MB zurück.
Das ist technisch nicht gut.
Der VRAM wird immer schneller sein.

Alleine die Zugriffswege auf der Grafikkarte sind wesentlich kürzer, als auf den Hauptspeicher.
Und bei den heutigen Geschwindigkeiten macht die Leitungslänge etwas aus.
 

FKY2000

PCGHX-HWbot-Member (m/w)
Danke für die Erklärung, es war auch eher eine theoretische Frage zur Machbarkeit als zur Alltagstauglichkeit. :)



Das hat dann aber nicht mit dem Bleistift zu tun, damals hätte ich keinen Chip, egal ob Intel oder AMD ohne Kühler betrieben. Mit skylake und Zen2 habe ich das schon gemacht. Das geht ohne probleme um zu testen ob die CPU bootet und selbst längere BIOS Sessions sind so möglich.... cyberpunk würde ich so aber nicht starten wollen....
Du bist ja krass ! Respekt.

Bin auch kein Kind von Traurigkeit, was OC und Basteleien an Hardware (je älter die Hardware, desto mutiger bin ich) angeht, aber nen Zen2 ohne Kühler (nochmal: wow !) zu booten würde ich mich nicht trauen :D
 

VALL

Komplett-PC-Käufer(in)
Das ist wirklich faszinierend. Hier gab es Mal so ein Thema wo jemand das mit einer GTX970 versuchen wollte. Keiner konnte genau sagen ob das funktioniert hätte.

Aber das es bei der 2070 schon so geplant war macht die Sache nur halb so spannend. Vielleicht gibt's ja jemanden der es auch Mal mit einer 970 ausprobiert.
 

Basileukum

Software-Overclocker(in)
Das ist ne feine Sache. 170 Euro mehr für anständig mehr VRam und dann auch noch selbstgemacht, so geht das! :D

Schade, daß es nicht ganz funktioniert hat. Dann kostet da 8gig VRam die Hälfte, sind wir bei 85 Euronen. Nvidia kauft nicht bei irgendwelchen Zwischenhändlern sondern gleich frisch aus der "Chippresse" in Massen raus, setzen wir die Hälfte des Preises an oder eher n Drittel, wahrscheinlich sind es weniger, dann hätte es für schlanke 525 Euronen UVP (auch schon massiv zu teuer für ne XX70, aber das ist nun wohl derzeit so) auch ne richtige Grafikkarte gegeben, aber NEIN, mangels Konkurrenz hat man das ja nicht nötig. :D
 

SFT-GSG

Software-Overclocker(in)
Du bist ja krass ! Respekt.

Bin auch kein Kind von Traurigkeit, was OC und Basteleien an Hardware (je älter die Hardware, desto mutiger bin ich) angeht, aber nen Zen2 ohne Kühler (nochmal: wow !) zu booten würde ich mich nicht trauen :D
3900x 12 Kerne 24 Threads oben ohne....klingt erstmal böse. Allerdings taktet sich die CPU sofort runter und im BIOS liegt auch keine Last an. Auch geht der Takt auf (glaube 800mhz)runter. Die Temperatur dafür rauf auf 90C°. Wie gesagt. Um 2-3 min im BIOS zu Verweilen geht das. Intel und AMD machen was das Temperaturmanagement angeht heute einen guten Job. Aber Windows würde ich so nicht booten wollen.
 

Supie12

Schraubenverwechsler(in)
Also ich habe mir dieses Video angesehen. Ich hätte noch ein paar Gedanken warum es nicht gehen könnte.
Ich habe gesehen, das er mindestens 1 Chip mit der Beschriftung andersrum reingebaut hat.

Normal denke ich werden die Chips von einem Roboter eingebaut, es wäre denkbar das er es nicht so perfekt hinbekommen hat.

Wenn es Abweichungen gibt (und bei Handarbeit gehe ich schwer davon aus) könnten diese ja vielleicht erst bei einem gewinssen Füllstand schlagend werden.
Da müsste es denke ich auch nicht unbedingt etwas bedeuten, das sein GPU Testprogi 16 GB anzeigte........
Beim Testlauf könnte dann der Speicher gefüllt worden sein, bis zu einem nicht sauber verbundenen Teil....Blubb.
(damit wäre auch der funktionierende Desktopbetrieb erklärbar).

Hat er es wirklich geschafft alle Kontakte zu schliessen, ohne "Wackler"?
Der Test war kurz nach dem Einbau, könnte noch etwas von der Verbindungsmasse (er verteilte ja was auf den leeren Plätzen noch flüssig gewesen sein?

Durch den Heissluftfön Beschädigungen, an den Slots?

Die Kleinteile die er wild neu angeordnet hat, wie sicher war das das es überhaupt für Last funktionieren soll?

Nicht vergessen, beim Einbau lag die Platine, danach war sie wohl hochkant im Rechner, es könnte auch noch etwas verrutscht sein, es war ja auch noch recht frisch.
 

SilentHunter

Software-Overclocker(in)
Das ist wirklich faszinierend. Hier gab es Mal so ein Thema wo jemand das mit einer GTX970 versuchen wollte. Keiner konnte genau sagen ob das funktioniert hätte.

Aber das es bei der 2070 schon so geplant war macht die Sache nur halb so spannend. Vielleicht gibt's ja jemanden der es auch Mal mit einer 970 ausprobiert.
Das wird da nicht gehen wegen ihrem seltsamen Speichercontroller 3,5GB volle + 0,5GB langsamere Ram Anbindung.
 

Mazrim_Taim

BIOS-Overclocker(in)
So hab ich als junger Noob mal einen Duron 800 geschrottet. Wollte die GHz-Mauer durchbrechen, und hab kurz ohne Kühler gebootet um zu sehen ob es geklappt hat.. Leider kam dieses (damals sehr umstrittene) Video zu spät für mich:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Stimmt das Video war damals sehr umstrittenen.
Aber dafür hat man heute gut Schutzmechanismen :D
Vielleicht auch deswegen.

PS.
Die Musik im Video.
Brr irgendwie ein Ohrwurm.
 

PC_race

Kabelverknoter(in)
Du bist auch einer der Leute, die glauben, 10GB VRAM auf einer 3080 seien zukunftssicher, weil die nVidia-Ingenieure das so "entschieden" haben. :lol:
Servus,
ich benutze meistens ca. 8-10GB
Also die 10 GB GDDR6x war schon eine gute Idee.
Nur meine Meinung.
Wo benutzt du die 24GB, nur so gefragt :)
 
Oben Unten