• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Auf dem Weg zum Retro-Highend-SLI-System: Reparatur und Aufbereitung einer 8800 Ultra

McZonk

Moderator
Teammitglied
Hallo zusammen,

ein kleines Projekt, an dem ich Euch auf alle Fälle teilhaben lassen möchte, ist der Aufbau meines Retro-Systems.

Nostalgiker aufgepasst: Wir reisen gut 13 Jahre zurück in das Jahr 2007, in dem es hardwareseitig noch richtig vorwärts ging und im Winter eine ekektrische Raumheizung durchaus noch en vogue war (Stichworte die jetzt jeden triggern sollten: G80, SLI, DirectX10/Unified Shader und Can it run Crysis?).

Eine funktionsfähige GeForce 8800 Ultra mit der sperrigen Bezeichnung "MSI NX8800 Ultra T2D768E HD OC" liegt bei mir schon länger auf Halde und ich wollte schon längst mal etwas damit machen. Jüngst konnte ich dann auf Ebay-Kleinanzeigen noch ein Gesamtsystem mit Intel Core 2 Extreme QX9650, EVGA 780i SLI FTW und jeder Menge Mushkin-Speicher erstehen (dazu kommen wir im Verlaufe dieses Tagebuchs, sodenn es denn auch ausreichend Gehör findet, sicherlich später einmal - ein Gruss geht an dieser Stelle in Richtung Bayern). Richtig gelesen, ein 780i SLI Board... was liegt da also näher als DAS ultimative SLI-System aus 2007 aufzubauen? Die Suche nach einer zweiten 8800 Ultra begann... In guter schwäbischer Manier war ich allerdings nicht bereit am ausgedünnten Markt Wucherpreise im Bereich von 90-100 Talern für ein "funktionieredes" Kärtchen bei den Kleinanzeigen zu legen - Das muss doch billiger gehen.

Lets get the party started!

----

Schnellnavigation:


Teil1: Gesucht und gefunden - Was kann die ungetestete und als defekt gekennzeichnete 8800 Ultra von Ebay-Kleinanzeigen?
Teil2: Die Detail-Analyse und das Ableiten der richtigen Schritte.
Teil3: Etwas graue Theorie – und die heiße Phase steht an!
Teil4: Ist doch alles nur heiße Luft - mit positivem Ausgang?
 
Zuletzt bearbeitet:
TE
McZonk

McZonk

Moderator
Teammitglied
Teil1: Gesucht und gefunden - Was kann die ungetestete und als defekt gekennzeichnete 8800 Ultra von Ebay-Kleinanzeigen?
---------------------------------------------------------------------------------------------------------------------------------------------------------


Ich habe eine ganze Zeit mein Lieblingsbezugsquelle für günstige Hardware (:ugly:) im Auge behalten und nach nicht allzulanger Zeit kam mir dann für gut 15 Euro eine explizit als defekt gekennzeichnete "Sparkle 8800 Ultra" entgegen. Eine Nachfrage nach Art und Äußerung des Defekts konnte nicht beantwortet werden, da der Nutzer angab hier einen Bestand aufzulösen und nur über ein Tablet verfügte (das lassen wir jetzt mal so stehen). Passend dazu war, dass tatsächlich gleich drei alte Karten unterschiedlicher Baureihen angeboten worden sind. Eine Nachfrage auf die optische Unversehrtheit konnte ebenfalls nicht beantwortet werden, da keine Fachkenntnis bestand. Gut, was solls - wer nicht wagt, der nicht gewinnt.

Wenig später erreichte mich dann ein Paket mit zwei Grafikkarten - der 8800 Ultra wollen wir jetzt mal Aufmerksamkeit schenken. Wohl verpackt in der gepolsterten Antistatikhülle erreichte mich also eine 8800 Ultra von Sparkle. Recht interessant, da mir von Sparkle eigentlich keine Nvidia-Referenz-Kühler bekannt sind. Entweder gab es die Topmodelle ohne die schwarze Kühlershroud (quasi das Referenzmodell mit der Bezeichnug SF-PX88ULTRA768D3-HP) oder als übertaktetes Calibre-Modell mit eigenem Custom-Kühler (P880 Ultra).

1-1080.415471784.jpg 1-1080.2918033598.jpg
Bildquelle: Computerbase / Computerbase

Was also hatte ich hier erstanden? Die Rückseite ist frei von jedem herstellerspezifischen Produktaufkleber, nur die Aufkleber der Referenzplatine sind präsent.

IMG_7512.JPG IMG_7510.JPG IMG_7511.JPG

Ein Blick ins Detail verrät: Die Karte hat schon einiges erlebt. Gut verstaubt hatte sie jedenfalls schon einige Betriebsstunden gesehen. Bereits auf den ersten Blick waren zwei fehlende Gewindebolzen am DVI-Port auffällig. Dazu kam ein Abbruch des Kühlerdeckels im hinteren Bereich der Karte. Ärgerlich, denn gerade ersteres hätte ich auf den Fotos auf Ebay-Kleinanzeigen eigentlich sehen sollen. :wall:

IMG_7506.JPG IMG_7507.JPG IMG_7508.JPG

Da ich sonst aber keine größeren mechanischen Defekte erkennen konnte, kam das Ding direkt ins Testsystem - und den Ausgang kann sich jetzt sicherlich jeder schon denken. Die Karte produzierte bereits im UEFI vertikale Pixelfehler aus der Hölle und eine Treiberinstallation war gar nicht erst möglich. Ich hatte aber auch schon damit gerechnet und war ehrlich gesagt auch recht froh ein Bild mit diesem Fehlermuster zu bekommen. Warum werden wir hoffentlich noch im weiteren Verlauf des Threads sehen. :devil:

IMG_7390.jpg
 
TE
McZonk

McZonk

Moderator
Teammitglied
Raus aus dem Vorbereitungsforum rein in die Öffentlichkeit: Es ist mal wieder soweit - der Zonk bastelt und hofft auf ein paar Fans für das Projekt. :devil:
 

Derber-Shit

Software-Overclocker(in)
Haha, das ist ein Porjekt nach meinem Geschmack!!! Schön, dass du dich ebenfalls mit zwei 8800 Ultras wieder zurück ins Jahr 2007 begeben hast! :devil::daumen:

Ich habe mit meinem "Nvidia PC Anno 2007" ebenfalls einen weiten Weg hinter mir; aktuell ist er leider nicht lauffähig, da mein EVGA 780i SLI sich leider verabschiedet hat. :wall:
Sehr gespannt bin ich auf die Reparatur der defekten 8800 Utra und hoffe daraus weitere Erkenntnisse für eine evnetuelle Reparatur meiner diversen defekten 8800 Ultras zu erhalten. :daumen:

Ich wünsche dir alles Gute bei deinem Projekt und werde dieses DEFINITIV weiter verfolgen und dir fest die Daumen drücken! :)


Liebe Grüße

Derber-Shit
 

Darkside

Komplett-PC-Aufrüster(in)
Interessantes Projekt, werd ich mal verfolgen :daumen:

Schaut ja von den Artefakten her, sehr nach defektem Vram aus. Wenn ja was hast du damit vor? Ofenmethode oder BGA Rework?
 
TE
McZonk

McZonk

Moderator
Teammitglied
Schaut ja von den Artefakten her, sehr nach defektem Vram aus. Wenn ja was hast du damit vor? Ofenmethode oder BGA Rework?
Danke für die Steilvorlage - genau das gilt es nämlich jetzt zu bestimmen: was genau ist los und wo muss man anpacken? :D

Teil2: Die Detail-Analyse und das Ableiten der richtigen Schritte.
--------------------------------------------------------------------------------
Der Patient hatte offensichtlich also schon einiges erlebt, im nächsten Schritt ging es jetzt natürlich darum näher zu verstehen, was genau das war, wo es klemmt und entsprechend die weiteren Schritte vorzubereiten.

Schritt 1? Der Kühler muss weg!

1.JPG

Schon bevor die Wärmeleitpaste (auf die komme ich gleich noch zu sprechen) gewichen ist, verraten die Aufdrucke ein paar Details: 0707A3 -> ja, das ist eine echte 8800 Ultra-Platine. Das A3-Silikon wies gegenüber den A2-Varianten der 8800 GTX einen höheren Bin (Chipgüte) auf und war exklusiv den Ultra-Karten vorbehalten (als teildefekte Chips gab es sie aber übrigens auch auf 8800 GTS - ich sprech da aus Erfahrung :devil:). 0707 verrät dagegen das Produktionsdatum der GPU - diese stammt also aus KW07/07 und gehört damit wohl zu einer frühen Charge. Gefertigt wurde der G80-Prozessor demnach zwischen dem 12. und 18. Februar 2007. Nvidia selbst präsentierte die Ultra-Auflage des G80 nämlich erst am 02. Mai der Öffentlichkeit - die ersten Grafikkarten sollten gar erst am 15. Mai den deutschen Handel erreichen (siehe hier). Damals war die Highest-Highend-Karte übrigens ab sündhaft teuren 699 Euro zu erwerben - Dafür gibts heute kein halbes High-End-Modell mehr... Touché, Nividia. :rollen: Ich will hier aber keine Moralreden zu den Preisentwicklungen halten und die Inflation, ich weiß...

Zurück zum Projekt und den Details: Also eine sehr frühe GPU. Das erklärt eventuell auch, warum hier trotz "Sparkle"-Branding ein Referenzkühler zum Einsatz kommt. Evtl. gehörte die Karte nämlich zu einer der ersten Chargen, wo Sparkle noch keine eigenen Kühler montiert hat, um rechtzeitig am Markt zu sein. Das ist jetzt aber reiner Spekulatius von mir, wäre aber eine sinnvolle Erklärung für den Sparkle-Aufkleber in Verbindung mit dem Referenzkühler -- siehe Teil1 meiner Ausführungen.

Was fällt noch auf? Eine Ganze Menge Staub schmücken die originalen Wärmeleitpads, was für ein paar Betriebsstunden spricht. Die Pads dagegen wurden definitiv noch nie getauscht.

IMG_7499.JPG

Der GPU war offensichtlich mal sehr warm, die Wärmeleitpaste ist nämlich teilweise schon leicht bräunlich verfärbt. Aber Moment mal: Es ist weiße Silikonpaste?! Normalerweise wurden die GPUs fabrikseitig mit grauer Paste ausgestattet (siehe z.B. hier). Der Kerl war also schon einmal auseiandner. Auch der abgeschraube GPU-Rahmen bestätigt einen Pastenwechsel.

IMG_7500.JPG IMG_7502.JPG

IMG_7398.JPG

Weiteres Indiz für das Alter und die Temperaturen: Viele Kontaktstellen sind mit einer Dreck-/Oxidschicht überzogen und angelaufen.

IMG_7494.JPG

Bevor ich also in die Detailanalyse gehe, gönne ich der Karte erst einmal eine ordentliche Reinigung. Dabei will ich jetzt nicht die Diskussion um "Hardware in der Spülmaschine" vom Zaun brechen, aber auch bei mir wandert die Karte mit einem starken Reiniger (Achtung: der neigt dazu Ettiketten zu lösen...) mit einem Pinsel unter Leitungswasser. Das Ergebnis der Mühen seht ihr hier im Vorher-Nachher-Vergleich: Selbst die vergammelten Kontaktstellen schafft diese Methode :D Zum Abschluss der Behandlung wurde übrigens mit destilliertem Wasser abgespült, mit Pressluft abgeblasen und die Karte dann sehr lange in der Sonne oder warmen Umgebung getrocknet.

1.JPG 2.JPG

Spätestens jetzt macht es Sinn mit der Lupe über die Karte zu gehen und mechanische Beschädigungen zu suchen. Im Bereich der Display-Ausgänge bin ich auch tatsächlich fündig geworden. Ein IC-Beinchen hat definitiv schon Kaltverformung inklusive Lotabriss gesehen, der Kontakt bei einem Zweiten war fragwürdig:

vorher2.JPG vorher1.JPG

Kurzerhand mit der feinen Lötspitze der Lötstation etwas beigegangen und die Probleme behoben. Das Ergebnis der Mühen: joa, die bekannten Pixelfehler sind noch da, aber ich habe zumindest ein besseres Gewissen eine mechanisch intakte Karte zu haben :ugly:

nachher2.JPG nachher1.JPG

--------------------------------------------------------------------------------------------------------------------------------------

Fassen wir zusammen: Die Karte ist gereinigt, mechanische Beschädigungen konnte ich feststellen und beheben. Auffällig: Ausgetrocknete, braun anglaufene Wärmeleitpaste auf der GPU und wohl einige Betriebsstunden in dem Zustand. Auch wenn das Streifenmuster oftmals mit einem defekten BGA-Speicherbaustein in Verbindung gebracht wird, ist dies nicht immer der Grund. Vielmehr sind wechselnde Hitzelasten und mit den Jahren zunehmende (heiße GPU... alte Wärmeleitpaste) Thermowechsel die Ursache, dass die Anbindung der GPU an das PCB hops geht - es folglich zu lokalen Signalabrissen im Ball-Grid-Array kommt. Das lässt sich behandeln und viele kennen den Trick gemein hin als: Die Backofen-Reparatur.

Ich will mich der Sache aber etwas technischer nähern und einen zielgerichteteren Versuch bringen, als mit viel Temperatur im heimschen Backofen einfach auf die ganze Grafikkarte zu schießen und zu hoffen, dass diese Maßnahme irgendwie eine Weile hilft.

Im nächsten Post beschäftigen wir uns daher nochmal im Detail mit einem BGA (Ball-Grid-Array), der vermuteten Fehlerstelle und dem -grund und dem Reflow-Löten, bei dem ich auf meine Pläne eingehen will (drei unterschiedliche "Schwierigkeitsgrade"):
1) Lokales Reflow-Löten
2) Lokales Reflow-Löten mit Flussmittelunterstützung
2) Ball-Grid-Array abtragen und erneuern
 
Zuletzt bearbeitet:
TE
McZonk

McZonk

Moderator
Teammitglied
Hmm, wie komme ich jetzt nur an zwei HD 2900XT's ran?, dann könnte ich das hier mit CF machen :D

Edle Stücke - Auspacken bitte! Da muss etwas Hardware-Porn zu her :D.
Bzgl. den 2900XT: ich könnte mit jeweils einer 512MB und 1GiB R600 dienen. Ich kann mich aber nicht davon trennen :devil:. Wenn ich es schaffe, finden wir sie hoffentlich auch in ein paar Vergleichsbalken wenn die Schüssel denn mal läuft - der lange Winter kommt ja.
 

Don_Dan

PCGH-Community-Veteran(in)
Danke für das schöne Projekt. Da fühle ich mich direkt wieder jung und in die Anfangstage von PCGHX zurück versetzt. :)

Und zu den 2900 XT: Ich habe hier auch je eine mit GDDR3 und eine mit GDDR4 liegen. Die bleiben aber auch hier. :D
 
S

Strokekilla

Guest
Die Herren,

herzlichen Dank für dieses schöne Thema. Endlich wieder Entschleunigt. Ganz großes Merci und weiter so !!
 
TE
McZonk

McZonk

Moderator
Teammitglied
Teil3: Etwas graue Theorie – und die heiße Phase steht an!
----------------------------------------------------------------------------------------------------------------------
  • Den physischen Aufbau der Grafikkarte und GPU verstehen
Die Grafikkarte besteht ja nicht aus einem Teil und irgendwie müssen die zahlreichen Komponenten ja zueinander finden. Für Grafikkarten wird bzgl. der elektrischen Leitfähigkeit in weiten Teilen auf das Auflöten der Komponenten auf das Printed-Circuit-Board (kurz: PCB) gearbeitet. Und so wir auch der eigentliche Grafikchip, der die hochkomplexen Verschaltungen in seinem Silizium beinhaltet auf der Platine verlötet. Das geschieht aber nicht direkt – das heißt der Silizium-Kern nutzt mit der Trägerplatine erst eine Art „Zwischenlage“.

NVIDIA_GeForce_8800GTX_G80_DSC01202_(24262001205).jpg
Quelle: https://commons.m.wikimedia.org/wiki/File:NVIDIA_GeForce_8800GTX_G80_DSC01202_(24262001205).jpg

So kontaktiert der rund 42.5 mm × 42.5 mm große G80-Silizium-Chip über 1.449 Kontaktflächen in Form kleiner Lötkügelchen an seiner Unterseite im flip-chip ball grid array (FCBGA) die Trägerplatine. Diese filigranen Verbindungen werden zu einer noch besseren Anbindung des Siliziums zum PCB mit einem Underfill (in der Regel auf Basis eines aushärtenden Epoxidharzes) umflossen.

electronicdesign_com_sites_electronicdesign.com_files_uploads_2013_09_1003_Demystifying_F1.png

Quelle: https://www.electronicdesign.com/technologies/digital-ics/article/21798307/repeating-failed-history-fails-designs

Den Underfill kann man beispielsweise auch am NVIO-Chip hevorragend erkennen:

GF8800GTX_NVIO.JPG
Quelle: PCGH... ;)

Die Trägerplatine kontaktiert dann ebenfalls über Lötkügelchen das eigentliche Board der Grafikkarte. Hier wird aber auf einen Underfill verzichtet, es besteht quasi ein Luftspalt zwischen den beiden PCBs.

  • Fehlerarten im Ball-Grid-Array (BGA-Package)
Dieser Aufbau hat eine unumgängliche Schwachstelle: Das ganze wird unter Last warm, ja sogar heiß und setzt auf unterschiedliche Grundwerkstoffe. Mit einher gehen damit unterschiedliche Wärmeausdehnungskoeffizienten (in der Technik nutzt man den Koeffizienten "alpha") des PCB-Grundmaterials und des Siliziums. Das heißt die beiden Komponenten dehnen sich bei identischer Erwärmung unterschiedlich stark aus. Folge sind Scherspannungen auf die Schnittstellen, die durch die Lötkügelchen bzw. den Underfill realisiert sind. Dieser Umstand kann auf zehntausende von Temperaturzyklen (kalt-warm-kalt) dann doch irgendwann mal zur Materialermüdung führen („thermocycle fatigue in ball grid arrays“), da ein Riss durch den Lötball wandert. Biegt doch mal eine Büroklammer ein paar Mal hin und her - auch dort lässt das Risswachstum irgendwann grüßen und ihr habt zwei Teile in der Hand.

thermische_Ausdehnung.PNG

Quelle: https://www.dfrsolutions.com/hubfs/Resources/System_Level_Effects_on_Solder_Joint_Reliability.pdf

Simulativ kann man hier recht schön abbilden, was dabei mit den Lötkügelchen passiert: Sie müssen die unterschiedliche Ausdehnung "auffangen". Dass dabei hohe Belastungen auf die Schnittstelle wirken, kann auch mit FE-Simulationen hervorragend aufgezeigt werden. Hier lässt sich auch ohne tiefgreifenderes Ingenieurswissen direkt erkennen, dass die "höher belasteten" Bereiche (rot...) schon klar aufzeigen, wo hier ein Riss durch die Kügelchen wandern könnte.

vMises.PNG
Quelle: https://www.dfrsolutions.com/hubfs/Resources/System_Level_Effects_on_Solder_Joint_Reliability.pdf

Und so ergeben sich in der Praxis tatsächlich oftmals Interfacefehler über Laufzeit einer Komponente. In Querschliffen lassen sich diese schön erkennen und decken sich mit dem eben angesprochenen Bild der FE-Simulation.

Fatigue-cracks-in-Pb-free-solder-joints-in-BGA-package-with-a-compressive-preloading.jpg
Quelle: https://www.researchgate.net/figure...-with-a-compressive-preloading_fig1_328924676
  • Vermutete Beschädigung und Reparaturmöglichkeiten
Von außen können wir beim vorliegenden Patienten aufgrund der geschlossenen Bauweise keine Fehlerart einwandfrei erkennen. Das Alter der Karte und der offensichtliche Betrieb bei hohen GPU-Temperaturen (wir erinnern uns: die Paste war gar verfärbt und hatte sicherlich keine gute Wärmeleitung mehr zu bieten), spricht für ausgeprägte Temperaturwechsellasten. Hohe Belastungen der Verbindung zwischen den einzelnen Komponenten halte ich daher für sehr wahrscheinlich – und da kommen für diese Betriebszustände primär die Lotkontakte in Frage. Ob nun die Fehlerstelle zwischen Silizium und Träger-PCB oder Träger-PCB und Grafikkarten-PCB liegt, lässt sich nicht ermitteln. Für den Reparaturversuch ist entsprechend wichtig beide Punkte „anzusprechen“.
  • Vorgehen und Empfehlungen
Die 8800 Ultra wurde 2007 in der EU in den Handel gebracht und unterlag damit der zwischenzeitlich bereits ersetzten RoHS-1-Norm (wer mal im Detail reinlesen möchte: https://eur-lex.europa.eu/eli/dir/2002/95/2011-09-10?locale=de). Diese setzt voraus, dass alle in Umlauf gebrachten Produkte frei von gewissen Schadstoffen sein müssen, darunter auch Blei. Demnach haben wir es beim Aufbau der Karte sicherlich mit bleifreiem (leadfree) Lot zu tun, womit ein ganz gefährlicher Stoff sich schon mal nicht im Backofen niederschlagen kann. Nichtsdestotrotz würden bei einer Erwärmung deutlich über 200 °C sicherlich erneut Kunststoffe ausgasen, Rest von Flussmitteln freigesetzt und nicht zuletzt Kondensatoren vollkommen unnützen Temperaturlasten ausgesetzt werden… Ja alles etwas, was man nicht im heimischen Backofen haben möchte, in dem dann im Anschluss der Apfelkuchen verweilt. Eine andere Lösung musste her! Und daher möchte ich auch ganz klar von der Backofen-Methode abraten – wer einen separaten „Industriebackofen“ sein Eigen nennt, wo keine Speisen zubereitet werden… von mir aus – aber auch hier nur bei sehr guter Belüftung des Raumes und ohne dass ihr die Abluft vom Ofen einatmet!

Aber wofür überhaupt pauschal auf alle Komponenten der Grafikkarte zielen und das auch noch mit einem recht ungesteuerten Temperatur-Zeit-Profil? (Die Karte wird im heißen Backofen halt irgendwie heiß). Ich gehe den anderen Ansatz und setze nur die GPU gezielt hohen Temperaturen aus und beachte dabei nach Möglichkeit gewisse Vorgaben für einen Reflow-Lötprozess. Dazu lassen sich unterschiedliche Vorgaben (Temperatur-Zeit-Kurven) finden, die je nach Lot-Art variieren können. Letztendlich habe ich mich für ein recht heißes Zieltemperaturfenster von 260 °C entschieden. Die Vorgabe habe ich dabei von Central Semiconductor Corp. Für bleifreies Lot entnommen.

Pb_free_reflow_solder_temp_profile.jpg

Pb_free_wave_soldering_temp_profile.jpg
Quelle: https://www.centralsemi.com/pb-free-solder-reflow

Die beiden Diagramme zeigen ein paar Dinge: es geht nicht darum die Karte für 10-20 oder 30 Minuten im Backofen zu lassen – das eigentlichen Überführen des Lots in die flüssige Phase und zurück kann in wenigen Sekunden stattfinden. Der Gesamtprozess dauert dabei nur rund 2-5 Minuten. Konstantes und homogenes Durchwärmen, wird von einer kurzen Hitzespitze gefolgt, die den eigentlichen „Reparaturprozess“ auslösen sollte.

Strategie: Mit einer Heißluftpistole wird erst gemütlich aufgeheizt und dann über kurze Annäherung bis auf 260 °C erhitzt. Die Temperaturüberwachung betreibe ich mittels eines Thermoelements nahe der GPU. So kann ich zugleich sicherstellen, dass ich neben den „chipinternen“ Lotstellen (Silizium gegen Träger-PCB) auch die Lotstellen zwischen Träger-PCB und Grafikkarten-PCB an-/aufschmelze.

Im ersten Versuch werde ich ohne Unterstützung von Flussmitteln arbeiten, die die Oberflächenspannung des Lots reduzieren, Oxidbildung unterbinden und die Benetzbarkeit der Lötpartner verbessern. Dieser Trick ließe sich eh nur zwischen Träger-PCB und Grafikkarten-PCB anwenden, da zwischen Silizium und Träger-PCB durch den „Underfill“ gar keine Zugänglichkeit herrscht (mal ganz ab vom Heatspreader, der dann auch noch runter müsste…).

Fazit:

Ihr seht also schon: Es war jetzt sehr theoretisch, aber wir nähern uns mit großen Schritten der heißen Phase. Im nächsten Post bekommt der G80 dann seine Wärmekur und wir werden sehen, ob das hier alles nur heiße Luft war. Ich kann ja schon mal spoilern: es lohnt sich wirklich dabei zu bleiben ;)
 

TheGermanEngineer

Software-Overclocker(in)
Bin gespannt was daraus wird. Solange du nicht wie Willi versucht mit einem Gasbrenner den Chip zu grillen, stehen die Chancen vielleicht gar nicht mal so schlecht :daumen:
 
TE
McZonk

McZonk

Moderator
Teammitglied
Respekt für den sehr tief gehenden Beitrag :daumen:

Machst du das beruflich, klingt mit fast so?
Vielen Dank! Ich hoffe es ist (für den, der die Wall of Texts denn lesen möchte) mal ein etwas anderes und spannendes Tagebuch. Beruflich bin ich zwar im Bereich Berechnung tätig und kenne mich da tatsächlich im Bereich Wärmeverzüge aus, mach aber etwas ganz anderes als (PC)-Hardware :)
 

DOcean

PCGHX-HWbot-Member (m/w)
ah OK bei dem Wissen könnte man denken du bist beruflich im Bereich Bestückung von LP (Leiterplatten) unterwegs :D
 

Blechdesigner

PCGHX-HWbot-Member (m/w)
Wo ich gerade jetzt erst das schöne "Nvidia-Grün" auf dem Monitor sehe, erinnert es mich stark an meine damalige 9800 GX2, welche der Backofen zu neuen Leben verholfen hatte und als "Benchopfer" durch noch viele andere Hände ging.

War damals schon interessant zu sehen wie die beiden Baguettehälften auf einem Stück Pappe vor sich hin schwitzen, nur war der Geruch auch noch eine Woche später in der Bude zu vernehmen.
 
TE
McZonk

McZonk

Moderator
Teammitglied
Teil4: Ist doch alles nur heiße Luft - mit positivem Ausgang?
--------------------------------------------------------------------------------------------

Achtung Disclaimer (leichter Sarkasmus, weil man im WWW ja bald gar nix mehr frei berichten kann): Dieser Post fällt an einigen Stellen klar unter #WerbungweilMarkennennung und so... :fresse:

Bevor ich mich dem Reparaturvorgang gewidmet habe, habe ich noch kurz den Referenzkühler aufbereitet. Die Abbrüche habe ich mit 2-Komponenten-Epoxidharz verklebt, das glasklar aushärtet und so die Beschädigungen quasi hat verschwinden lassen ("UHU Endfest 300", für den, der mal auf ähnliche Thematiken stößt ;) ).

Die Kur mit meinem Reiniger hat auch dem Kühler selbst sehr gut getan - der erstrahlt im Nachgang beinahe wie neu. Von den Wärmeleitpads habe ich mich getrennt, die waren nun wirklich für die Tonne. Ich konnte auch den mittlerweile von Außen angegilbten Sparkle-Aufkleber auf der Lüfternabe vorsichtig lösen, sodass der darunter liegende Nvidia-Referenzkleber unbeschädigt zum Vorschein kann. Das sieht für mich bedeutend stimmiger nach Referenzkarte aus, war aber ein elendes Gepopel...

IMG_7470.JPG IMG_7472.JPG IMG_7461.JPG

Den Radiallüfter selbst habe ich ebenfalls mit Reiniger und Pinsel behandelt. Da der Reiniger stark fettlösend ist, muss man hier aber aufpasen, den Motor und die Lager nicht zu sehr mit einzubeziehen. Hier soll ja eine Schmierwirkung erhalten bleiben.

IMG_7474.JPG

Nachdem der 2k-Epoxi dann ausgehärtet war, habe ich den Kühler wieder fix zusammengesetzt und gut wars...

IMG_7463.JPG IMG_7459.JPG

Und dann kam der eigentliche Reparaturvorgang - zu den avisierten Zeit-Temperatur-Profilen hatte ich mich in Teil3 der Serie ja schon ausgelassen. Jetzt kommen wir zur praktischen Umsetzung. Für das Aufheizen nutze ich eine 2.000 Watt starke Heißluftpistole. In meinem Fall stammt die von Alphacool und war eigentlich für die Bearbeitung von Hardtubes gedacht. Die Marke ist aber eigentlich vollkommen egal - Kosten ~20 Eur für ein halbwegs brauchbares Gerät.

60031.jpg

Das PCB habe ich dann nahe der GPU mit einem Thermoelement versehen. Klebeband ist hier temperaturstabiles Kaptonband, damit auch bei >200 °C nichts passiert. Ja und schon vor der Behandlung zeigt das Thermometer fast 30 Grad. Toller Spätsommer und ich hatte die Platine natürlich auch längere Zeit in der Hand zur Montage des Thermoelements.

IMG_7422.JPG IMG_7420.JPG

Bevor ich dann loslege, gibts noch eine Schutzschicht aus Aluminiumfolie, um die Hitze von den anderen Komponenten fern zu halten - wir wollen ja explizit nur auf die GPU wirken.

IMG_7419.JPG

Und dann ging das Spiel los: Pistole auf höchste Stufe und in einiger Entfernung in kreisenden Bewegungen über der GPU Temperatur in die träge Masse bringen. Die Antistatik-Schutzhülle hatte ich übrigens vorher noch entfernt, die Karte lag folglich direkt auf den Fließen des Balkons.

Vom eigentlichen Prozedere habe ich leider gar keine Bilder, da ich mit Temperaturführung wirklich voll beschäftigt war. Lasst Euch einfach gesagt sein: ich hab die Kurve ganz gut getroffen indem ich über den Abstand geregelt habe und hatte am Ende dann tatsächlich 255 °C neben der GPU gemessen. Zeit den Vorgang zu beenden und die Grafikkarte "unkontrolliert" abkühlen zu lassen.

Ja, danach war das Zittern natürlich da? Wars das jetzt? Gibts Erfolg?

Ich halte es daher möglichst kurz: Ich hab noch die Slotblende mit den zwei fehlenden Gewindebolzen ergänzt, habe neue Wärmeleitpads auf den Kühler gepackt (RAM/NVIO 0,5 mm // VRM 1,0 mm jeweils Arctic Cooling) und hab die GPU feinsäuberlich mit WLP bestrichen.

IMG_7450.JPG IMG_7449.JPG IMG_7452.JPG IMG_7451.JPG

Und dann kam der Moment, die Karte steckte überholt im Testsystem.

IMG_7647.JPG

Und da gibts nicht mehr viel zu sagen, außer: Es ist Zeit für ein Meme!

g1389982333989415287.jpg.png


F*** Yeah, IT WORKED!

Die Schönheit war wieder da, der Treiber ließ sich ebenfalls problemlos installieren:

IMG_7648.JPG


Und dann gab es (ich hatte das Win7-Testsystem frisch aufgesetzt) erst einmal 2h lang Windows-Updates... HMPF!

updates.png

Seitdem hat die Karte jetzt schon einige Temperaturwechsel hinter sich und ist (eigentlich ;)) schon rund 1 Woche lang absolut fehlerfrei im Betrieb. Heute habe ich mal die guten alten 3D Marks laufen lassen, was das Ganze nochmal unterstreicht.

3dm03_firstrun.jpg 3dm06_firstrun.jpg

Demnächst können wir uns dann mal Leistungswerten und dem Thema "Sonstiges System und SLi" zuwenden.
 
Zuletzt bearbeitet:
TE
McZonk

McZonk

Moderator
Teammitglied
Ich war gerade nochmal shoppen und habe ein optisch passendes zu Hause für die Hardware ergattert.
Für 45 Euro gibts den Eimer gerade beim großen Fluss bzw. Alternate (hier aber zzgl. Versandkosten). Wieder ein Gehäuse mehr - meine Frau wirds freuen :fresse:
 

Player007

PCGHX-HWbot-Member (m/w)
Das ist so cool, hatte auch die ganze Zeit diese Idee im Kopf. Jetzt hab ich den Thread hier entdeckt *habenwill*
Habe mir nun vor zwei Tagen ein EVGA 790i Ultra SLI Board inkl. Q9450 bei Ebay geholt. Dazu noch einen passenden E8600 um die 5ghz zu knacken :ugly:

Bei den GPUs wird es langsam interessant:
1x 8800GTX da, 2. kommt die Tage
1x 9800GTX+ da, vermutlich bleibt die alleine
1x GTX 285 da, wird auch im SLI getestet
1x GTX 580 da, wird vermutlich auch im SLI schwitzen :haha:

Überlege mir noch zwei GTX 480 zu holen, aber erstmal so ein wenig mit spielen.

"Can it run Crysis?" lautet ja das Motto, vll auch "Can it run Crysis Remaster?"
 
TE
McZonk

McZonk

Moderator
Teammitglied
Teil5: Ein passender Unterbau für das High-End-SLI-System
---------------------------------------------------------------

Heute gibts mal einen Blick neben die Rubrik Grafikkarten. @wuselsurfer : Deinen Vorschlag finde ich gerade vor dem Hintergrund, dass Nvidia SLI jüngst ja offiziell für tot erklärt hat, sehr passend. Nvidia- vs. 3dfx-SLI nehme ich daher gerne mal im Themenspeicher auf - das können wir dann abhandeln, wenn das System dual wird :)

Heute gehts daher erstmal mit ein paar Impressionen um die Plattform, die das SLI der beiden Ultras ermöglichen soll - Los geht es mit der CPU.

Da ich seinerzeit selbst schon einen Intel Core 2 Extreme QX9650 besaß (genau genommen sogar zwei, nachdem einen das Zeitliche segnete), hatte ich es auch tatsächlich wieder auf eben jene CPU abgesehen. Praktisch, dass das Ebay-Kleinanzeigen-Angebot direkt eine passende Kombo aus Board, Speicher und CPU bot. Nach Erhalt, habe ich mich natürlich direkt auf die Suche nach dem Stepping der CPU gemacht. Den QX9650 gibt es nämlich als C0- (SLAN3) und C1-Stepping (SLWAN), wobei Letzterem etwas bessere OC-Eigenschaften nachgesagt werden. Nach Sichtung der CPU war dann erstmal eine Reinigung notwendig - Stichwort: Jahrelanger Flüssigmetall-Einsatz :fresse:. Nach 'ner Menge Spiritus, sonstiger scharfer Reiniger und etwas Abbrasion kamen die Eigenschaften dann etwas verblichen wieder zum Vorschein. Es handelt sich tatsächlich um einen Yorkfield im gewünschten C1-Stepping. Check! Wer etwas in der Vergangenheit schwelgen und mehr über den ersten 45nm-Prozessor für 999$ erfahren möchte, klickt hier auf PCGH vorbei.

DSC_3366.JPG DSC_3367.JPG DSC_3375.JPG

Im Bundle hatte ich ebenfalls 8 GiByte DDR2-800 CL4 Speicher von Mushkin miterworben, musste aber leider feststellen, dass einer der vier 2-GiByte-Riegel scheinbar zwischenzeitlich einen weghatte (Memtest-Fehler ahoi). Aber kein Problem, das nutzen wir direkt aus, um auch speichertechnisch bzgl. Boardspezifikationen natürlich ans Maximum zu gehen (das System soll ja mal klotzen, nicht kleckern). Schlussendlich sind es 4x 2 GiByte DDR2-1.066 CL-5 Riegel geworden. Selbstverständlich ebenfalls von Mushkin, war ja schließlich damals eine schwer angesagte, etablierte Marke im Selbstbau-/Overclockerbereich (@PCGH_Stephan : Das ist doch auch bald schon ein Kandidat für die "was ist eigentlich mit..."-Serie in der Print). Genau genommen sind es auch wieder zwei 4-GiByte-Pärchen der Frostbyte-Serie ("996599"), die passen auch optisch einfach klasse in die Zeit und zum Board und sind bzgl. Geschwindigkeit und Kapazität der Anschlag -> https://preisvergleich.pcgameshardw...ne-frostbyte-dimm-kit-4gb-996599-a317316.html

IMG_7680.JPG IMG_7685.JPG

Last but not least: Die passende Platine. Seinerzeit gar nicht so einfach, denn für die SLI-Kombination musste man gewissse Einschnitte bei der Chipsatz-Wahl hinnehmen. Den guten Intel-Chipsätzen (X38, X48, ...) blieb der Betrieb von SLI nämlich verwehrt. Zwar gab es Modder, die eine Freischaltung erwirken konnten, aber wirklich robust und offiziell war das erst in der Nachfolgegeneration möglich. Für X58 erwarb Intel nämlich gegen Lizenzgebühren offiziellen SLI-Support. Was also blieb übrig? Der Griff musste zu einem Nvidia-Chipsatz gehen.

Damals herrschte noch richtig Bewegung am Markt: Bot Nvidia bereits seit den nForce-500-Chipsätzen SLI-Möglichkeiten für Intel-Prozessoren, gab es passend zu Weihnachten 2007 mit dem 780i-Chipsatz einen großen Hub. Der große Vorteil war dabei ein dank nf200-Zusatzchipsatz möglicher Triple-SLI-Betrieb mit je 16 PCIe-Lanes. Aber nur wenige Monate später (März 2008) schob Nvidia mit dem 790i-SLI schon den nächsten High-End-Chipsatz nach. Er war in weiten Teilen identisch zum 780i, bot aber DDR3-Support und war in kleinerer Strukturbreite gefertigt.

Da die 8800 Ultras ja im Jahr 2007 auf den Markt kamen, fiel die Wahl folglich auf eine 780i-Platine. Erfreulicherweise gab es dabei nicht Standardkost - die Intel-SLI-Platinen gab es nämlich oftmals nur als Nvidia-Referenzplatinen, quasi gelabelte Founders Editionen - sondern ich konnte mit dem EVGA nForce 780i SLI FTW eine tolle Customplatine bekommen. Mehr zum Chipsatz und den Möglichkeiten Triple-SLI liest man übrigens hier auf PCGH nach.

IMG_7678.JPG IMG_7686.JPG IMG_7688.JPG IMG_7692.JPG IMG_7690.JPG IMG_7673.JPG IMG_7672.JPG IMG_7671.JPG IMG_7681.JPG

Aus der Menge der Referenzplatinen hob sich EVGA damals mit einem "Nachbau" heraus, der an einigen wichtigen Punkten deutliche Vorteile gegenüber der Referenzkonstruktion von Nvidiaa selbst bot. So war es nicht nur signifikante Verbesserungen in der Spannungsversorgung (mehr Phasen in höhrer Qualität), langlebigere Kondensatoren, sondern auch das Übertakter-BIOS (ja, damals gabs noch kein UEFI...), das zusätzliche Funktionen wie die VDroop-Kompensation bot. Das Ganze war schlussendlich auf den Namen EVGA nForce 780i SLI FTW getauft. Mehr nachzulesen gibt es hier.

1601018840318.png


Beim Kühler gibts erstmal einen historisch passenden Klotz - mal sehen ob das System irgendwann mal noch eine Wasserkühlung sieht. Temperaturtechnisch wäre das zwar sinnvoll, schade wäre es aber um die schönen Referenzkühler auf den Grafikkarten. Mit dem Prolimatech Megahalems gibts einen zeittechnisch soweie optisch passenden, starken Kühler. Der Kühlkörper mit gleich 6 Heatpipes kam damals übrigens serienmäßig ohne Lüfter... Hier habe ich aus der Grabbelkiste ein halbwegs starkes, aktuelles PWM-Derivat gegriffen (Alphacool Eiswind 12). Einzige Herausforderung hier: Ich musste die Halterung des Kühlers lokals mittels Säge/Feile und Co. anpassen, da es zu Kontakt mit der Spannungsversorgung kam.

IMG_7677.JPG IMG_7683.JPG IMG_7675.JPG

Und jetzt ein Dankeschön an all diejenigen, die es bei der Walloftext bis hier her geschafft haben. Als nächstes Wandern die Teile dann ins Gehäuse, das ist mittlerweile auch da.
 

TheGermanEngineer

Software-Overclocker(in)
Damn, das ist mal echt ein sexy Board, das dafür auch nicht RGB hier und da, OLED-Displays und quadratmeterweise Abdeckungen braucht. Einfach ein funktionales Board mit zugegeben echt coolen Kühlrippen und Heatpipe.
 

devon

PCGHX-HWbot-Member (m/w)
So ein bisschen kommt kommt man sich da in die alte Zeit versetzt gerade mit dem Mainboard (Das hatte ich damals), als wir das Extremübertakten angefangen hatten :)
 

Olstyle

Moderator
Teammitglied
Ja Ja, die HW von der man früher nur geträumt hat.:love:
@mushkin: Hab ich im Ryzen Rechner. Die Ridgeback sind aber nur Durchschnittsware. Für DDR2 OC hatte ich immer ein paar Crucial Ballistix im Schrank, ich glaube die liegen da immernoch.
 
Oben Unten