Geschmolzener Stecker bei RTX 4090: Lösung doch nicht so einfach wie gedacht?

Was Euch nicht klar zu sein scheint: Kein Hersteller nimmt Geld in die Hand, um der Allgemeinheit einen Gefallen zu tun. Wenn man etwas investiert, dann nur deswegen, weil man sich davon mehr Verkäufe erwartet. NVidia vorzuwerfen, sie entwickeln in proprietäre Techniken ist nur einfach dumm. Denn die Alternative ist GAR keine Entwicklung.
Ja und Nein, grds. sind die Techniken von Nvidia oftmals sehr brauchbar, aber sie haben nunmal auch das Problem, dass solche propiertären Techniken oftmals das Problem haben, mit der Zeit sehr sehr uninteressant zu werden. Das weiß NV natürlich und muss dementsprechend in der Entwicklung die Ressourcen so planen, dass am Ende dennoch ein Plus rauskommt.

AMD ist hier oftmals in der zweiten Reihe und "baut nach", da sie nun aber wissen, dass bereits ein nahezu Standard implementiert ist, würde es der "kleinen" Schmiede ja gar nichts bringen etwas propietäres zu machen, daher müssen sie zwangsläufig für alle entwickeln (offen) und dem Markt somit den Anreiz geben, auch die 20% AMD Karten zu unterstützen. Da der Martk nun mit (hier) Freesync eine sehr gute Alternative hat, die auf allen Karten läuft (ein weitere Mitbewerber ist ja Intel, gerade auch mit integrierten CPUs im Chip), wird man als Hersteller von Software und eben der Hardware einen Teufel tun und die NV Technik zusätzlich einbauen.

Beide machen das mit absolutem unternehmerischem Kalkül. Nvidia will sich seine Marktposition sichern, AMD will eben nach vorne kommen!

Das Problem an NVs Vorgehen ist eben, dass es unsympathisch rüberkommt und kundenunfreundlich ist. Damit muss NV aber nunmal leben, sie könnten ja auch einen offenen Standard bringen, denken aber eben, dass der "kurzfristige" Nutzen größer ist, als der langfristige Effekt, die Meinung von Kunden gegenüber dem Unternehmen. Das ist ein für und wider und hat rein gar nichts mit "böse" zu tun, sondern ist eine Abwägung von Interessen, die NV so entscheidet und umsetzt. Aber, dass muss sich auch jeder Fan der Marke gefallen lassen, es ist nunmal maximal kundenunfreundlich und so wie es Entwicklungen antreibt, blockiert es diese auch, denn nicht jeder Hersteller von Software/Hardware wird etwas implementieren was nur auf einem Teil der Karten läuft (insbesondere jetzt DLSS 3; wo ja nur ein minimaler Bruchteil der Karten dies nutzen kann) und so wird die Entwicklung eben auch behindert. Gibt man DLSS 3 auf allen NVs frei (gut, technisch wären wohl nur die RTX 3 und 4 möglich) wären deutlich mehr Profiteure da und die Softwareentwickler würden fleißig einschreiben, so aber denken sich sicherlich einige, für 1Mio Karten lohnt sich das ja gar nicht, wir brauchen X Entwicklerstunden und die haben wir eigentlich gar nicht!
Es ist also nicht nur gut, aber eben auch nicht nur böse.
Sie rennen den Innovationen von NVidia meist immer nur hinterher. Es gibt Ausnahmen (Mantle, Tessellation, SM 3)
Naja, auch da gibt es durchaus viele Eckpunkte in der Geschichte wo AMD/ATI schneller und besser war und Nvidia hinterhergelaufen ist. Aktuell hat sich das Ganze allerdings dazu entwickelt, dass NV vorlegt und AMD nachzieht. Was aber auch den Marktanteilen geschuldet ist, wenn AMD etwas bringt, interessiert es vorsichtig gesagt niemanden, weil der Marktanteil so gering ist, bei NV ist die Durchdringung sofort viel größer.
Eher sollte man an dieser Stelle das Gebahren von Nvidia hinterfragen - schade, dass Du dazu nicht bereits bist.
Kann man tun, wird aber immer wieder zum Schluss kommen, dass Lederjacke nicht derjenige ist der aus der Hölle kommt, sondern ein durchaus erfolgreicher und cleverer Manager eines Tech Unternehmens!
 
Bin ich froh das ich noch nicht auf die neuen Karten gewartet habe und mir einen Sapphire 6900 geholt habe. Mehr Leistung als man braucht.
Aber Probleme hat es schon immer gegeben, bei jedem Hersteller ganz egal wer das ist. Es ist halt nur ärgerlich, wenn man so viel Geld hinlegt und dann so was. Aber so ist das nun mal.
Denn noch denke ich, es wäre besser die Hersteller würden weniger auf noch mehr Leistung gucken. Sondern auf Effizienz.
Nur wird das nicht passieren. Da brauch ich mir nur die Diskussionen hier anzusehen. Es ist am Ende der User, der jedes Jahr mehr Leistung fordert und schreit, wenn es nur mal 5-10% sind. Und dass, obwohl wir uns in einen Bereich bewegen in der Leistung hat das man eine sehr lange Zeit damit keine Probleme haben würde.
 
AMD ist nicht "gut" und "lieb" zu den Kunden. Sie rennen den Innovationen von NVidia meist immer nur hinterher. Es gibt Ausnahmen (Mantle, Tessellation, SM 3)... aber es ist durchaus ein sich wiederholendes Schema.
AMD bzw. damals ATi baute schon Grafikkarten, da hat Nvidia noch nicht mal auf dem Papier exisitiert.
:ugly:

Wenn du was innovatives sehen willst, dann schau dir mal die ATi 16899-0 von 1988 an.

Aber welche Firma die gewinnorientiert arbeitet, ist denn schon "gut und lieb"? Beide Firmen wollen Geld verdienen. Das einzige was sich unterscheidet, ist die Herangehensweise. Während Nvidia nachweislich stärker in die properitäre Richtung geht, versucht es AMD eher über offene Pfade. Beides hat seine Vor- und Nachteile.

Das der eine Hersteller vom anderen abschaut ist wahrlich nichts neues. Das gibt es nicht nur im Hardware-Segment sondern in vielen anderen Branchen auch. Mal mehr und mal weniger offensichtlich.

Aber weißt du was auch ein wiederholendes Schema ist?
Sich das Wissen einfach einzukaufen um an Patente ranzukommen und im Best-Case auch noch unliebsame Konkurrenz auszuschalten, damit man den eigenen Kürbis nicht benutzen muss. Denn das macht Nvidia ziemlich gerne, und das ist auch sehr ausführlich dokumentiert. Am bekanntesten dürften hier die Käufe von 3dfx (:hail:) und Ageia (Physik-Prozessor) sein. Aber das ist nur die Spitze des Eisbergs. Wie schon gesagt, das Internet hat das alles sehr gut dokumentiert. Niemand behauptet das Nvidia keinen eigenen Ideen hat, aber DIE Innovationsbude wie Nvidia gerne mal dargestellt wird, ist sie nun auch nicht. ;)

Beide Anbieter fahren hier ihre ganz eigenen Strategie um Marktanteile zu gewinnen bzw. zu halten. Und das ist auch gut so, meiner Meinung nach. So kann jeder sich gemäß seinen eigenen Vorlieben und Anforderungen nach entscheiden. Mal sehen wohin die Reise langfristig gehen wird, jetzt wo mit Intel ein neuer Wettbewerber den Markt betreten hat. An meinem persönlichen Kaufverhalten wird sich allerdings nichts ändern. Denn passt das Produkt nicht zu meinen Vorlieben, Vorstellungen und/oder Anforderungen, dann kann auf dem Karton stehen wer will. Voreingenommenheit hat bezogen auf den Hardwarekauf, bei dem es oftmals um viel Geld geht, nichts dort zu suchen. Da halt ich´s wie @PCGH_Raff Die einen sehen Rot, die anderen Grün. Doch der wirklich Weise ist farbenblind.
 
Kann man tun, wird aber immer wieder zum Schluss kommen, dass Lederjacke nicht derjenige ist der aus der Hölle kommt, sondern ein durchaus erfolgreicher und cleverer Manager eines Tech Unternehmens!

Wer spricht denn von solchen Kategorien? Muss man alles immer in Schwarz-Weiß einteilen?
Erfolg und Cleverness stehen ja auch keinesfalls in Widerspruch zu negativen Aspekten, zumal ich sowieso geneigt bin, solche Themen nicht zu personifizieren.
Da stecken doch meist Managementprozesse dahinter, die nicht nur ein Alleinherrscher entscheidet.

Und nur weil man Firma A kritisiert, lobt man damit Firma B noch lange nicht.
 
Gsync deckt einen viel höheren Bereich bei der Bildwiederholrate ab und ist somit technisch besser.
Einfach nein.
Und komm jetzt bitte nicht mit den 1-max Hertz Angaben von der Nvidia Seite.
Das können adaptive sync Monitore mit ausreichend Hertz genauso.
Ja, bei 60Hz Monitoren ist natives gsync besser und adaptive Overdrive haben auch die wenigsten adaptive sync Monitore.
Aber das hast du ja nicht als Punkt angeführt.
 
Bis auf zwei Ausnahmen kann das jeder adaptive sync Monitor mit 120Hz+.
Gsync Ultimate braucht zu 99% ein Gsync v2 Modul und das braucht wieder ne ordentliche Kühlung mit einem meist lautem Lüfter.
Auch bin ich auf DP 1.4 ohne DSC beschränkt, also maximal 98Hz bei UHD mit HDR oder 120Hz ohne.
 
Einfach nein.
Und komm jetzt bitte nicht mit den 1-max Hertz Angaben von der Nvidia Seite.
Das können adaptive sync Monitore mit ausreichend Hertz genauso.
Ja, bei 60Hz Monitoren ist natives gsync besser und adaptive Overdrive haben auch die wenigsten adaptive sync Monitore.
Aber das hast du ja nicht als Punkt angeführt.
Generally, AMD FreeSync works within a 48 to75 Hz window.3 So, if you’re playing a game with 100 to 200 fps, you won’t see the benefits of AMD FreeSync because you’re not within the sweet spot or window for smooth gameplay.
Mein Gsync funktioniert auch noch mit 144 Hz. Der Freesyncbereich ist bei den meisten Monitoren nunmal kleiner als der Gsyncbereich.
 
Wobei zu diesen Zeiten gab es noch keine normierten Zusatzstecker. Die erste Karte war die V5 6000 mit dediziertem Netzteil und dann kam lange nichts. Die FX auf Seiten NVs kam Anno 2003 mit knapp über 70W TDP und die hatten gar einen normalen Molexstecker (4Pin mit 1x12V). Erst die 7er Serie kam dann flächendeckend mit 6PIN und dann aber auch schon über 100W.


Wobei man die bei einem 16 PIN Stecker ja gekonnt hätte. Billige Crimpkontakte wird es sowohl bei MiniFit als auch Microfit geben. Ich hab ja schon die Befürchtung, dass man gelötet hat, weil man die kleinen AWG 22 spezifizierten Pins benutzt hat und die Kabel daher gar nicht crimpen könnte.

Die V5 6000 wurde nie verkauft, aber die 5500er brauchte bereits die Zusatzversorgung via Molex. Danach/parallel folgten einzelne Geforce 2 Ultra, 3 und 4 Ti mit Molex, nachdem die Kombination aus Billig-Boards und High-End-Grafik bei der 256 teils zu Schäden am Slot führte, sich der AGP Pro aber nicht durchsetzen konnte. Zwei Jahre nach der V5 5500 folgte dann mit der 9700 Pro, die nächste Karte, die durchgängig nach externem Strom verlangte (i.d.R. via Floppy-Stromstecker). Ungefähr in dieser Zeit müssten die Entscheidungen für den PCI-E-Stromstecker getroffen worden sein, denn der kam weitere 2 Jahre später bei der 6800 Ultra PCI-E erstmals in größerer Zahl zum Einsatz.

Den genauen Stromverbrauch scheinen wir nie gemessen zu haben, aber der AGP-Slot stellte bis zu 25 W zur Verfügung, der Floppy liefert nochmal 24 W @12 V dazu => 49 W Maximalbudget; wenn auch 5 V vom Floppy genutzt wurden vielleicht 59 W. Das war die neuste High-End-scheiße-verbrauchen-GPUs-aber-viel-Strom-Hardware in dem Zeitraum, in dem ein spezieller Stecker für Grafikkarten spezifiziert wurde. Natürlich hat man damals nicht nur für den Status Quo geplant, bereits AGP Pro war bis 110 W ausgelegt gewesen, aber mit 75 W im Slot und 75 W im 6-Pin, später 150 W im 8-Pin war PCI-E scheinbar fürstlich ausgestattet. Es gab damals noch Systeme, deren Netzteilnennleistung unter 225 W lag, aber es gab keinen Anlass, die Möglichkeiten von Mini Fit auszureizen. 20 Jahre "Leistung um jeden Preis" später sieht die Lage heute anders aus, aber das ist im PC-Segment eine Ewigkeit. Noch einmal 20 Jahre vorher führte der IBM AT gerade erst die Technik ein, die später zum ersten PC-Standard überhaupt wurde. Mal gucken, was wir in 20 Jahren zum 12+4-Pin sagen, außer dass sein Marktstart überschattet wurde. (Oder besser: 18 Jahre, denn die 3090 ist ja schon etwas älter und koppelt ihren Anschluss aus frühen Überlegungen zum 12VHPWR aus.)

hat sich mal jemand die Frage gestellt was passiert wenn da mal ne Bude abfackelt ?
Wenn kann.man denn da zur Rechenschaft ziehen ?

soll ja Leute geben die mit solcher Hardware auch folding@home betreibt...oder stundenlang Videos rendert....

Denjenigen, der Acetaldehyd (oder eine andere Substanz mit Zündpunkt <<200 °C) auf seiner Grafikkarte lagert. Ohne höchstendzündlichen Brandbeschleuniger gibt es nämlich keine abgefackelte Bude, über die man reden müsste, sondern nur verschmortes Plastik.
 

Mein Gsync funktioniert auch noch mit 144 Hz. Der Freesyncbereich ist bei den meisten Monitoren nunmal kleiner als der Gsyncbereich.
Wenn man einen 75hz Monitor als Referenz nutzt ist das vielleicht auch zu erwarten dass man jenseits der 75Hz keinen Benefit mehr hat?
 
Lass mal gut sein, das sinkhole ist mir zu grün.
Edit:
Geiler HP Link.
Schön mal geguckt auf was und wann sich die Fussnote bezieht?
Wenn man einen 75hz Monitor als Referenz nutzt ist das vielleicht auch zu erwarten dass man jenseits der 75Hz keinen Benefit mehr hat?
Bei den Meisten Monitoren ist unterhalb von 40/48 Hz schluss. Bei Gsync nicht ;)
 
Auf der sicheren seite wird man vermutlich besonders bei diesem ganz klar falsch dimensionierten stecker vermutlich nur sein wenn man die Kabel direkt auf die karte lötet. Sowas kann man mal experimentieren wen karten irgendwann mal bezahlbar werden. Mag ja sein das da einer berechnet hat wie unter Idealbedingungen die elektronische last sein soll. Nur gehen nutzer eben nicbt ideal vor.
Mal sitzt der stecker nicht richtig. Mal wurde er beim einstecken ggf verkanntet, das die kontaktfedern weiten kann. Mal wurde der stecker mehrmals gesteckt etc.

Der hammer kommt aber noch. Mit der zeit oxidieren die kontakte minimal es wird also aller Voraussicht in einem bis eineinhalb jahren vermehrt leute treffen die jetzt keine probleme haben. Meines Wissens sind die kontaktfedern nicbt vergoldet sondern nur vernickelt, das wird in die hose gehen. Versprochen.
Ich frag mich nur ob die boardpartner dazu gezwungen sind diesen 12 pol stecker zu verwenden. Technisch sollten 2x 8pol und 1x6 pol ja auch funktionieren. Die meisten netzteile (man soll ja mindestens 850watt verwenden) haben in der Leistungsklasse jedenfalls genug anschlüsse.
 
Gamers Nexus hat es geschafft die Kabel zu schmelzen:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück