Welche Hardware kann sich gegenseitig kaputt machen?

Ich würde dem guten Tim ein ganz besonderes TIM für seinen nächsten Rechner empfehlen: IC Graphite
Das ist ein mehrfach verwendbares Wärmeleitpad. Ist zwar elektrisch leitend, aber wenn du es vernünftig zwischen Kühler und IHS platzierst, passiert da auch nichts und dir läuft nicht wieder Wärmeleitpaste in den Sockel, die du dann wieder mit dem Staubsauger entfernen musst ;-)
 
Ich würde dem guten Tim ein ganz besonderes TIM für seinen nächsten Rechner empfehlen: IC Graphite
Das ist ein mehrfach verwendbares Wärmeleitpad. Ist zwar elektrisch leitend, aber wenn du es vernünftig zwischen Kühler und IHS platzierst, passiert da auch nichts und dir läuft nicht wieder Wärmeleitpaste in den Sockel, die du dann wieder mit dem Staubsauger entfernen musst ;-)

.... das soll ein Tipp sein???? Weißt du wie schwer sich so ein Pad von den ganzen Pins löst? Da stehen nachher alle hochkant.
 
Das steht doch eindeutig "... zwischen Kühler und IHS... " seit wann sind da irgendwelche Pins? :what:

Mal abgesehen davon das so ein Pad mittlerweile nichts mehr auf CPUs/GPUs zu suchen hat.
 
.... ich habe nicht mitbekommen, wann soll die neue HW gekauft werden? Fängt dann erfahrungsgemäß alles wieder von vorne an? :wow:

Schaun wir mal, solange es Spaß macht und informativ ist, warum nicht? ;)

Also eine richtig gute wasserdichte Kamera, deren Sensor leider nicht so gut das Licht einfängt?
Gut wenn man auf Wasserdichtigkeit steht ist die Funktion des Sensors also nebensächlich... interessant.
Ich dachte immer eine gute Kamera hat auch einen guten Sensor, aber da liege ich wohl falsch... :lol:

Man muß immer Kompromisse machen, das ist bei den Kameras so wie bei den Smartphones, es gibt kein Modell, was überall am besten ist, jedes Modell hat irgendwo Schwächen, die meiner Ansicht nach sogar gezielt eingebaut werden, damit der Kunde möglichst bald ein Gerät neuerer Bauart kauft, unter der Hoffnung, daß dieses dann alles besser kann, aber auch da wird er merken, daß es irgendwo einen Haken gibt... Wäre das anders würden die großen Hersteller ja weniger Umsatz machen, weil die Kunden mit einem Gerät zufrieden wären und solange es nicht kaputt geht gar nicht über ein neues Gerät nachdenken würden... :stick:

In dem Fall meiner Kamera mit innenliegendem Objektiv, was aber trotzdem 5x optischen Zoom bietet, ist es vermutlich aber gar nicht möglich, da ein super lichtstarkes Objektiv einzubauen, es ist eine Outdoor-Kamera, die wird vorwiegend draußen eingesetzt und bei Tageslicht und dafür ist sie auch sehr gut. Um gestochen scharfe Aufnahmen bei Raumbeleuchtung und starker Vergrößerung zu machen, sollte man eine Spiegelreflexkamera oder etwas vergleichbar gutes mit sehr lichtstarkem Objektiv einsetzen, sowas hab ich aber nicht, weil ich es fast nie brauchen würde.

Würde man dich dann überhaupt darauf hinweisen, wenn es nicht möglich wäre?

So Anleitung: Neben den Zitieren-Button ist ein Symbol mit Sprechblase und einem Plus-Zeichen, dieses klickt man an und zwar bei jedem Post wo man drauf antworten will, dann drückt man den Zitieren-Button und oh Wunder stehen alle Postings wo man Zitate haben möchte in der Antwort-Box. :D

Danke, ja so geht es, aber komfortabel ist trotzdem was anderes! :schief:
Ich muß so ja immernoch die gesamten Postings zitieren und dann die Bereiche löschen, die ich nicht kommentieren möchte, ebenso das "[/QUOTE]" von Hand neu setzen, wenn ich nicht weiter zitieren möchte und den neuen Zitierstring kopieren, wenn ich erneut einen kurzen Bereich zitieren möchte...
 
Zu dem Thema hier ist eigentlich alles gesagt und wie so gut wie immer gab es widersprüchliche Meinungen, zumindest teilweise, also bin ich auch nicht viel klüger als zuvor, denn so wie es hier dargestellt wurde, hab ich es mir auch schon vorher gedacht gehabt.

Für andere Themen oder Planungen gibts dann gesonderte Threads bei Zeiten. :D
 
Zu dem Thema hier ist eigentlich alles gesagt und wie so gut wie immer gab es widersprüchliche Meinungen, zumindest teilweise, also bin ich auch nicht viel klüger als zuvor, denn so wie es hier dargestellt wurde, hab ich es mir auch schon vorher gedacht gehabt.

Eigentlich gab es nur genau zwei Meinungen.
Die Forennutzer würden die Grafikkarte in unter fünf Minuten einfach einbauen und wüssten ganz genau, was kaputt ist und was nicht.
Und du willst sie nicht einbauen, stattdessen durfte hier jeder mal raten, was mit der Karte sein könnte.

Meine bescheidene Meinung zu dem Thema: Falls (nicht wenn) du dir tatsächlich nächstes Jahr erst eine neue "High-End-CPU" kaufen wirst, ist die Garantie der Karte eh scheiß egal, weil sie dir zu schwach sein wird.
Die hätte als Mittelklasse-Karte schon beim Kauf die schnellsten CPUs in den allermeisten Spielen und Einstellungen ausgebremst und wird es in einem Jahr noch mehr tun. Wieso du die also seit Jahren wie einen heiligen Gral im Schrank hütest, bis sie mal endgültig wertlos geworden ist (ist das die angesproche Altersvorsorge?), versteht wohl keiner.
 
Eigentlich gab es nur genau zwei Meinungen.
Die Forennutzer würden die Grafikkarte in unter fünf Minuten einfach einbauen und wüssten ganz genau, was kaputt ist und was nicht.
Und du willst sie nicht einbauen, stattdessen durfte hier jeder mal raten, was mit der Karte sein könnte.

Ich baue sie nicht ein, weil ich keine Software unter Linux habe, um sie eingehend unter Belastung zu testen, außerdem könnten meine CPUs die Karte wohl nichtmal annähernd auslasten.

Meine bescheidene Meinung zu dem Thema: Falls (nicht wenn) du dir tatsächlich nächstes Jahr erst eine neue "High-End-CPU" kaufen wirst, ist die Garantie der Karte eh scheiß egal, weil sie dir zu schwach sein wird.
Die hätte als Mittelklasse-Karte schon beim Kauf die schnellsten CPUs in den allermeisten Spielen und Einstellungen ausgebremst und wird es in einem Jahr noch mehr tun. Wieso du die also seit Jahren wie einen heiligen Gral im Schrank hütest, bis sie mal endgültig wertlos geworden ist (ist das die angesproche Altersvorsorge?), versteht wohl keiner.

Ganz einfach, weil es die teuerste Grafikkarte ist, die ich je hatte und das sogar mit Abstand. Mein Limit bei Grafikkarten liegt normalerweise bei etwa 200 Euro, so eine Luxuskarte hatte ich noch nie, zwischenzeitlich lag sie bei rund 450 Euro, auch wenn ich weniger bezahlt habe.
Ich glaub auch nicht, daß sie mir in den nächsten 5 Jahren zu langsam sein wird, außer ich würde im 4K neuste Egoshooter spielen wollen, dafür wäre sie dann zu schwach. Für Echtzeitstrategie in 4K denke ich aber wird sie auch locker ausreichen.
 
Warum sollte Echtzeitstrategietitel weniger Leistung als nen Egoshooter brauchen?
Hast du keine Steam, wenn ja, wo ist das Problem?
Gibt genug Spiele für Linux.
Dass deine CPUs die Grafikkarte nicht auslasten können, ist einfach nur ne Vermutung von dir.
Probier es aus.
Vermute nicht immer so viel und probier mehr aus, das könnte Spass machen.:schief:
 
Ich baue sie nicht ein, weil ich keine Software unter Linux habe, um sie eingehend unter Belastung zu testen, außerdem könnten meine CPUs die Karte wohl nichtmal annähernd auslasten.



Ganz einfach, weil es die teuerste Grafikkarte ist, die ich je hatte und das sogar mit Abstand. Mein Limit bei Grafikkarten liegt normalerweise bei etwa 200 Euro, so eine Luxuskarte hatte ich noch nie, zwischenzeitlich lag sie bei rund 450 Euro, auch wenn ich weniger bezahlt habe.
Ich glaub auch nicht, daß sie mir in den nächsten 5 Jahren zu langsam sein wird, außer ich würde im 4K neuste Egoshooter spielen wollen, dafür wäre sie dann zu schwach. Für Echtzeitstrategie in 4K denke ich aber wird sie auch locker ausreichen.

Also mit Verlaub ich habe mich ja lange zurück gehalten hierzu was zu schreiben, ganz einfach weil du jemand bist der einfach nur die ganze Zeit um den heißen Brei diskutieren will... aber den Stuss den du über 4K schreibst zeigt nur, wie wenig Ahnung du einfach hast, kommend von jemand der seit mehreren Jahren bereits ausschliesslich 4K als Hauptmonitor betreibt. Sonst würdest du FPS und 4K sowie 5 Jahre und 4K nie in einen Bezug fassen.

Nur weil es deine teuerste Karte war macht es sie nicht zu einer Highend Karte. Ich glaube hier will dir niemand deine Grafikkarte oder andere Hardware abreden oder madig machen... wieso auch kann sich doch eh niemand was drum kaufen. Man erreicht aber einen Punkt an dem man fest stellt, dass es Personen gibt die leider beratungsresistent sind.

Ich habe dich schon mehrfach anderen Leuten gute Ratschläge geben sehen... vielleicht solltest du erstmal selber was zum Thema Hardware lesen und verstehen und auch mal Leuten mit Erfahrung glauben schenken, ehe du den guten Samariter spielen willst. Sorry aber das ist einfach nur grausam deine endlosen Wall of Texts zu lesen, bei denen es im Großen und Ganzen um einen Inhalt geht, der dir auf endlosen Seiten in unzähligen Threads bereits erklärt wurde.

Soll beim besten Willen kein persönlicher Angriff gegen dich sein, doch bedenke diesen Nonsense können alle lesen...
 
Ich baue sie nicht ein, weil ich keine Software unter Linux habe, um sie eingehend unter Belastung zu testen, außerdem könnten meine CPUs die Karte wohl nichtmal annähernd auslasten.

Eine Grafikkarte bekommt man immer klein.



Ganz einfach, weil es die teuerste Grafikkarte ist, die ich je hatte und das sogar mit Abstand. Mein Limit bei Grafikkarten liegt normalerweise bei etwa 200 Euro, so eine Luxuskarte hatte ich noch nie, zwischenzeitlich lag sie bei rund 450 Euro, auch wenn ich weniger bezahlt habe.

Was hat der Mining Hype Preis jetzt bitte auszusagen? :schief:
Es ist doch egal wie teuer die "Luxuskarte" war, ist oder wird.
Fakt ist nur das sie seit über einem Jahr rumliegt.
Evtl ist sie auch defekt. Kannst du ja nicht wissen.


Ich glaub auch nicht, daß sie mir in den nächsten 5 Jahren zu langsam sein wird, außer ich würde im 4K neuste Egoshooter spielen wollen, dafür wäre sie dann zu schwach. Für Echtzeitstrategie in 4K denke ich aber wird sie auch locker ausreichen.

Ist das dein ernst? :what:
Die 1060 knickt doch bei manchem Titeln schon in FullHD ein. Und du sprichst von 4k in 5 Jahren?

Ja dann Mal viel Erfolg.
 
Also mit Verlaub ich habe mich ja lange zurück gehalten hierzu was zu schreiben, ganz einfach weil du jemand bist der einfach nur die ganze Zeit um den heißen Brei diskutieren will... aber den Stuss den du über 4K schreibst zeigt nur, wie wenig Ahnung du einfach hast, kommend von jemand der seit mehreren Jahren bereits ausschliesslich 4K als Hauptmonitor betreibt. Sonst würdest du FPS und 4K sowie 5 Jahre und 4K nie in einen Bezug fassen.

Verdrehen oder falsch verstehen läßt sich natürlich jede Aussage gut, denn du kannst gar nicht wissen, welche Spiele und mit welchen Frameraten ich mit der Karte in paar Jahren spielen will.
Ich gehe nämlich ziemlich fest davon aus das C&C3 und vielleicht auch Star Craft 2 in 4K flüssig mit der Karte laufen wird. Mit flüssig meinte ich mindestes 30 fps, denn das reicht locker bei solchen Spielen.
Außerdem rede ich nichtmal von maximalen Details, die kann ich gut reduzieren, weil ich davon meist sowieso nichts bemerke, insbesondere nicht von FSAA und solchem Quatsch.
Ich bin aber auch bereit dazu, grafisch anspruchsvollere Spiele, oder welche bei denen man deutlich über 30 fps benötigt um es flüssig zu empfinden weiterhin in FHD zu spielen, denn das geht auf einem 4K-Monitor ja auch sehr gut, dann stellen halt 4 Pixel einen dar.

Nur weil es deine teuerste Karte war macht es sie nicht zu einer Highend Karte. Ich glaube hier will dir niemand deine Grafikkarte oder andere Hardware abreden oder madig machen... wieso auch kann sich doch eh niemand was drum kaufen. Man erreicht aber einen Punkt an dem man fest stellt, dass es Personen gibt die leider beratungsresistent sind.

Ich hab auch gar nicht behauptet das die GTX 1060 6 GB highend sei, es ist halt eine Karte der gehobenen Leistungsklasse mit viel Reserven für FHD.

Ich habe dich schon mehrfach anderen Leuten gute Ratschläge geben sehen... vielleicht solltest du erstmal selber was zum Thema Hardware lesen und verstehen

Fällt dir da nicht ein großer Widerspruch in dieser Zeile auf? :stick:

und auch mal Leuten mit Erfahrung glauben schenken, ehe du den guten Samariter spielen willst. Sorry aber das ist einfach nur grausam deine endlosen Wall of Texts zu lesen, bei denen es im Großen und Ganzen um einen Inhalt geht, der dir auf endlosen Seiten in unzähligen Threads bereits erklärt wurde.

Zum einen glaube ich anderen Teilnehmern mit Erfahrung durchaus, wenn sie diese gut und sachlich darlegen können, zum anderen hab ich selbst auch sehr viel Erfahrung mit PC-Hardware seit Jahrzehnten.
Wenn meine Threads oder Statements so "grausam" für dich sind, erschließt sich mir irgendwie grade nicht, warum du es dir dann antust, sie zu lesen und etwas dazu zu schreiben, Masoschismus? ;)

Soll beim besten Willen kein persönlicher Angriff gegen dich sein, doch bedenke diesen Nonsense können alle lesen...

Ebenso das, was andere darauf antworten, bedenke auch das! :nicken:

Eine Grafikkarte bekommt man immer klein.

Ich hab aber zu wenig Ahnung von Linux, um darunter Hardware sinnvoll testen zu können, all meine Testprogramme und Spiele laufen unter Windows, ich bin schon froh das ich zumindest C&C3 mit Wine unter Linux zum laufen gebracht habe.

Was hat der Mining Hype Preis jetzt bitte auszusagen? :schief:
Es ist doch egal wie teuer die "Luxuskarte" war, ist oder wird.

Für mich nicht, denn nochmal würde ich die Karte nicht kaufen, wenn sie dann 450 oder auch nur 400 Euro kosten würde. Wenn sie also kaputt ist, werd ich eine Karte der 200-300 Euro Preisklasse kaufen.

Fakt ist nur das sie seit über einem Jahr rumliegt.
Evtl ist sie auch defekt. Kannst du ja nicht wissen.

Stimmt, darum hoffe ich auch, sie dieses Jahr noch zu testen, egal ob jetzt mit einer Highend-CPU oder nicht, allerdings hat die Karte glaub ich 3 Jahre Garantie, also bis Ende 2019, insofern ist Panik da jetzt auch fehl am Platze.

Ist das dein ernst? :what:
Die 1060 knickt doch bei manchem Titeln schon in FullHD ein. Und du sprichst von 4k in 5 Jahren?

Siehe oben meine Antwort an Najuno...
 
Ich baue sie nicht ein, weil ich keine Software unter Linux habe, um sie eingehend unter Belastung zu testen, außerdem könnten meine CPUs die Karte wohl nichtmal annähernd auslasten.
Selbst die Erkenntnis, ob sie überhaupt noch was anzeigt, hätte schon hundertmal mehr Aussagekraft als dieser Thread jemals haben wird. Trotzdem wird sie nicht eingebaut, da wird lieber auf bald 10 Seiten wild rumspekuliert, aus welchen Gründen sie denn noch gehen könnte oder auch nicht und warum man es ja auf keinen Fall testen kann. Scheinbar scheint es dir darum zu gehen, mit maximal möglicher Aufmerksamkeit maximal wenig herauszufinden.

Ganz einfach, weil es die teuerste Grafikkarte ist, die ich je hatte und das sogar mit Abstand. Mein Limit bei Grafikkarten liegt normalerweise bei etwa 200 Euro, so eine Luxuskarte hatte ich noch nie, zwischenzeitlich lag sie bei rund 450 Euro, auch wenn ich weniger bezahlt habe.
Ich glaub auch nicht, daß sie mir in den nächsten 5 Jahren zu langsam sein wird, außer ich würde im 4K neuste Egoshooter spielen wollen, dafür wäre sie dann zu schwach. Für Echtzeitstrategie in 4K denke ich aber wird sie auch locker ausreichen.

Das ergibt einfach nicht den geringsten Sinn. Nicht nur, dass die Karte schon heute in jedem optisch halbwegs ansprechenden Spiel in UHD heillos überfordert ist (dazu haben sich meine Vorredner schon genug geäußert), es wird mit jedem Tag, den sie im Schrank vergammelt, nur noch schlimmer. Und falls du tatsächlich nur Spiele spielst, die in der Auflösung auf jeder Kartoffel laufen, wofür braucht es die hohe Auflösung dann überhaupt? Falls die Grafik eh retro ist und alle Regler auf Minimum gedreht werden müssen, retten viele Pixel das hässliche Ergebnis auch nicht mehr und kosten nur ohne Ende Performance.
Niemand will dir hier die Karte schlecht reden, aber Hardware nicht zu benutzen, sondern stattdessen für spätere Verwendung aufzuheben, ist echt das Dämlichste, was man damit machen kann. Das siehst du vielleicht mangels Innovation auf dem GPU-Markt immer noch nicht ein, aber wenn du dir mal überlegst, was du vor ein paar Jahren, als es noch Konkurrenz gab, mit einer zwei Jahre alten Mittelklasse-GPU in extrem hohen Auflösungen hättest machen können (richtig: so schnell es geht ersetzen), wird es echt offensichtlich.

Stimmt, darum hoffe ich auch, sie dieses Jahr noch zu testen, egal ob jetzt mit einer Highend-CPU oder nicht, allerdings hat die Karte glaub ich 3 Jahre Garantie, also bis Ende 2019, insofern ist Panik da jetzt auch fehl am Platze.

Du gibst - wie du selbst sagst - einen irren Geldbetrag für die Karte aus, lässt sie im Schrank veralten und dein einziges Problem ist die Garantie? Ist das dein Ernst?
Falls sie durch die Aktion mit der CPU tatsächlich kaputtgegangen ist, ist das eh kein Garantiefall, sondern Pech. Und dass die Karte - falls noch funktionierend - innerhalb der verbleibenden Garantiezeit ohne deine Einwirkung als eine unter Tausenden noch kaputtgehen wird, daran glaubst du ja wohl selbst nicht.



Du hättest in der ganzen Zeit so viel Spaß mit einem feinen neuen System haben können, stattdessen lässt du die Hardware ungenutzt veralten und suchst nur nach Gründen, warum man sie ja auf keinen Fall jetzt schon benutzen kann. Das ist doch Trolling mit allen Mitteln., zum wiederholten Male hier im Forum ausgiebig zelebriert.

janekdaus schrieb:
Habe jetzt den Thread nicht richtig gelesen, aber bist du micht der, der schon seit Jahren über Intel flucht, weil durch defekte Pins am Mainboard Sockel die CPU zerstört wurde..

Ist das Thema nicht mal abgeschlossen?

Was bitteschön erwartest du denn, wenn er extra einen Thread erstellt, um herauszufinden, ob seine Grafikkarte noch geht und dann den einzig sinnvollen Vorschlag (sie nämlich einfach mal zu testen...) auf fast 10 Seiten mit hanebüchenen Begründungen abbügelt.
 
Was bitteschön erwartest du denn, wenn er extra einen Thread erstellt, um herauszufinden, ob seine Grafikkarte noch geht und dann den einzig sinnvollen Vorschlag (sie nämlich einfach mal zu testen...) auf fast 10 Seiten mit hanebüchenen Begründungen abbügelt.

Habe ich garnicht gelesen :D
Habe das letztes Jahr mur mal mitbekommen und fand das damals schon etwas amüsant (nicht die kaputte cpu, sondern der ganze Zirkus).
Als ich diesen thread dann aben entdeckt habe, konnte ich es echt kaum fassen... :/ ;)
 
Zurück