• Wenn Ihr hier einen Thread erstellt, dann erwartet Euch im Beitragformular eine Vorlage mit notwendigen Grundinformationen, durch die Euch die Community schneller helfen kann. Mehr Informationen dazu findet ihr in diesem Thread.

Neuer PC im "alten" Gehäuse

bardoerper

Komplett-PC-Aufrüster(in)
Aktuelle PC-Hardware
Keine Ahnung
Ich möchte
Aktuellen PC aufrüsten
Budget
1600
Kaufzeitpunkt
Sofort
Anwendungszweck
  1. Spielen
  2. Arbeiten / Programmieren
  3. Video-Schnitt/-Rendering (häufig/intensiv)
  4. Bildbearbeitung (häufig/intensiv)
  5. Surfen
  6. Filme schauen
Zusammenbau
Nein, ich baue selbst
Moin,

ich habe mir hier schon einmal helfen lassen und hoffe das es wieder so gut klappen wird.

Ich habe mir im Jahr 2012 das "Cooler Master 690 II Advanced Midi-Tower KKN5, B&W Edt. - gedämmt" Gehäuse gekauft.
Meine Frage:
Würde dieses Gehäuse mit heutiger Hardware klar kommen?
Oder ist es empfehlenswert, sich nach 12 Jahren auch ein neues Gehäuse zu kaufen?

Vielen Dank für Eure Antworten.

Bis dann
 

Kaufberatungsbot

Werbung
Teammitglied
Günstiger Spiele-PC für ca. 640 Euro: PCGH-Beispiel
Hi, ich würde das so machen, das alte Gehäuse kannst du mitnehmen, ~~ knapp 1600 €.

Hier ist der Kühler deutlich billiger, Frachtkosten frei.

Alternativer RAM.
 
Zuletzt bearbeitet:
Moin,

ginge auch ein Intel Prozessor und eine ATI-Grafikkarte?
Wenn ja, welche genau?
Und was das Budget an geht, daß kann auch etwas drüber liegen.
Es kommt da nicht auf den Euro an.
Ich möchte nur wieder alle meine USB-Anschlüße von Gehäuse nutzen können.

Beim Verwendungszweck fehlt der Punkt "Streaming".
Der sollte noch eingebaut werden. Finde ich.
 
Ich habe dir schon ein verdammt gutes Setup vorgestellt, Intel ist dagegen End of life.
AMD Karte würde ich auch nicht empfehlen.
GeForce RTX-GPUs verfügen über dedizierte Hardware-Encoder (NVENC), mit denen du Inhalte ohne Beeinträchtigung der GPU- oder CPU-Leistung aufnehmen und streamen kannst.
Und bessere CPU als den X3D zum Spielen wird man kaum finden.
Alternativ würde ich den 7700 Tray empfehlen, oder den 7900 er.
Also wo liegt die Gewichtung in %?

Anwendungszweck
  1. Spielen
  2. Arbeiten / Programmieren
  3. Video-Schnitt/-Rendering
  4. Bildbearbeitung
  5. Surfen
  6. Filme schauen
  1. Beim Verwendungszweck fehlt der Punkt "Streaming".

Ich habe dir mal Allrounder zusammengestellt.
Etwas über dem Budget.

Hier zum Test
 
Zuletzt bearbeitet:
Man sollte sich hier mal einlesen, was das beste für DaVinci Resolve ist.
Ich finde NVIDIA wesentlich effizienter......


Des Weiteren habe ich gesehen das die neuen Arrow Lake-S draußen sind, das sieht sehr interessant aus, leider fehlen Testurteile.
Ich habe da mal was zusammen gestellt, habe gelesen, dass sie mit über 8000 MT/s DDR5 klarkommen.
Ist jetzt ein wenig Neuland für mich, bitte auch um Hilfestellung und bedanke mich im Voraus.

 
Zuletzt bearbeitet:
Man sollte sich hier mal einlesen, was das beste für DaVinci Resolve ist.
Ich finde NVIDIA wesentlich effizienter......
Ja richtig, das sollte man.
Schau dir mal an wie der extended Score zusammengesetzt wird.


Natürlich ist bei AI Kram die Nvidia schneller, Frage ist ob und wie oft man das nutzt.
Ne 7800XT hat z. B. 4GB mehr Speicher und braucht nur 30 Watt mehr.

 
Natürlich ist bei AI Kram die Nvidia schneller, Frage ist ob und wie oft man das nutzt.
Ne 7800XT hat z. B. 4GB mehr Speicher und braucht nur 30 Watt mehr.
Ja, ich sage ja das NVIDIA deutlich effizienter ist, das mit dem VRAM da reichen 8GB aus denke ich.
Also NVIDIA u INTEL Combo passen hervorragend zusammen. :daumen:


1729533013578.png
 
Hast du das überhaupt mal durchgerechnet?
Die Preisdifferenz zwischen 4070 S und 7800XT hast du in 5 Jahren nicht raus bei 40h die Woche rendern und 40 Cent/kWh.
Die AMD Karten verbrauchen nicht nur allgemein mehr, sondern es spiegelt sich schon beim YouTube schauen wider, Fensterbewegung usw...
Da ist NVIDIA weit vorne und die AMD CPUs verbrauchen dort auch deutlich mehr, da ist INTEL sehr weit vorne.
Nur nicht im Gaming Verbrauch, aber das ist noch vertretbar, Arrow Lake-S wird das ändern, schauen wir auf die Testergebnisse, die noch kommen. Hoffe ich!
Ich selber habe noch AM4 + X3D + NVIDIA mich stören die 80–90 Watt verbrauch beim Video schauen, ich denke das bald zu INTEL wechseln werde. Meine persönliche Meinung, das werden mir aber erst die Testergebnisse zeigen müssen. :daumen:
 
Zuletzt bearbeitet:
Die AMD Karten verbrauchen nicht nur allgemein mehr, sondern es spiegelt sich schon beim YouTube schauen wider, Fensterbewegung usw...
Da ist NVIDIA weit vorne
Naja...
In dem von dir verlinkten Benchmark werden halt zwei 4K Monitore genutzt, deshalb bist du über dem Pixelclock Limit XY (hab die Zahl gerade nicht im Kopf, glaube 1080 oder so), deshalb taktet der VRAM hoch und da die Nvidia kaum VRAM hat braucht die AMD logischerwiese in diesem Fall mehr Strom.
Schau auf die 144Hz Benchmarks, bei der 3090 ist das Limit halt höher da es eine schweineteure High-End Karte ist, bei 144Hz hat die aber das gleiche Problem.
Würdest du einfach weniger Monitorfläche haben z. B. WQHD oder FHD hast du das Problem nicht.
Hat der TE zwei 4K Monitore?

Der Intel ist im Idle sparsamer das stimmt, AMDs MCM braucht halt mehr Strom.
Trotzdem holt der AMD das unter Last wieder raus.
 
Naja...
In dem von dir verlinkten Benchmark werden halt zwei 4K Monitore genutzt, deshalb bist du über dem Pixelclock Limit XY (hab die Zahl gerade nicht im Kopf, glaube 1080 oder so), deshalb taktet der VRAM hoch und da die Nvidia kaum VRAM hat braucht die AMD logischerwiese in diesem Fall mehr Strom.
Schau auf die 144Hz Benchmarks, bei der 3090 ist das Limit halt höher da es eine schweineteure High-End Karte ist, bei 144Hz hat die aber das gleiche Problem.
Würdest du einfach weniger Monitorfläche haben z. B. WQHD oder FHD hast du das Problem nicht.
Hat der TE zwei 4K Monitore?

Der Intel ist im Idle sparsamer das stimmt, AMDs MCM braucht halt mehr Strom.
Trotzdem holt der AMD das unter Last wieder raus.
Du findest ständig neue Ausreden, das sind gleiche Bedingungen.
Die Diskussion endet hier, ich habe genug gezeigt. LG
Wir sehen ja das du ein AMD FUNBOY – INNEN bist, ich stehe aber nur auf Neutralität.
Ich lege viel Wert auf Effizienz. :daumen:
 
Zuletzt bearbeitet:
Du findest ständig neue Ausreden, das sind gleiche Bedingungen.
Die Diskussion endet hier, ich habe genug gezeigt. LG
Nein, das sind keine Ausreden, da kannst du noch was lernen.^^
Schau doch den Pixel Clock in CRU nach und probiere es selber aus, dauert zwei Minuten.
Das ist auch Null böse gemeint aber du bist halt noch nicht tief genug in der Materie drin.
Kommt sicherlich noch.
Wir sehen ja das du ein AMD FUNBOY – INNEN bist, ich stehe aber nur auf Neutralität.
Ich lege viel Wert auf Effizienz. :daumen:
Wie gesagt, schau selber:
Pixelclock hoch bei 2560x1440@180Hz x2 = VRAM hoch:


Screenshot 2024-10-21 215755.png


Pixelclock niedrig also 2x WQHD 120Hz = VRAM niedrig = Verbrauch niedrig:
Screenshot 2024-10-21 220107.png


Und ich hab nebenbei Youtube, Forum (halt Firefox), League of Legends, und Discord offen.
Und ne NV Karte mit nur 8GB VRAM braucht da halt logischerweise weniger Strom.
So einfach ist der Bums.

Edit:
Hab gerade gesehen im ersten Screenshot ist der GPU Takt hochgesprungen, daher hier noch einen:
1729541469805.png
 
Zuletzt bearbeitet:
Nein, das sind keine Ausreden, da kannst du noch was lernen.^^
Schau doch den Pixel Clock in CRU nach und probiere es selber aus, dauert zwei Minuten.
Das ist auch Null böse gemeint aber du bist halt noch nicht tief genug in der Materie drin.
Kommt sicherlich noch.

Wie gesagt, schau selber:
Pixelclock hoch bei 2560x1440@180Hz x2 = VRAM hoch:


Anhang anzeigen 1472769

Pixelclock niedrig also 2x WQHD 120Hz = VRAM niedrig = Verbrauch niedrig:
Anhang anzeigen 1472770

Und ich hab nebenbei Youtube, Forum (halt Firefox), League of Legends, und Discord offen.
Und ne NV Karte mit nur 8GB VRAM braucht da halt logischerweise weniger Strom.
So einfach ist der Bums.

Edit:
Hab gerade gesehen im ersten Screenshot ist der GPU Takt hochgesprungen, daher hier noch einen:
Anhang anzeigen 1472771
Sorry, ich habe mehr als genug gezeigt, und das aus seriösen, quellen, das sieht alles sehr verwachsen aus bei dir. Diskussion endet hier u jetzt.
Ich bin raus, wenn TE NOCH Fragen HAT BIN ICH GERNE DA.
 
Zuletzt bearbeitet:
Probier es selber aus, dauert zwei Minuten.
Ich habe dir genau begründet, warum das so in dieser Situation mit den zwei 4K Monitoren passiert und es dir sogar noch belegt.
Keine Ahnung was da verwaschen sein soll.
Also nochmal:
Natürlich taktet bei zwei 4K Monitoren der VRAM hoch.
Natürlich braucht dann die Karte mit weniger VRAM weniger Strom.

Und selbst wenn du diese 15 Watt Differenz bei zwei 4K Monitoren mit einrechnest ist die AMD Karte nach 4 Jahren immer noch günstiger.
 
Ich möchte mich nicht an der Diskussion AMD vs Nvidia beteiligen. Beide Systeme haben ihre Vorteile.


Aber in nem 1600€ PC gehört ne 4070 TI Super.

Hier mal ein Beispiel:


Ansonsten ist die Performance der RTX-Karten in Raytracing unschlagbar.
1729581774912.png



Quelle:h ttps://extreme.pcgameshardware.de/threads/neuer-pc-im-alten-gehaeuse.654526/#post-11719760
 
Moin,

bitte wie sehe das Setup aus, wenn man bis 1.800 € (kommt nicht auf den €uro an) zur Verfügung hätte?

Als BS kommen Linux Mint und Windows (in der Reihenfolge) zum Zuge.
 
Zurück