Laso ich schriebe nochmal was zum Netzteil weil hier in der Zeit einer meinte schrieben zu müssen, das dies nicht die Uhrsache sien kann.
Ja es ist Richtig! Es kann, muss ber nciht die Uhrsache sein.
Nochmal zum mitschreiben! Chips sind unterschiedlich Effizient. Demnach, manche brauchen mehr oder weniger um den gleichen Takt zu halten wie identische Karten.
Kommen wir nochmal auf die 3,3V Schine zu die angeblich für CPU genutzt wird... was absoluter schwachsinn ist.
Ausgehend vom Themenersteller sein netzteil macht es also 3,3V mal 25A = Watt!!!! Ich versicher dir, wenn es nciht gerade ein Sparmodel an CPU ist, dann ist diese Stromstärke eindeutig zu wenig.
Kommen wir auf die 5V schiene dann sind es 5V mal 25A = 125Watt.
So nehmen wir nun die 12V sachen noch mit hatte ich schon mal ausgerechnet. Da htten wir einmal 12V mal 25A =300 Watt
Und noch einmal 12V schienen mit 30A = 360 Watt.
Wenn wir das zusammen rechnen kommen wir also auf einem Wert von Über 850Watt für das 750 Netzteil.
Aber, wie alles im leben, wo man energie reinsteckt, entstehen auch Schwankungen.
Also sidn die 850W ein wert den wenn man ihn wirklich erreichen kann, niemals über lange zeit erreichen sollte.
Sind also die Komponenten allgemein darauf ausgelegt die Spannung niedrig zu halten aber hohen strom zu benötigen, so sieht es ganz schön mau aus.
Und was war denn das bei den Alten Grafikkarten? Weiß das noch eienr? Da hattenw ir welche mit Spannungen von 1,5V etc.
Nur mal ein Beispiel um das mal zu verdeutlichen!!!!
215W durch 1,500V = 143,33 Ampere.
Jetzt die "Sparsame" Variante. 215W durch 1,200V = 179,66Ampere.
Was lernen wir darauf? Genau!
Je höher die Spannung, umso WENIGER Strom fließt.
Je geringer dei Spannung, umso HÖHER der Strom!.
Woran wird das Fest gemacht?
An der Leistung!
Im Grafikakrten, CPU etc. fall ist 4es das was sich der CHIP MAXIMAL nehmen darf.
Wenn man dann also weiß wie hoch das sein wird, oder maximal sein kann, und man dann eien Spannung dazu hat, kann man sich auch denStrom ausrechnen.
Also was meinen denn hier manche warum Ältere Grafikkarten, mit gewissen Netzteilen super Funktioniert haben obwohl sie so Alt und übertaktet waren, und neuere Grafikkarten von den Selben netzteilen eventuell nciht mehr so genau unterstützt werden?
Genau aus dem Grund weil die Modernere Hardware in Richtung weniger Spannung geht = weniger Temperaturen. Was muss also zum Ausgleich her? Genau! Mehr Strom!
Eine Ausnahme gibt es! Und das ist wenn die Leistung allgemein senkt. Sagen wir mal die RTX 2080 nimmt statt 215Watt nur 145Watt.
145W durch 1,200V (weiß imemr ncoh nciht ob die Spannung stimmt xD) = 120,83A
zuer erinnerung 215Watt durch 1,200V = 179,16A.
Und natürlich kann ein Entsprechendes Netzteil nicht Unendlich viel Strom vergeben(generieren) etc. dann ist irgendwann am maximum und nahc maximum kommt nur noch defekt.
Und moderne CPU's nutzen sehr wohl die 12V Spanne. xD
Wofür sind die verschiedenen Schienen bei einem Netzteil zustäindig
oder eben hier
PC-Netzteil – Wikipedia
Also was meint Ihr denn eigentlich wieso bei manchen Grafikakrten ein MINDEST netzteil benannt wird?
Nach der Meisten Logik von wegen neuer = Sparsammer = netzteil reicht Dicke = fast schon überdimensioniert.
Nach dieser Logik, müsste für Aktuelle Komponenten ein naja sagen wir mal 200 - 300 Watt netzteil dicke reichen. Ist dies der Fall? nach mal sehen.
300Watt durch 12V = 25A
300Watt durch 5V = 60A
300Watt durch 3,3V = 90A
Wenn wir das nun also mal "ganz doof "zsuammen zählen haben wir insgesammt 175A. Das Reicht sicher nicht für eien gute CPu + gute Grafikkarte+ restliche Komponenten. Und schon gar nicht wenn man noch übertakten will.
Das reicht vielleicht für Sparsysteme, dem entsprechend gut sidn die aber auch fürs Gaming und zum Übertakten geeignet.
So das also nur am Rande. xDDD (Auch wenn der Text dafür schon zu lang war). xD
__________________________________________________________________________________________
Nun zur allgemeinen sache....
Wieviele hier haben tatsächlich ein problem mit den Aktuellen treibern?
Wenn diese derzeit keiner oder Kaum einer hat, dann ist diese annahme schon wieder zu 99,2% unwahrscheinlich.
Wieso 99,2% ? weil es sehr gut sein kann, das einige Boardtreiber nciht Installiert sind und oder derzeit ein Problem haben die das auslösen.
Und dann sind da noch andere sachen möglich wie übertaktung etc.
Aber das wird sich nur Zeigen, wenn man mehrere Stunden testet udn zwar auf Standard Takten.
Und dann nicht mit Benchmarks.
Benchmarks sind eigentlich ziemlich blöd zum testen solcher Fehler.
Der einzig ware test ist es die Grafikkarte AKTIV da zu testen wo sie benutzt wird. Rendern, Spielen etc.
Ein benchmark wird niemals die Gesamte Leistung von Grafikakrten, CPu oder sonstiges raus holen. Nur die Lange Spielzeit mit unterschiedlichen Ereignissen innerhalb des Spielens selsbt, kann zeigen ob der Fehler auftritt oder nciht. Über Benchmark wäre das die nadel im heuhaufen.
______________________________________________________________________________
Edit:
Apro pro Temperaturen udn Strom.
Was passiert wenn Komponenten Warm werden?
Je wärmer die Hardware, umso geringer ist der Wiederstand.
Je geringer der Widerstand, umso mehr Strom Fließt.
Das wiedeurm bedeutet, es kann auch mehr Strom Fließen, als berechnet, wenn die Komponenten hier udn da mal zu Warm werden.
Und schond as ist einer der Gründe, wieso manche Netzteile ebne nciht swhcon "fast" überdimensioniert sind, wenn man damit mehr macht wie z.B. übertakten. Je mehr dieses Arbeiten muss, umso wärmer wird auch das, das ist der Grund wieso es eben auch mal nicht ausreicht, auch wenn die Werte stimmen. Darum rede ich ja vom buffer, welchen man immer in hinterkopf haben sollte.
U = Spunnung (V)
I = Strom/Stromstärke (A)
R = Widerstand (Ohm)
P = Leistung (W) ....... der vollständigkeit halber. xD
U durch R = I
U durch I = R
R mal I = U