Aktuelle Probleme auf einen Blick

bei mir ist es ein 17200 mit est.ced 100880 und läuft 1 stunde auf der 2080TI wirklich unterirdisch
ein 13416 bringt 170000
PPD immerhin noch 3744800
 
Hatte von gestern an gleich 3 Wu´s mit nur 50% der PPD -.-

Edith sagt: 4. 13416 in Folge mit 50% PPD...langsam nervt es...
 
Zuletzt bearbeitet:
Wie ich im Discord gelesen habe sind wohl zum Ausgleich die Punkte für die Problemprojekte angehoben worden.
13416: 53245 -> 70000
13417: 2750 -> 6050

Das scheint seit gestern wirklich durchgängig der Fall zu sein. Anfangs gingen die bei mir zwar auch wieder nur mit 70% GPU Load durch und entsprechend mageren 1,1 Mio PPD, aber seit gestern Abend laufen die mit voller GPU Load durch: einem Base Credit von 70.000 und nun schicken 2,2 Mio PPD - und damit 500k mehr als sonst auf (m)einer 2070.

Sollen Sie mal ruhig weiter so laufen lassen mit den "Bonus PPD" ;-)
 
Ja die "Bonus PPD" sind echt nice, damit hab ich gestern mein erhofftes Ziel von 4 Millionen nochmal gut übertroffen. Wenn die GPUs damit immer ausgelastet wären, hätte ich theoretisch 6,5 Millionen PPD :D
Nur die 1060 will nicht so recht in Fahrt kommen, wirft derzeit nur ca. 320k ab. Da sollte doch eigentlich mehr gehen, aber sie ist auch die ganze Zeit nur auf 80% gelaufen....
 
Moin zusammen,

habt ihr das eigentlich auch in letzter Zeit öfter, dass der GPU Client nach dem Upload im "Ready-Download" Status mehr oder weniger hängen bleibt und keine neue WU downloaded?! Ging mir am Wochenende bei allen drei GPU Client's so, die hätten (unbeaufsichtigt) falten können was das Zeug hält, aber lediglich der CPU Client hat es für nötig gehalten... ;-) Meist ist dann sogar ein kompletter Neustart des Clients bzw. Rechner's notwendig...

Da meine Rechner eigentlich unbeaufsichtigt vor sich hin falten sollen find ich das aktuell sogar noch bissl schlimmer als zu wenig PPD.... :-|

Oder bin ich mit dem Thema alleine?!
 
Das scheint seit gestern wirklich durchgängig der Fall zu sein. Anfangs gingen die bei mir zwar auch wieder nur mit 70% GPU Load durch und entsprechend mageren 1,1 Mio PPD, aber seit gestern Abend laufen die mit voller GPU Load durch: einem Base Credit von 70.000 und nun schicken 2,2 Mio PPD - und damit 500k mehr als sonst auf (m)einer 2070.

Du Glücklicher. Bei meiner 2070 ist das leider nicht der Fall. Also ja, ich bekomme den erhöhten Base Credit, aber mit voller GPU Load läuft bei mir leider nichts -> 1,1 Mio PPD :(

Aber gut. Es kann auch nicht alles immer problemlos laufen.

...habt ihr das eigentlich auch in letzter Zeit öfter, dass der GPU Client nach dem Upload im "Ready-Download" Status mehr oder weniger hängen bleibt und keine neue WU downloaded?! ... Da meine Rechner eigentlich unbeaufsichtigt vor sich hin falten sollen find ich das aktuell sogar noch bissl schlimmer als zu wenig PPD....
10 sm_B-[.gif


Oder bin ich mit dem Thema alleine?!

Nein Du bist nicht alleine. Bei mir war das in letzter Zeit bei meinem eGPU System immer wieder der Fall. Nachdem ich an diesem wieder mehr Arbeite (Notebook geht dann mit zur Arbeit) falte ich auf der zugehörigen 2070 im Moment nicht. Aber da war es ganz regelmäßig so, dass der Client das von Dir beschriebene Verhalten gezeigt hat.

Viele liebe Grüße

phila
 
Meine ziehen sich ganz normal ihre Jobs, hab da nix Auffälliges in den Logs stehen.
Bei den sinkenden Falter-Zahlen sollte es eigentlich gerade auch genug für alle geben.
 
Hab das Problem des hängenden GPU-Slots auch aber interessanterweise immer nur auf der selben GPU, die andere faltet ganz normal durch.

Gesendet von meinem S41 mit Tapatalk
 
Wenn ich mir so meine Punkte anschaue, dann bin ich eigentlich auch völlig zufrieden. Dadurch das ich 3 Karten laufen hab halten sich die Guten und Schlechten echt die Waage. Bei einem schlechten 13416er verliere ich nur 300k und bei den guten hab ich 450k mehr. Da gibt es Andere die da schlechter dran sind, vor allem wenn sie dadurch sogar in den Timeout laufen.

Und solange man nicht selbst mit der Hand falten muss, sind das doch alles Luxusprobleme :)
 
die Unterschiede auf zwei fast identischen GPUs sind manchmal signifikant (wechselseitig)

. 13416_Unterschiede.jpg
EVGA (links) läuft auf 2050MHz, Strix (rechts) neu auch auf 2040MHZ

dann hab ich mal alle bisher berechneten 13416er aus HFM rausgeholt und dargestellt ... (vor Erhöhung des clock bei der Strix)

. Project_13416_2GPUs.png
 
Bei mir zicken im Moment die 13420er etwas rum. Aber immer nur auf der 2080 S nie auf der 2070 S
Die Berechnungzeit geht dann auf knapp 5 Stunden und dementsprechend weniger Punkte. Manchmal schmiert der Rechner auch einfach ab wenn er die berechnet.
Blende8
 
Bei mir zicken im Moment die 13420er etwas rum. Aber immer nur auf der 2080 S nie auf der 2070 S
Die Berechnungzeit geht dann auf knapp 5 Stunden und dementsprechend weniger Punkte. Manchmal schmiert der Rechner auch einfach ab wenn er die berechnet.
Blende8

Hatte ich bei der 2070S auch schon 1-2 mal, bloß der Rechner ist dabei noch nicht abgeschmiert.
 
Ich hatte heute Mittag auch eine Bad Work Unit mit Absturz, ansonsten bisher nur ab und an mal schlechte Performance in den WU´s.
Mal schauen wie sich das entwickelt.
 
Ich habe heute früh die 2070 aus dem PC entfernt. Bislang keine Probleme mehr mit der 2080er. Vielleicht reaktiviere ich meinen Alienware und lasse den mit der 2070 mit Linux laufen. Dummerweise ist mein Urlaub fast vorbei :(
Blende8
 
Ich hatte 2x Probleme in der Form, dass sich F@H klanglos verabschiedet hat, der Rechner aber weiter lief.
Leider bemerkt man(n) das schlecht, so dass ich nun bei HWinfo64 für die GPU auch einen Minimal-Temperatur-Alert per mail eingerichtet habe, der es dann ermöglich zumindest händisch F@H neu zu starten.
Beide Male fand der client einen Aufsetzpunkt und lief von da problemlos weiter.

Leider konnte ich anhand der events nichts über den Absturz herausfinden, aber es waren ja glücklicherweise nur 2 Einzelfälle auf der ROG STRIX 2080TI

09.08.2020: +1 :( und wieder die Strix & Projekt 13420
 
Zuletzt bearbeitet:
Zurück