Rumpelkammer: PCGH Folding@Home-Thread II

Ich spüre was du denkst :rollen:
jedoch ist es die gleiche Arbeit,ob dun nun z.B. 2Wu´s zu jeh 10000 Atome oder 1 Wu´s zu jeh 20000 Atome faltest .
Denn nur durch die größe der Wu die in 100 Frames geteilt (bzw.so angezeigt wird als Fortschritt) wird, ensteht die Tpf.
also anBsp.1.:= 5min und Bsp2. =10min

schönen Abend noch allen
 
@sc59: Du musst mir noch mal auf die Sprünge helfen ...

1. die Rechnenleistung ist konstant - Voraussetzung
2. die TPF ist die Zeit die benötigt wird um mit der konstanten Rechenleistung 1 Frame zu berechnen
3. ein Frame ist das gesamte Packet (WU) /100
4. je größer die WU - größer die Anzahl der Atome, umso größer sollte die PPDs sein

Richtig?

@Mr.Knister: Hab spaßenshalber mal auf 2 GB RAM downgesized, weil eh eine Umrüstung auf Passiv-CPU-Kühler anstand. Ergebnis: hab ne Hammer-WU bekommen mit ner TPF von über 13min :o/
... hab die Vermutung, dass der RAM keine Rolle spielt, oder aber derzeit einfach nichts anderes in der Pipeline ist ...

@ Bumblebee: was bekommen deine AMD-GPUs derzeit zum Futtern? Auch solche großen WUs?

Danke für die Hilfestellung.

Schönen Sonntag noch.

Grüße Brooker
 
@sc59: Du musst mir noch mal auf die Sprünge helfen ...

Gerne doch

1. die Rechnenleistung ist konstant - Voraussetzung
JA
2. die TPF ist die Zeit die benötigt wird um mit der konstanten Rechenleistung 1 Frame zu berechnen
JA
3. ein Frame ist das gesamte Packet (WU) /100
Ja
4. je größer die WU - größer die Anzahl der Atome, umso größer sollte die PPDs sein
Ja/Nein
Richtig?

Grüße Brooker
zu 4:
es gibt bei Stanford ein Benchmarksystem das den durchschnittlichen Home-PC wiederspiegelt.
An dieser Rechenleistung werden die PPDfestgemacht.
nur weil eine WU grösser als die andere ist. sollte die rechenleistung die gleiche bleiben.--> konstante PPD
die Grösse ist also nicht ausschlageben.
Meine Vermutung ist (Weil ich es nicht beweissen kann).
A:
Es werden viel zu viele PPD werte mit "fast" gleicher hardware verglichen.
B:
bei diesem Vergleich werden viel zu viel unterschiedliche WorkUnits benutzt.
C:
die Programierung der Workunits differiert.
D:
Erfahrungswerte werden gerne impliziert (ich müsste doch XXX PPD bekommen.)
z.b.:
Bei CPU falten gab es /gibt es de n Core A5 Big WU´s
was damals 300K - 450 KPPD brachte, bringt heute nur noch 150K - ????K .:wow: (im bezug auf eine definierte hardware)
die grösse der zu berechnenden arbeit hat sich jedoch nicht geändert. Project Summery


Es ist einfach nicht so leicht wie es scheint, durch das Bewertungssystem jeden zu befriedigen.
Die hochen PPD sind für mich theoreticher natur eine Falschbewertung von seiten Stanford´s aus.

Du merkst wie wissenschaftlich an die die Erklärung gehe:what: LOL
sorry der musste sein.

Fakt ist: Nur weil mehr Atome eine grössere WU´ bedeutet, muss es nicht in mehr PPD resultiern.
das ist nur ein schöner nebenefekt
 
@ Bumblebee: was bekommen deine AMD-GPUs derzeit zum Futtern? Auch solche großen WUs?

Fast ausschliesslich 9201er // core17 // 20800 Atome
Selten 10466 // core17 // 29507 Atome
Auch selten 10467 // core17 // 55679 Atome

Nachsatz:
Die momentan laufende 10467 ist auf der R9 290 mit einer TPF von rund 4 Min. 10
 
... im Moment gehen mir die core15 grad wieder mächtig auf den Zeiger
Dafür, dass sie seit einer gefühlten Ewigkeit EOL sind gibt es immer noch ganz schön viele davon :wall:
 
... hmm, ich habe aktuell ein 10469 zu laufen und die TPF ist mit der AMD 260X @1230MHz auf 11:10 min. Kann das sein? Mir kommt es sehr lange vor. Denn, normal habe ich bei den anderen 17ner WUs eine TPF von 5:42.
 
Mit meiner HD7870 ist die TPF bei ca. 11:09 min.

Prj 10469 hat 64615 Atome, 9201 nur 20800. Bei gleichbleibender Rechenleistung muss also die Zeit steigen um den Mehraufwand zu schaffen.
 
... danke fürs Feedback, das beruhigt mich etwas. Die PPD-Ausbeute ist bei der WU dann aber dürftig :(.

Was solls, nach Regen kommt Sonne!
 
@Muschkote: wie kommst Du auf 80Tsd PPDs. Angezeigt und rechnerisch sind das maximal 45Tsd. Und meine Avg. spricht da auch eine andere Sprache. Bitte verstehe mich nicht falsch, ich möchte einfach nur das Beste aus der Hardware holen.
 
Naja, du hast oben folgendes geschrieben:
brooker schrieb:
... hmm, ich habe aktuell ein 10469 zu laufen und die TPF ist mit der AMD 260X @1230MHz auf 11:10 min.

Und wenn ich Deine Daten (WU und TPF) in den Calculator eingebe, dann komme ich auf ein Ergebnis von ca. 79000 ppd.

Achja, Deine Avg. spricht momentan ganz genau Diese Sprache.
 
... moment, da ist mein "großer" Rechner noch mit einigen WUs beteiligt ;)

Ich werde das im Auge behalten. Danke für den Hinweis mit dem Kalkulator. :daumen:
 
ich bin dann nach mehr Monatigem unfreiwilligem nicht Faltens wieder anbei (zumindest für die nächsten 3 Wochen... danach wieder ne Zwangspause und nach 2-3 Wochen wieder weiter)
 
Hab da mal ne Frage: Wieso zeigt mein F@H Client die falsche GPU an ?
Bei mir faltet die GT740 und NICHT die GT610 !

Hier die Beispiele:

Beispiel002.png gt610.gif gt740.gif

:huh:
 
Kriege keine WUs mehr für meine HD 7870 :(. Mein Fehler oder Problem bei Stanford?
Code:
13:24:13:Enabled folding slot 00: PAUSED gpu:0:PITCAIRN [Radeon HD 7800] (paused)
13:25:41:FS00:Unpaused
13:25:41:WU00:FS00:Connecting to assign-GPU.stanford.edu:80
13:25:42:WU00:FS00:News: 
13:25:42:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:80': Empty work server assignment
13:25:42:WU00:FS00:Connecting to assign-GPU.stanford.edu:8080
13:25:43:WU00:FS00:News: 
13:25:43:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:8080': Empty work server assignment
13:25:43:ERROR:WU00:FS00:Exception: Could not get an assignment
13:25:43:WU00:FS00:Connecting to assign-GPU.stanford.edu:80
13:25:43:WU00:FS00:News: 
13:25:43:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:80': Empty work server assignment
13:25:43:WU00:FS00:Connecting to assign-GPU.stanford.edu:8080
13:25:44:WU00:FS00:News: 
13:25:44:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:8080': Empty work server assignment
13:25:44:ERROR:WU00:FS00:Exception: Could not get an assignment
13:26:43:WU00:FS00:Connecting to assign-GPU.stanford.edu:80
13:26:44:WU00:FS00:News: 
13:26:44:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:80': Empty work server assignment
13:26:44:WU00:FS00:Connecting to assign-GPU.stanford.edu:8080
13:26:44:WU00:FS00:News: 
13:26:44:WARNING:WU00:FS00:Failed to get assignment from 'assign-GPU.stanford.edu:8080': Empty work server assignment
13:26:44:ERROR:WU00:FS00:Exception: Could not get an assignment


Kann man eigentlich die neueste Version 7.4.4 einfach über die 7.3.6 "drüberinstallieren"?
edit: ok geht, einfach als Ort für die Konfigurationsdaten den vorher verwendeten Ordner angeben und man hat sogar alle Einstellungen beibehalten...
 
Zuletzt bearbeitet:
So nochmal. Bis gestern hat alles normal funktioniert, ich falte seit Monaten mit meiner GT740. Heute früh stand aber im Clienten die GT610 drin, OBWOHL die GT740 WEITER FALTET und NICHT die GT610 !!! Habe so eben alles deinstalliert und neu gemacht, immer noch das selbe Problem. Als Slot wird nur noch GPU -1 akzeptiert. Meine gesamte Hardware, außer die GT610, ist nichemal nen Jahr alt. Die Punkte wurden übrigens sauber verbucht. Ach ja und die GT610 arbeitet auch sauber, da ist nämlich mein Bildschirm dran angeschlossen.

PS: Habe NICHT mit Windows 10 rumgebastelt, ist alles noch Win7 x64.

Beispiel003.png Beispiel004.png

:huh:
 
Zuletzt bearbeitet:
Zurück