Rumpelkammer: PCGH Folding@Home-Thread II

Das die Nvidia besser unterstützt werden ist ATI nicht unschuldigt dran:
Nvidia hat von Anfang an auf eine einheitliche Schnittstelle (CUDA) gebaut, dafür läuft keine Karte an ihrem theoretischem Maximum.
ATI war der Meinung es wäre besser jede Software so zu optimieren das jede Karte an ihrem Maximum läuft > an sich ein guter Ansatz, aber sehr aufwändig in der Programmierung weil man für jeden Chip für jede Software einen eigenen Treiber programmieren musste > folglich war die Unterstützung sehr dürftig. ATI hat jetzt in der Zwischenzeit auch eine einheitliche Schnittstelle, hat jetzt aber ein Entwicklungsrückstand aufzuholen der sich natürlich auch beim Falten mehr als nur bemerkbar macht. :schief:


da hat wer aber den nl sehr aufmerksam gelesen und gut zusamengefasst
gibt nen bienchen ins muttiheft :daumen:

was p00nage angeht: es müsste die langsamere karte iwie langsamer werden iwas bei ca. 60% der normal leistung
ich bin der meinung dass deine ppd für das projekt i.o. sind

wenn du auf 10k ppd droppen solltest wäre es merkwürdig aber iwas zwischen 12,5 und 14k sind meiner meinung im rahmen der unterschiedl. sykonfig´s normal

@ati: echt guter ansatz aber halt iwie nicht durchdacht
@atifolder: ja mit smp ist es echt nicht lustig auf amd´s zu falten liegt daran dass auch opencl sehr(SEEEHR) viel cpu overhead verursacht, evtl helfen systemvariablen(hat das mal wer ausprobiert, zu klefreak schaue?) da könnte noch was gehen

ansonsten ist nvidia cooler was folden angeht(siehe die 8800gt)

mfg und gn8 caine2011
 
an was kann es denn liegen das ich seit gestern nur 6801 bekomm, davor hatte ich nie eine ... hätte lieber wieder 6805
 
Richtig den die gibt es auch viel häufiger wie 6805er wu´s (meine Erfahrung) wobei die Skalierung der 6805er wu´s schon beachtlich ist da macht eine GTX460 gerade mal 800PPD mehr also rund 12500PPD und eine GTX560 schon 16000+PPD
bei den normalen 6800er oder 6801er wu´s ist die mehr Leistung der GTX560 relativ niedrig zur älteren GTX460
 
Das die Nvidia besser unterstützt werden ist ATI nicht unschuldigt dran:
Nvidia hat von Anfang an auf eine einheitliche Schnittstelle (CUDA) gebaut, dafür läuft keine Karte an ihrem theoretischem Maximum.
ATI war der Meinung es wäre besser jede Software so zu optimieren das jede Karte an ihrem Maximum läuft > an sich ein guter Ansatz, aber sehr aufwändig in der Programmierung weil man für jeden Chip für jede Software einen eigenen Treiber programmieren musste > folglich war die Unterstützung sehr dürftig. ATI hat jetzt in der Zwischenzeit auch eine einheitliche Schnittstelle, hat jetzt aber ein Entwicklungsrückstand aufzuholen der sich natürlich auch beim Falten mehr als nur bemerkbar macht. :schief:

Jo, soweit ist mir das bekannt. Was mich interessieren würde: Ist was bekannt, ob Stanfort an der DX11 Schnittstelle bastelt? Dann würde sich doch der Käse mit CUDA und Ati Stream doch in wohlgefallen auflösen (jedenfalls für WIN 7). Und wie schaut es mit einem echten 64bit Clienten aus? Wäre doch für sie selber doch auch von vorteil.

@all noch was anderes... Mir ist aufgefallen das die ATI Karte im V7 Client nen x16 Core zugewiesen bekommen hat. Läuft sehr rund muss ich sagen. Mal vom Stromverbrauch abgesehen...... :ugly: Gibt es ne Möglichkeit auch mit ner Nvidia Karte dranzukommen? Derzeit rödelt sich die 8800er nen Wolf für die paar Pünktchen vom 11er Core... Mal abgesehen davon, werden im Clienten keine Daten angezeigt.

Gruß Tom

Edit: Bevor ichs vergesse, hat hier schon mal jemand versucht ne Nvidia zu ner ATI Karte zustecken? Hab mal im Netz etwas geforscht und die GTX 550TI oder ne gts 450 wäre recht günstig zu haben.
 
Ist was bekannt, ob Stanford an der DX11 Schnittstelle bastelt? Dann würde sich doch der Käse mit CUDA und Ati Stream doch in Wohlgefallen auflösen (jedenfalls für WIN 7). Und wie schaut es mit einem echten 64bit Clienten aus? Wäre doch für sie selber doch auch von Vorteil.

@DX11 - so einfach ist das nicht/das hat nur mässig viel damit zu tun
@64bit - unklar ob das einen Vorteil für Stanford bringen würde (spezifische Rechenleistung) - es würde aber alle NICHT-64bit-er ausschliessen.

@all noch was anderes...ATI Karte im V7 Client nen x16 Core zugewiesen bekommen hat.
Gibt es ne Möglichkeit auch mit ner Nvidia Karte dranzukommen?

Bestimmte "Umgebungen" haben definierte Clienten - so bekommt nur der BIG-Falter den Core-a5
Genauso ist es eben mit der GPU==> 16er ist exklusiv ATI//V7

Bevor ichs vergesse, hat hier schon mal jemand versucht ne Nvidia zu ner ATI Karte zustecken? Hab mal im Netz etwas geforscht und die GTX 550TI oder ne gts 450 wäre recht günstig zu haben.

Habe ich "ganz viel früher" mal erfolglos versucht
Wird unter normalen Umständen heute auch (noch) nicht funktionieren

Allerdings, mit einem (als Beispiel) MSI Big Bang Fuzion; also mit Lucid/Hydra-Chips onboard wäre es theoretisch möglich
Bloss wird wohl keiner rund 300 Euronen ausgeben nur um das herauszufinden ;)
 
Jo, soweit ist mir das bekannt. Was mich interessieren würde: Ist was bekannt, ob Stanfort an der DX11 Schnittstelle bastelt? Dann würde sich doch der Käse mit CUDA und Ati Stream doch in wohlgefallen auflösen (jedenfalls für WIN 7). Und wie schaut es mit einem echten 64bit Clienten aus? Wäre doch für sie selber doch auch von vorteil.

@all noch was anderes... Mir ist aufgefallen das die ATI Karte im V7 Client nen x16 Core zugewiesen bekommen hat. Läuft sehr rund muss ich sagen. Mal vom Stromverbrauch abgesehen...... :ugly: Gibt es ne Möglichkeit auch mit ner Nvidia Karte dranzukommen? Derzeit rödelt sich die 8800er nen Wolf für die paar Pünktchen vom 11er Core... Mal abgesehen davon, werden im Clienten keine Daten angezeigt.

Ich denke mal der Umstieg auf DX11 wäre ein Rückschritt, weil der neue x16 Core auf OpenCL setzt, welches extra für Berechnungen auf CPU auch für Berechnungen der GPU entwickelt wurde.

Ich glaube nicht, dass du es schaffen wirst an den neuen Core für die 8800 zu kommen. Selbst wenn die Treiber passen sollten, dann ist es glaube ich so, dass CUDA bisher noch schneller läuft als OpenCl.

@caine2011: Ich hab bis jetzt noch nichts gelesen, dass es möglich ist die Systemvariablen anzupassen. Meiner Meinung nach ist das aber auch nicht ganz so schlimm. Der GPU-Client liefert dann sicher mehr Punkte, als man verliert, weil man beim SMP die Anzahl der Kerne um einen reduziert.
 
Danke für das Feedback.

@DX11 - so einfach ist das nicht/das hat nur mässig viel damit zu tun
@64bit - unklar ob das einen Vorteil für Stanford bringen würde (spezifische Rechenleistung) - es würde aber alle NICHT-64bit-er ausschliessen.
Hm, dachte MS (:lol:) will das für alle Programmierer vereinfachen um die GPU's besser für Anwedungen nutzbar zumachen. Naja...
Wieso sollte 32bit ausgeschlossen werden? Mit Treibern klappt das doch auch.

Bestimmte "Umgebungen" haben definierte Clienten - so bekommt nur der BIG-Falter den Core-a5
Genauso ist es eben mit der GPU==> 16er ist exklusiv ATI//V7
Schade :(, Dann sollte ich für die 8800er wohl eher den GPU3 Client einrichten?

Habe ich "ganz viel früher" mal erfolglos versucht
Wird unter normalen Umständen heute auch (noch) nicht funktionieren

Allerdings, mit einem (als Beispiel) MSI Big Bang Fuzion; also mit Lucid/Hydra-Chips onboard wäre es theoretisch möglich
Bloss wird wohl keiner rund 300 Euronen ausgeben nur um das herauszufinden ;)

Ebenfalls schade. Auf die Idee bin ich gekommen, weil ich hier im Forum ne Anleitung gefunden habe, um ne Nvidia als Physix zu ner ATI zu stellen. Allerdings hab ich auch schon irgendwo gelesen, das Nvidia was am Treiber geändert hat um das zu unterbinden.
Mit dem Gedanken mir mal das MSI zu gönnen hab ich schonmal gespielt, genau wie ein Skulltrail Sys. Wäre alles spitzen Zeug.:schief: Aber wie du schon sagst, fehlt es etwas am flüssigem ;).

Gruß Tom
 
Hm, dachte MS (:lol:) will das für alle Programmierer vereinfachen um die GPU's besser für Anwedungen nutzbar zumachen. Naja...
Wieso sollte 32bit ausgeschlossen werden? Mit Treibern klappt das doch auch.

kubi hat deine Frage schon teilweise beantwortet - OpenCL ist das Stichwort
Damit die 32er nicht ausgeschlossen würden (also zB. die WIN_XP-User) müsste es beide Versionen geben; ich glaube nicht, dass dieser "Zusatzaufwand" von Stanford erbracht würde - immer unter der Voraussetzung, dass 64bit keinen signifikanten Vorteil bringt/bringen würde

Schade :(, Dann sollte ich für die 8800er wohl eher den GPU3 Client einrichten?

Nein, den GPU2-Clienten ==> [URL]http://www.stanford.edu/group/pandegroup/folding/release/Folding@home-Win32-GPU_Vista-623.zip[/URL] falls du VISTA/WIN7 hast
 
Inzwischen verusche ich, einen Tray-Client für meine HD 5770 mit Catalyst 10.4-Treiber einzurichten,
aber ich habe das Problem, dass es nicht funktioniert und beim Start dieser Feher rauskommt:
aufzeichnen-jpg.410340


Der Befehlsatz:
aufzeichnen-jpg.410342

habe ich demensprechend eingetragen, aber demnoch ohne Ergebnis.
 

Anhänge

  • Aufzeichnen.JPG
    Aufzeichnen.JPG
    24,7 KB · Aufrufe: 107
  • Aufzeichnen.JPG
    Aufzeichnen.JPG
    40,9 KB · Aufrufe: 102
Inzwischen verusche ich, einen Tray-Client für meine HD 5770 mit Catalyst 10.4-Treiber einzurichten,
aber ich habe das Problem, dass es nicht funktioniert und beim Start dieser Feher rauskommt:
attachment.php


Der Befehlsatz:
attachment.php

habe ich demensprechend eingetragen, aber demnoch ohne Ergebnis.

wen du mit einer Ati karte falten möchtest dan ist der V7 beta client besser da bringen die ATI´s etwas mehr PPD als mit den v6 client
 
Wie Acer schon geschrieben hat, solltest du der 7er Client installieren, dann macht deine 5770 etwa 6k PPD. Allerdings brauchst du zumindest einen neuen Treiber, zumindest den OpenCL-Teil, welchen es auch als extra Download gibt, falls du beim 10.4. bleiben willst.

Der Client braucht dann allerdings einen kompletten CPU-Kern, was allerdings kein Problem sein sollte, da du ja sowieso nur den Singlecoreclient nutzt.
 
Wird der Beta-Client auch unter Vista mit meiner HD 5770 funktionieren?
Außerdem will ich auf Sicherheitsgründen nicht unbedingt auf eine Beta einsteigen.
 
der läuft auch unter XP
wen du den V7 nicht nimmst macht deine 5770 nur 1500PPD mit den V6 client und das lohnt sich leider überhaupt nicht

ist leider momentan die einzige Möglichkeit mit den ATI Karten zu falten, die ATI Karten laufen zwar im Verhältnis zum älteren V6 client viel besser aber kommen immer noch nicht an eine Nvidia ran
 
Zuletzt bearbeitet:
Ich zähle nicht unbedingt als großartigen Punktejäger und von daher würden mit selbst 1500PPD reichen,
aber ich will nur, dass mein installierter Tray-Client endlich funktioniert und ich mit meiner HD 5770 falten kann. :(
 
Dann wirst du wohl einen neuen Treiber, wie schon in der Fehlerbeschreibung zu lesen. Wenn das auch nicht hilft, weiß ich auch nicht weiter.
 
Zurück