sli...

crae

Software-Overclocker(in)
Hab ne Frage dazu. Und zwar hat man eigentlich, auch wenn man mit fps über 40, also flüssig spielt bzw. eben wenn man so gut wie keine Mirkoruckler mehr hat trotzdem einen höheren Inputlag, wie mit einer single-gpu. Wie sieht es da aus, wenn man frame limiter an macht? Und inwiefern verbessern eigentlich Profile für bestimmte Spiele die Mirkoruckler? Und mal angenommen ich hätte jetzt einen höheren Inputlag, in welchem Bereich ist das denn, ich mein mit 5-10ms könnte ich vllt leben, mit 50ms nicht...

mfg, crae
 
Hi crae. Also ich muss ehrlich gestehen ich höre sowas zum ersten mal. Ich versteh was du sagen willst und verstehe auch deine Problemstellung Ich habe mir über sowas noch keine Gedanken gemacht, würde aber gern mehr davon erfahren. Kannst du mir ein genaues Beispiel nennen? Gruß
 
Ich kenne noch mich da nicht aus, aber sowie ich das verstehe braucht man durch den um einen Frame erhöhten Inputlag doppelt so viele FPS, um den selben Input-Lag wie bei einer Singel-GPU zu bekommen. Wie stark der Input-Lag in ms ansteigt hängt von den FPS ab.
 
Zuletzt bearbeitet:
so,nun setzen wir uns hin und bauen sätze mit absätzen und satzzeichen...
inputlag ist ein begriff aus dem bereich flachbildschirme...wtf hat dass mit grakas zu tun?und sli?

ick versteh nur bahnhof und fahr immer noch inne verkehrte richtung...
 
Also Input lag hat meines Wissens ein wenig was mitn Monitor zu tun den alte Röhrenmonitore sehr gute Reaktionszeiten haben dann kommen die Plasma Monitore die so gut wie keine Millisekunden Reaktionszeit haben.
Bei Grafikkarten setzt man Vsync ein um ein stabiles Bild zu erzeugen und das überberechnen der Bilder zu verhindern... bei 2 Grafikkarten kann es aber auch zu solchen Microruckerln kommen aber das liegt an der SLI Technik an sich selbst und wie gut ein Spiel auf SLI optimiert ist aber ganz verhindern lässt sich das leider noch nicht ;)
Bei manchen Menschen kann es sein das es ihnen auffehlt... z.b in einer art Nachzieheffekt ... bei einem Eis Level bei Crysis 1 kann man das sehr gut beobachten ^^
 
inputlag ist ein begriff aus dem bereich flachbildschirme...wtf hat dass mit grakas zu tun?und sli?

Richtig.

Ich denk mal er meint die Zeit die gebraucht wird. Damit sich die beiden GPUs abstimmen wer welches Bild rendert.

Das ist ja bei Single GPU nicht.

Und in der hinsicht kann man dich beruhigen.
Mit und ohne SLI Brigde ist das das kleinste Problem mit dem du zu tun hast.
In welchen ms du da rechnen muss weis ich nicht , aber das ist nicht viel.

MfG Heretic
 
Also bitte Leute, wer keine Ahnung hat sollte sich dazu nicht melden.
Früher war es wirklich so dass man im SLI merklich höheren Input Lag hatte. Das ist zwar heute auch noch so aber merken tut man davon nichts mehr...
Die sogenannten Mikrorukler hat man immer mit einem SLI/CF System, allerdings sehen die meisten diese aber nicht mehr ab Bereichen ca ~50 FPS... In welche man (meistens) mit einem SLI System nicht erreicht.
Wenn dich also die höhere Lautstärke/Temps/Kosten/Stormverbauch bei einem SLI System nicht stören kannst du Bedekenlos zuschlagen.

Profile ändren an den MR nichts dafür sind die Treiber zuständig.
Framelimiter hat auch nichts mit Inputlag zu tun, aber verringer die MR - Mit aktiviertem Vsynk wird der Inputlag aber erhöht.
 
Also mit Inputlag meine ich natürlich Verzögerung, ist vielleicht ein wenig unglücklich gewählt. Mirkoruckler nimmt man ja ab einer bestimmten Anzahl an fps, meistens 50 aufwärts, nicht mehr wahr. Allerdings hat man doch deswegen immer noch (nicht mit dem Auge wahrnehmbare) Mirkoruckler und die sollten doch, wenn ich mich nicht irre auch bei hohen fps noch eine Verzögerung bei einer Eingabe mit Tastatur bzw. Maus verursachen. Sprich wenn ich 60 fps habe, habe ich ja immer noch Mikroruckler, die ich nicht mehr sehen kann, die jedoch immer noch eine Verzögerung erzeugen. Das bedeutet doch im Klartext, wenn ich zb Battlefield spiele und 60 fps habe, regiere ich trotz einer guten Konfiguration meiner Hardeware und guten Treibern ohne spürbare Miroruckler immer noch langsamer, oder? Das war ja im Prinzip meine Frage, denn wenn das 10 ms wäre könnte ich eben damit leben mit 20 ms eher nicht. Auf dieses Thema bin ich übrigens gestoßen, weil ich in wikipedia und hier im Forum dazu was gelesen habe. Im folgenden Link steht auch noch ein Diagramm mit Frameverläufen, wo das sieht, allerdings kann ich nicht glauben, das eine single-gpu so eine hohe Verzögerung hat, aber seht selbst http://extreme.pcgameshardware.de/g...rossfire-thread-faq-benchmarks-tests.html#a28 (bei Frameverläufe). Ich hoffe jetzt hat es jeder verstanden, was ich meine, dass war jetzt unmissverständlich.
@downhill: Danke schon mal für die Antwort.
@combi: Solche Antworten kannst du dir sparen, du hast selbt eine Rechtschreibung, jenseits von gut und böse und das war einfach unnötig.

mfg, crae
 
Ich glaub da machst du dir etwas kuenstlich angst.

Wie gesagt das was du meinst ist im normal fall minimal und schwer verhinderbar.
Außerdem ist es wenn ich das recht verstehe auch etwas anders.
Die eingabeverzögerung entsteht ja nicht durch die gpus.
Die cpu verwaltet das ja erstmal und solange die nicht brennt ist alles in butter.
Du siehst die reaktion aufn bildschirm durch die mikroruckler ggf nur anders bzw kanns millisekunden spaeter erst reagieren.
Als bei flußigen single gpu frames.

Sli hat halt hier und da seine tuecken. Klar kanns bei dir extrem schlimm sein.

Aber da musst du einfach durch und es bei dir testen.
Jeder spuert das auch ganz anders. Manche sehn bei 30fps keine mk ander sehe selbst bei 140 fps noch mk wie ne adler.

MfG Heretic
 
Komm nur immer wieder auf sli-Systeme zurück, weil ich mir denke, wäre schon geil sowas zu haben, aber es besteht eben doch eine Verzögerung, keine Ahnung ob spürbar oder nicht, sie ist denke ich schon ein Nachteil. Und wenn die beiden gpus Mikroruckler raushauen, gibts eben doch eine Verzögerung und die hauen immer Mikroruckler raus. Spürbar wird das denke ich eben durch Eingabe per Peripherie, wenn ich zb auf eine Taste drücke und der frame zu dem Zeitpunkte noch 10ms braucht, weil der frame noch berechnet werden muss. Kann natürlich sein, dass ich mich täusche, aber bevor ich mir wirklich eine zweite Karte hole möchte ich das eben wissen, denn auf Abwäre, Stromverbrauch, usw. pfeiffe ich eigentlich, damit komme ich klar. Wäre noch nett, wenn sich hier jemand melden würde, der sich da wirklich auskennt. Trotzdem danke für die Antwort Heretic.

mfg, crae
 
Joa die Spürbarkeit erhört sich je nach dem wieviele Karten du einbaust und wie ein Spiel darauf optimiert ist ... im schlimmsten fall bringt eine 3 oder 4te Karte gar keinen Leistungsgewinn auser die Spiele werden auf 4 Karten richtig gut optimiert aber das ist eher nur bei SLI mit 2 Karten der Fall.
Deswegen ist eine 690er GTX oder eine TITAN besser in der Anschaffung als 2x680er oder sonst irgendwelche gespanne die mit einem Brückechip verbunden sind. Eine Starkte Karte ist immer besser als jedes SLI System da diese Karte das ganze Bild berechnet und nicht auf 2 Karten aufgeteilt wird wo eine ein schnelleres Bild berechnet als die andere.

Diesen Input lag nimmt man meistens eh nur sehr stark wahr wenn man es über spezial Programme laufen lässt so wie es die PC Games Hardware in ihren Tests macht ^^

Ich hab zwar auch ein SLI Gespann und mir ist nur diese Überbildberechnung aufgefallen wo 2 Bildhälften zerschnitten werden weil A) zuviele Bilde vorhanden oder B) kein Vsync aktiv ist was meistens verhindert das es dazu kommt, so wars zumindest bei mir und man hat es richtig bei Starcraft 2 gemerkt ;)

Gibt auch Spiele die 90er Wertungen bekommen aber trotzdem Grafikfehler haben wie z.b die spätere Berechnung von Texturen aber das liegt dann meistens eh am Spiel selbst, bestes Beispiel Rage (Egoshooter)
 
Danke das hat mir geholfen, denke ich werde mir vorerst keine dual anschaffen, erst wenn sie es verbessern oder wenn ich das Geld für eine 690 hab, hatte nämlich vor mir 2*670 zu holen, weil sie nur 500 Euro kosten, aber die Titan überholen. Allerdings wird es mich trotzdem nie loslassen, der Gedanke an zwei gpus ist einfach genial.

mfg, crae
 
Du kannst dir ja einfach eine 2te Karte bestellen. Wenn du Probleme damit hast einfach gebrauch vom 14-Tägigen Rücckagbe recht machen
 
Naja ich finde bis jetzt auch wenns ne Titan gibt die 690er die beste GPU am Markt, wie gesagt die 690er besteht aus 2x680er die via einen Brückenchip AUF DER PLATINE der Grafikkarte die 2x680er zu einer Cpu Fusioniert und somit auch die bessere Lösung ist als sich 2 670er oder 2 680er zu kaufen ^^

Aber wenn du auf ein wenig Leistung verzichten kannst solltest du dann gleich zu einer Titan greifen, leider weiß ich den Preis von einer 690er gegenüber einer Titan gerade nicht aber da kannst du dich ja selber schlau machen und eine günstige finden... oder einfach mal im Forum nachfragen da wird auch gerne geholfen ;)
 
Zurück