Schmarrn…..
Der Monitor Refresh wird einfach dann ausgelöst wenn das Bild fertig gerendert ist, da muss überhaupt nichts „geschätzt“, „gemittelt“ oder „vorhergesagt“ werden.
Das macht G-Sync. Deswegen gibt es das Polling vom Treiber zum Modul. Wobei der Leistungsverlust sich mit dem letzten Treiber auf 0,005% reduziert hat.
Bei Freesync wird der Monitor real auf eine andere Hz-Zahl gestellt: AnandTech | AMD Shows Off Multiple FreeSync Displays
Der Samsung-Monitor zeigt die neue Hz an. Spricht für die getätigte Aussage der unbekannten Quelle. Und laut dem Forbes-Typen müsste AMD noch an den Treibern arbeiten...
Das sehe ich auch so, habe ich ja weiter oben hier schon geschrieben. AMD weiß, dass erst in 2 Monaten die ersten Endkunden ein FreeSync-Display haben werden. FreeSync wird komplett über den Treiber abgewickelt (keine Zusatzplatine im Monitor). Also hat AMD offensichtlich noch 2 Monate Zeit, das zu optimieren. Es wäre regelrecht seltsam, wenn bereits 2 Monate vor dem Release alle Details im Treiber schon fertig optimiert wären. Was sollte das bringen?Und laut dem Forbes-Typen müsste AMD noch an den Treibern arbeiten...
Weil das Panel zu dir gebogen ist und du nicht mehr so den seitlichen Blickwinkel hast, um den IPS glow zu sehen. .
Das steht überhaupt nicht in deiner QuelleDa steht "We could then enable/disable FreeSync and V-SYNC, we could set the target rendering speed from 40 to 55 Hz in 5Hz increments, or we could set it to vary (sweep) over time between 40 Hz and 55 Hz." Das ist eine Aufzählung von drei Punkten, mit "oder" getrennt. Zu Deutsch: "Wir konnten FreeSync und V-Sync ein-/und ausschalten, wir konnten die Bildwiederholfrequenz von 40 bis 55 Hz einstellen, oder wir konnten ...". Das heißt, dass das Einstellen der Bildwiederholfrequenz ein anderes, zusätzliches Feature ist. FreeSync macht das nicht. FreeSync teilt dem Monitor mit, wann er das übertragene Bild anzeigen soll. Kann man auch in gefühlten 100 Tech-Artikeln über FreeSync so nachlesen. G-Sync macht im Prinzip genau das gleiche. Deshalb bin ich auch sehr skeptisch bezüglich dieser anonymen Quelle.
The Samsung display meanwhile was even able to show the current refresh rate in its OSD, and with FreeSync enabled we could watch the fluctuations, as can be seen here.
Das Samsung Menü zeigt eine variable Refresh-Rate an. Das heißt, der Monitor läuft mit variablen Hz-Zahl. Er weiß also, wie lange das Bild nun stehen bleibt. Und dies ist nur möglich, wenn die Grafikkarte die Refresh-Rate vor dem Senden der Informationen umstellt.
Das ist nicht vergleichbar mit G-Sync. Hier hält das Modul den Monitor davon ab sich im fest eingestellten Intervall neu zu aktualisieren. Die Refresh-Rate ist im Monitormenü immer gleich.
Nein, deiner Schlussfolgerung widerspreche ich. Wenn die Grafikkarte jeweils den genauen Zeitpunkt mitteilt, wenn ein Bild angezeigt werden soll (so wie es G-Sync und FreeSync machen), führt das natürlich im Rückblick auch zu einer variablen Refresh-Rate, weil zwischen zwei Frames unterschiedlich viel Zeit vergeht, bis der Befehl zum Anzeigen eingeht. Also ist es klar, dass der Zähler im Monitor, der einfach die angezeigten Frames innerhalb der letzten vergangenen Sekunde mitzählt, dann variable Hz-Zahlen anzeigt. Das ist ja gerade der entscheidende Punkt beider Technologien, dass die zeitliche Abfolge der Frames variabel ist.
Das wäre bei diesem Monitor mit G-Sync genau so. Kann man leider nicht vergleichen, da dieser Monitor ja kein G-Sync unterstützt (und andere Monitore, die das tun, nicht die Frames mitzählen, sondern einfach eine feste Framerate im OSD anzeigen).
Bisher schaut es auch so aus, als ob nVidia ganz sicher NICHT der Vorreiter war. Ob es Intel oder AMD war, wird nicht ganz klar sein.
Du missverstehst hier etwas: Der Monitor zählt überhaupt nichts mit. Die Monitoranzeige zeigt nur den Refreshintervall an. Dieser sollte sich überhaupt nicht ändern. Da es jedoch bei Adaptive-Sync/Freesync tut, ist die Grafikkarte nicht in der Kontrolle des eigentlichen Refreshintervalls sondern setzt diesen nur in einen anderen statischen.
Der Monitor kann überhaupt nicht wissen, in welchem Intervall Frames erzeugt werden. Da wird nichts mitgezählt.
Eine VESA Spec bringt man nicht 'mal eben' so auf die Beine, das bruacht 'nen paar Jahre.
Ebenso ist die Hardware, die für Fresync benötigt wird, schon in einigen aktuellen Chips. Auch das macht man nicht 'mal eben'.
Das lässt den Schluss zu, dass zumindest AMD daran schon seit einigen Jahren arbeitet. Und man könnte hier vermuten, dass nVidia die Idee geklaut hat, als AMD das ganze der VESA vorgeschlagen hat...
Was allerdings dafür sprechen würde, wäre die Tatsache, dass Nvidia zu Beginn ihre Zusatzplatine mit einem (sündhaft teuren) FPGA ausgestattet hat. Es gibt eigentlich nur einen plausiblen Grund dafür - nämlich, dass schlicht die Zeit für die Entwicklung und Fertigung eines ASICs zu knapp warAuch NV´s Modul entwickelt man nicht in 2 Tagen.![]()
Ja. "Geklaut" würde ich jetzt nicht sagen, eher "übernommen", aber stimme der Aussage zu. Ich finde überhaupt nichts verwerflich daran, eine gute Idee eines Konkurrenten auch umzusetzen, so dass letztlich noch mehr Anwender davon profitieren können.Siehe DSR. Da könnte ich nun auch behaupten AMD hat nur geklaut.
Ja. "Geklaut" würde ich jetzt nicht sagen, eher "übernommen", aber stimme der Aussage zu.
Ach so NV klaut und AMD "übernimmt"!![]()
Also ich finde dieses Argument, das oft kommt, Bullshit.Welche Nachteile gibts denn noch?
IPS Glow?
Mensch, das kannste doch nicht bringen.mal was jemand aus dem 3DCenter, dem man glauben kann, dazu sagt.
Bisher schaut es auch so aus, als ob nVidia ganz sicher NICHT der Vorreiter war. Ob es Intel oder AMD war, wird nicht ganz klar sein.
ABER:
Eine VESA Spec bringt man nicht 'mal eben' so auf die Beine, das bruacht 'nen paar Jahre.
Ebenso ist die Hardware, die für Fresync benötigt wird, schon in einigen aktuellen Chips. Auch das macht man nicht 'mal eben'.
Das lässt den Schluss zu, dass zumindest AMD daran schon seit einigen Jahren arbeitet. Und man könnte hier vermuten, dass nVidia die Idee geklaut hat, als AMD das ganze der VESA vorgeschlagen hat...
Also ich finde dieses Argument, das oft kommt, Bullshit.
Das fällt normal unter tagtäglicher Benutzung gar nicht auf!
Wenn man natürlich extra das Bild komplett schwarz macht und die Ecken absucht, ja klar, dann sieht man es.
Das Spiel kann man aber mit so ziemlich mit jedem Produkt treiben.
Sucht man geradezu nach einem Fehler oder einer Beeinträchtigung, dann wird man die auch finden!
Finde das (Argument) einfach nur übertrieben.
Es fällt einfach nicht auf und das ohne mir Mühe geben zu müssen, es bewußt zu ignorieren.
Ich sehe es nicht, wenn ich es nicht darauf anlege.