Freesync 2: AMD stimmt auf Smart-TVs ein, Benq EX3203R vorgestellt

Naja

A) es muss nicht jeder auf Ultra spielen, nur gibts halt im Grünen Lager derzeit mehr Leistung für weniger Geld. Das Argument geht also eigentlich an der Sache vorbei, wenn man grad Grafikkarte und Monitor neu anschaffen möchte

Naja, G-Sync relativiert den Preis für die GPU sehr schnell. Ohne Sync ist ne 1080 billiger ja, mit G-Sync aber halt n gutes Eck teurer. Eine 1080ti + Monitor ist immer teurer. Sprich AMD + Adaptive Sync ist oft durchaus billiger als Nvidia + Adaptive Sync.

Nachdem du gesagt hast man kommt mit AMD schwer in die Bereiche wo Freesync dann zieht, ist das mit den Settings ziemlich genau auf dein Argument abgestimmt, kommt unten nochmal was ;)

B) Wenn nicht zum zocken, wozu dann freesync? Die Kombination setz ich mal voraus. Dass die Monitorhersteller das als Marketing-Pluspunkt einfach mit beifügen, klar. Nur nutzen muss man es eben auch, der Scaler an sich muss das ja dennoch können und ist teurer im Vergleich zu dem ohne freesync (die Lizenzgebühr von Nvidia mit Zusatzgerät fehlt halt) :huh:

Du missverstehst da was. Man kann sich nen 4K Screen kaufen weil man ihn für Multitasking Aufgaben haben will an der Workstation (Viel platz und so, 4K Bilder nativ darstellen, usw. usw.), man aber auch auf ihm zocken will. Dann hat man 4K zum Arbeiten und kann mit Freesync zocken. Der 4K Screen funktioniert ja auch mit niedrigerer Auflösung. Sprich man kann billig beides haben. Bei Nvidia kannst du nur teuer beides haben.

C) Geht argumentativ an der Sache vorbei (zur Erinnerung, mehr Leistung für weniger Geld bei Nvidia)

Um dich nochmal zu zitieren:

was also bringt ein z.B. UHD Monitor mit Freesync, wenn halbwegs passende Frameraten (freesync beginnt teilweise erst ab 48hz) von derzeit verfügbaren Grafikkarten nicht erreicht werden?

Also nein. Das ist ziemlich genau der Punkt. Auf gemischten Settings sind 48 FPS in UHD easy drinnen und bei älteren oder auch non AAA Titeln mit niedrigeren Anforderungen auch. Wenn du so ne Aussage machst solltest du nicht behaupten die Antwort ginge an deiner Aussage vorbei^^ Man kommt an die FPS. Oft sogar auf Ultra. Wobei wie gesagt 40 meistens der Grenzwert für UHD Freesync ist.

D) Wer nutzt eine Xbox X am Monitor? Denn die neuen TVs schlagen ordentlich zu Buche, wenn man sich die bisher bekannten Preise zu Gemüte führt.

Jemand der wenig Platz hat oder noch Zuhause bei den Eltern Wohnt und die Konsole im eigenen Zimmer will. Außerdem kann es halt bei der Neuanschaffung eines Fernsehers nach beispielsweise einem Umzug sein. Jemand der Kinder hat und das Ding in seinem Büro hat um Ruhe von den Kids zu haben. Gibt es alles. Sonst würde Microsoft das nicht einbauen.

Das man mit einer 580 gut spielen kann, bestreite ich ja nicht. Denn wie du korrekt anmerkst, isses immer auf den Einzelfall abzustellen: Welche Games, welche Qualität, welches Budget? Allerdings gibt es halt aktuell keinen Ausblick auf das nach Vega und genau darauf hab ich abgestellt

Kann man so stehen lassen.

FHD ist noch der Standard, doch PCGH oder CB deuten ja an, dass es sich langsam über WQHD zu UWQHD/UHD hin entwickelt.

Ach, das sagen die Leute schon lange. Aber das dauert noch. 1080p ist immernoch die breite Masse. 4k und 1440p sind bei steam immernoch echt weniga.

Das allerdings macht in meinen Augen aber mit AMD Fragezeichen auf, mit was man zukünftig aufrüsten könnte, wenn man denn mit einem Freesync-Monitor liebäugelt (oder selbst die Fraktion, die derzeit mit einer 580 zwischenparkt und eigentlich High-End kaufen wollte).

Fragezeichen gibt es immer. Navi kann der große Wurf oder auch ein Griff ins Klo werden. Aber mal doof gesagt: Auch Turning kann ein Fail sein. (Glaube ich zwar nicht, aber auch Nvidia hat sich in der Vergangenheit schon verrannt)

Sicherlich weiß man über Turing noch nichts konkretes, der gesunde Menschenverstand lässt aber annehmen, dass es mehr Leistung für gleiche Leistungsaufnahme bzw. gleiche Leistung bei geringerer Leistungsaufnahme bringen wird. Anderenfalls könnte man sich die Veröffentlichung sparen und niemand hätte Grund zum Wechseln. Ich selbst z.B. kanns kaum erwarten, die 1180Ti zu kaufen, wenn sie denn auf die Welt kommt > UWQHD als Qualitätsfetischist will befriedigt werden. Bei Nvidia ist das womöglich nur eine Frage des Preises im Jahr 2019, bei AMD braucht man sich die Frage erst gar nicht stellen. Das war mein eigentlicher Kern meines Posts - gerade hier bräuchte man ebenso dringend Konkurrenz! Vielleicht ja Intel, allerdings werden die mMn eher im Low/Mid-Budget Bereich AMD das Wasser abgraben und nicht ad hoc ins High-End gegen Nvidia. Wenn Nvidia wirtschaftlich müsste, könnten sie die Preise auch niedriger ansetzen

AMD kann uns vielleicht überraschen. Vielleicht kommt Vega 20 für Gaming und wird ein Knaller. Vielleicht geht Navi ab wie Schnitzel. Vielleicht passiert weder das eine noch das andere. Vielleicht wird die neue Nvidia-Gen auf 2019 verschoben. Ist alles möglich, wir wissen es nicht.
 
Zuletzt bearbeitet:
Naja

A) es muss nicht jeder auf Ultra spielen, nur gibts halt im Grünen Lager derzeit mehr Leistung für weniger Geld. Das Argument geht also eigentlich an der Sache vorbei, wenn man grad Grafikkarte und Monitor neu anschaffen möchte
B) Wenn nicht zum zocken, wozu dann freesync? Die Kombination setz ich mal voraus. Dass die Monitorhersteller das als Marketing-Pluspunkt einfach mit beifügen, klar. Nur nutzen muss man es eben auch, der Scaler an sich muss das ja dennoch können und ist teurer im Vergleich zu dem ohne freesync (die Lizenzgebühr von Nvidia mit Zusatzgerät fehlt halt) :huh:
C) Geht argumentativ an der Sache vorbei (zur Erinnerung, mehr Leistung für weniger Geld bei Nvidia)
D) Wer nutzt eine Xbox X am Monitor? Denn die neuen TVs schlagen ordentlich zu Buche, wenn man sich die bisher bekannten Preise zu Gemüte führt.
(...)
Deine gesamte Argumentation geht leider selber voll an der Sache vorbei:
A) Und weitere Szenarien existieren nicht in deinem Marktbild? Nur der Displaykauf steht an würde mir da direkt einfallen...
...wer zum Beispiel eine Nano hat und momentan auf einem 1080p60er hauptsächlich LoL zockt und ansonsten viel mit Texten arbeitet, für so jemanden wäre ein 2160p144er super. Das ist jetzt nur ein ganz triviales
B) Da stand was von auch zum nicht zocken, nicht nur zum nicht zocken.
C) Siehe A & B
D) Das tun so schon viele und würden natürlich noch viel mehr, wenn es ein KillerFreeSync-Display gäbe, das auf GamingOnConsole zugeschnitten wäre. (also 10bit, 1000nits, FRC und LowInputLag bieten würde.

Der gesamte Rest des Postings detailliert die frühere Argumentation bloß noch aus und geht daher genauso dran vorbei.
 
@Topic
Ich frag mich ob Nvidia irgendwann mal den GSync Kram aufgibt. Wenigstens beides sollten sie unterstützen. Die Auswahl an Freesync Endgeräten ist einfach viel größer.

Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Kommt auf die Situation an. So einfach. Eine bessere Range ist natürlich wünschenswert. Hat ja keiner bestritten^^ Aber 40-60 ist immernoch besser als kein Freesync nachdem man Freesync bei Problemein einfach ausschalten kann. Es ist nicht essentiell, es ist aber definitiv Wünschenswert. Im schlimmsten Fall hast du das Ergebnis was du ohne Freesync hast. Im besten Fall gutes Adaptive Sync. Ist abgesehen davon noch in der Beta wenn mich nicht alles täuscht. Sprich es könnte sich noch was tun. (Könnte != Muss). Bei Dark Souls merkt man es deswegen weil es halt auf einem Non-LFC Monitor getestet wird, aber auch sowas gibt es mit Freesync. Da ist nur die Frage ob die Xbox LFC kann. Auf dem PC wird das glaube ich vom Treiber gehandelt und auf der PS könnt das anders laufen.
 
Zuletzt bearbeitet:
Kommt auf die Situation an. So einfach. Eine bessere Range ist natürlich wünschenswert. Hat ja keiner bestritten^^ Aber 40-60 ist immernoch besser als kein Freesync nachdem man Freesync bei Problemein einfach ausschalten kann.

Besser wäre es eine Range von 30 - Max. Monitor Hz zu haben, was GSync gewährleistet. GSync-Module kosten die Hersteller was (und die geben die Kosten auch weiter), aber der Grund dürfte auch in der Range liegen. Nur sehr wenige Freesync Monitore gehen runter bis 30 FPS und davon beherrscht keine UHD-Monitor diese Range (Liste AMD).

Du missverstehst da was. Man kann sich nen 4K Screen kaufen weil man ihn für Multitasking Aufgaben haben will an der Workstation (Viel platz und so, 4K Bilder nativ darstellen, usw. usw.), man aber auch auf ihm zocken will. Dann hat man 4K zum Arbeiten und kann mit Freesync zocken. Der 4K Screen funktioniert ja auch mit niedrigerer Auflösung. Sprich man kann billig beides haben. Bei Nvidia kannst du nur teuer beides haben.

Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum/Farbechtheit etc an und da bist du schnell mal bei ein paar 1000 €.
 
Zuletzt bearbeitet:
Besser wäre es eine Range von 30 - Max. Monitor Hz zu haben, was GSync gewährleistet. GSync-Module kosten die Hersteller was (und die geben die Kosten auch weiter), aber der Grund dürfte auch in der Range liegen. Nur sehr wenige Freesync Monitore gehen runter bis 30 FPS und davon beherrscht keine UHD-Monitor diese Range (Liste AMD).

Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.

Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum etc an und da bist du schnell mal bei ein paar 1000 €.

Jeder fängt mal an. Wenn du den für Multitaksing haben willst weil er groß ist (hab ich auch erwähnt) ist dir der Farbraum egal. Als Designer kann es wichtig sein, muss es aber nicht (kommt drauf an was du machst, selbst wenn du Designer bist dann halt wofür du designs machst). Nicht bei jeder beruflichen Nutzung ist der Farbraum entscheident. Die Sache ist, dass du die Möglichkeit hast billig einen zu bekommen der das hat und das ist einfach nicht schlecht. Ob du sie nutzt ist die andere Sache. Klar hat alles Vor- und Nachteile. Der Punkt ist, das macht eine große Varianz an Freesync-Monitoren ja nicht unnötig. Und das war auch der Kern. Einer meiner Kollegen Arbeitet halbtags und macht nebenher Design-Aufträge und macht das mehr so als Hobby mit dem er Geld macht. Der hat den selben Monitor wie ich und der ist von der Farbwiedergaben ok, aber nicht großartig. (Ok meiner ist jetzt auch kein 300€ Monitor sondern einer für 400€ aber das ist auch noch nicht die Welt für 4K).
 
Zuletzt bearbeitet:
(...) Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum/Farbechtheit etc an und da bist du schnell mal bei ein paar 1000 €.
Für jemanden, der 4K zum Arbeiten mit Texten oder mit sonstigen monochrome Vektorgrafiken nutzt, sind Farbraum und Farbechtheit erst einmal ziemlich egal. Und das sind verdammig viele Jobs. (Programmierung, Verwaltung, Layouting, Autoren, ...)
Und mit ziemlich egal meine ich deutlich unbedeutender als für Gaming...
...und mir ist kein Desktop-4K-Panel bekannt, was derart miserabel wäre, dass es sich für Gaming disqualifizieren würde, ergo auch keines, was sich für oben genannte Szenarien disqualifiziert.
 
Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:

Der ewig gleiche Nonsens und dämliches Gewäsch .Wenn ein offener "sehr viel günstigerer" Standard an den anderen Properitären überteuerten Lösungen nicht nutzbar ist obwohl er auch Schnittstellenseitig besser/aktueller da steht kommt jedesmal die Range Keule .Wenigsten ein vermeintlicher Vorteil an den sich geklammert wird wie der ertrinkende an einerGummiente .
Ich kann viele Hersteller bei der Range verstehen .Je niedriger die garantierte Range muss auch eine meist ein paar Cent/€ teurere hochwertigere Elektronik rein obwohl die meisten dort verbauten in der Regel weiter als die Werksangaben runterkämen .Für meist 30 statt 40 oder 48Hz untere Grenze muss man sich ja den horrenden Aufpreis schönreden können .Wer sich mit seinem Freesync etwas beschäftigt richtung Treibermod wird höchstwahrscheinlich erstaunt sein das da einiges noch nach unten gehen sollte .

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .

Mfg

Edit:
Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Framed-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
Hier muss ich dir leider wiedersprechen .Bei einem 60Hz Monitor ist eine Untergrenze von 30Hz leider sinnvoll .Da Framedouble erst unter 30Hz einsetzt weil alles über 30Hz würde die max. 60Hz zwangsläufig übersteigen .Die restlichen 10 - 18 Hz bei einem 60Hz Moni müssen dann mit Vsync kompensiert werden mit all seinen Nachteilen .Framedoppelung ist mittlerweile bei Freesync aber genauso Standard wie im GSync .
 
Zuletzt bearbeitet:
Der ewig gleiche Nonsens und dämliches Gewäsch .Wenn ein offener "sehr viel günstigerer" Standard an den anderen Properitären überteuerten Lösungen nicht nutzbar ist obwohl er auch Schnittstellenseitig besser/aktueller da steht kommt jedesmal die Range Keule .Wenigsten ein vermeintlicher Vorteil an den sich geklammert wird wie der ertrinkende an einerGummiente .
Ich kann viele Hersteller bei der Range verstehen .Je niedriger die garantierte Range muss auch eine meist ein paar Cent/€ teurere hochwertigere Elektronik rein obwohl die meisten dort verbauten in der Regel weiter als die Werksangaben runterkämen .Für meist 30 statt 40 oder 48Hz untere Grenze muss man sich ja den horrenden Aufpreis schönreden können .Wer sich mit seinem Freesync etwas beschäftigt richtung Treibermod wird höchstwahrscheinlich erstaunt sein das da einiges noch nach unten gehen sollte .

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .

Mfg

Edit:

Hier muss ich dir leider wiedersprechen .Bei einem 60Hz Monitor ist eine Untergrenze von 30Hz leider sinnvoll .Da Framedouble erst unter 30Hz einsetzt weil alles über 30Hz würde die max. 60Hz zwangsläufig übersteigen .Die restlichen 10 - 18 Hz bei einem 60Hz Moni müssen dann mit Vsync kompensiert werden mit all seinen Nachteilen .Framedoppelung ist mittlerweile bei Freesync aber genauso Standard wie im GSync .

Ja bei 60Hz, aber da reichen eben 30 nichtmal. Bei 60 braucht man 24 für LFC damit die Korrektur greift, dass die 60Hz eben nicht gesprengt werden. Aber wenn der Monitor ne 45-144Hz Range hat z.B. läuft das genauso gut. Das ist ja die Crux mit LFC.^^
 
Hä ? 30 oder weniger x 2 macht max .60 oder weniger .Keine Ahnung was du mit 24 hantierst .Wenn meine max. Range das doppelte der Syncuntergrenze beträgt gibts keine Probleme mit Framedoppelung unterhalb der min. Range .
 
Hä ? 30 oder weniger x 2 macht max .60 oder weniger .Keine Ahnung was du mit 24 hantierst .Wenn meine max. Range das doppelte der Syncuntergrenze beträgt gibts keine Probleme mit Framedoppelung unterhalb der min. Range .

Schau mal in die AMD Paper^^ da steht Max Range muss 2.5x Min-Range sein^^ So ist das eben bei Freesync.

60 / 2.5 ist 24^^ Daher die 24 Hz.

https://www.google.de/url?sa=t&sour...FjABegQICBAB&usg=AOvVaw2vyQAuOQXDOoB5E6yBOIEM

Ist ein PDF.
 
Sry dann solltest du dich das nächstemal etwas verständlicher und nachvollziehbarer ausdrücken dann gibts auch keine Missverständnisse .

Mfg
 
Sry dann solltest du dich das nächstemal etwas verständlicher und nachvollziehbarer ausdrücken dann gibts auch keine Missverständnisse .

Mfg

Ich bitte freundlichst um Verzeihung ;) Aber das mit der 2.5er Marke hab ich ein paar Posts vorher schonmal angemerkt ;)

Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
 
Puh, das ist aber ein herber Schlag für den PC. Wenn Konsolen in 4k via dynamischen Scaling in der Freesyncrange bleiben können, dann ist das schon ne Ansage.
@Palmdale: In allen Spielen auf meiner Platte kommt die V64 quasi immer über 40Fps im Max Out in 4k.
Vermintide 2 , Sniper Elite 4, Prey, Dirt 4, Shadow of War, Sudden Strike 4 etc.
Lediglich in Warhammer 2 läuft dass nicht ohne Resscale. In ordentlich programmierten Spielen wie Forza, Battlefront, Wolfenstein etc. ist dass auch kein Problem für die Leistungsklasse.

@Fortune: Was hat dein Video jetzt mit der Syncrate eines Pc´s zu tun?
 
Puh, das ist aber ein herber Schlag für den PC. Wenn Konsolen in 4k via dynamischen Scaling in der Freesyncrange bleiben können, dann ist das schon ne Ansage.
@Palmdale: In allen Spielen auf meiner Platte kommt die V64 quasi immer über 40Fps im Max Out in 4k.
Vermintide 2 , Sniper Elite 4, Prey, Dirt 4, Shadow of War, Sudden Strike 4 etc.
Lediglich in Warhammer 2 läuft dass nicht ohne Resscale. In ordentlich programmierten Spielen wie Forza, Battlefront, Wolfenstein etc. ist dass auch kein Problem für die Leistungsklasse.

@Fortune: Was hat dein Video jetzt mit der Syncrate eines Pc´s zu tun?

Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Damit wären wir dann auch hier:
Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
Ja für Verwendung des GSync Moduls in einem Monitor ist es Vorschrift das er LFC unterstützt. Das ist aber längst nicht bei allen Freesync-Monitoren der Fall.

Hier mal ein interessanter Artikel von Computerbase: Eizo FS2735 und Asus PG279Q im Test: FreeSync und G-Sync waren nie besser (Seite 4) - ComputerBase

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .
Super gratuliere. Ist ja nicht so, dass man als normaler Käufer nicht gerne basteln würde und mal eben einen kleinen Treibermod macht. Und das du es von keinem GSync gehört hast, dürfte daran liegen das hier das Modul ähnliche Spielereien verhindern würde und dass es bei GSync Out of the Box funktioniert wie es soll und keine Bsatellösung nötig ist.

Aber als AMD-Käufer muss man eben Basteln, damit die Eigenschaften mit denen AMD groß wirbt auch erreicht werden.
AMD wirbt mit Energieeffizenz und Leistung schneller als eine GTX1080 ... Man muss die Karte nur undervolten um das Ziel zu erreichen.
Freesyncmonitore erreichen die Range nicht ... Modifizieren wir eben mal die Range mittels MOD.

Das Problem, dass ich dabei sehe: Nicht jeder Käufer ist ein Enthusiast der gerne bastelt. Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte. Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören.

Schön das Du deinen Monitor auf diese Range getrimmt hast und Gurdi mittels undervolting und overclocking die Vega 64 nah an die Performance einer GTX1080Ti gebracht hat ... Nur ihr seit eben Bastler und Enthusiasten denen es Spaß macht sich stundenlang damit auseinanderzusetzen. Wahrscheinlich auch weil es euch gestört hat, dass es eben nicht funktioniert.

Aber kann es sich AMD leisten (oder streben sie es an), dass nur ein paar Kunden in der Lage sind das Potential ihrer tollen Hardware auch zu nutzen. Grade wenn man wichtige Marktanteile zurückerobern wills muss man auf die breite Masse der Kunden abziehlen und nicht nur auf den erfahrenen Kunden. Schließlich ist es diese Masse, die einen eine ausreichende Menge Karten abkauft, damit man das Ziel erreicht.

Ich kann es dir nur aus Gamersicht schildern. Ich möchte Produkte die so funktionieren wie sie sollen ohne groß zu basteln. Sie sollen Energieeffizent sein, damit sie einfach und leise zu kühlen sind, denn das permanente Geräusch eines rauschenden Lüfters stört mein Spielerlebnis. Außerdem soll das Sync-Verfahren den Bereich ab 30 Hz abdecken. Wie es letzendlich technisch funktioniert interessiert mich erstmal zweitrangig. Das es funktioniert ohne das ich es merke ist das was ich will und das was ich eben zur Zeit nur bei NVidia bekomme.

Glaub mir anders wäre es mir auch lieber. Eine größere Auswahl schadet nie.
 
Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Wie wäre es damit. Verwende einen nicht 4K Monitor für die Xbox One? Da gibt es genug mit LFC? Es ist ja nicht so als würde die Konsole nur mit 4K Funktionieren. Für Konsolen gilt vermutlich das selbe wie für PCs. 4K ist im Moment ne Randerscheinung.

An einer Vega muss man nicht Basteln. Man kann. Vega 64 + Freesync ist halt billiger bis gensuso teuer im Vergleich mit einer 1080 mit G-Sync. So einfach. Und Vega und eine 1080 sind auf einem Niveau von der Leistung. (Nicht von der Effizienz). Sprich beides ist eine valide Option. Es ist ja nicht so als gäbe es keine LFC-Screens. Und Leute die 4K wollen sind dann in der Regel auch die Bastelbereiten.
 
@Fortune: Gut, deine Argumente sehe ich ja ein. Im Bezug auf Freesync und XBox ist es aber eigentlich kein großer Nachteil, noch ist nichts darauf angepasst.
Wenn die neue Generation an Konsolen von Haus aus Sync unterstützt und die passenden Fernseher nach und nach unters Volk kommen ist das ein deutliches Pfund für die Konsolen, vor allem in Verbindung mit 4K.

Ich hatte es ja bereits angeschnitten, eine dynamische Auflösungsskalierung in Verbindung mit Freesync könnte die Konsolen auf ein ganz neues Level hieven.
Da spielt dann die mindestrate in Hz eigentlich keinen so große Rolle mehr, die Engine würde einfach die Auflösung skalieren um permanent auf dem Fps Niveau zu bleiben, spiele wie Mordor:Shadow of War beherrschen dass bereits.

Der übliche "Konsolen Bob" würde das eh nicht mitkriegen.
 
Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Damit wären wir dann auch hier:

Ja für Verwendung des GSync Moduls in einem Monitor ist es Vorschrift das er LFC unterstützt. Das ist aber längst nicht bei allen Freesync-Monitoren der Fall.

Hier mal ein interessanter Artikel von Computerbase: Eizo FS2735 und Asus PG279Q im Test: FreeSync und G-Sync waren nie besser (Seite 4) - ComputerBase


Super gratuliere. Ist ja nicht so, dass man als normaler Käufer nicht gerne basteln würde und mal eben einen kleinen Treibermod macht. Und das du es von keinem GSync gehört hast, dürfte daran liegen das hier das Modul ähnliche Spielereien verhindern würde und dass es bei GSync Out of the Box funktioniert wie es soll und keine Bsatellösung nötig ist.

Aber als AMD-Käufer muss man eben Basteln, damit die Eigenschaften mit denen AMD groß wirbt auch erreicht werden.
AMD wirbt mit Energieeffizenz und Leistung schneller als eine GTX1080 ... Man muss die Karte nur undervolten um das Ziel zu erreichen.
Freesyncmonitore erreichen die Range nicht ... Modifizieren wir eben mal die Range mittels MOD.

Das Problem, dass ich dabei sehe: Nicht jeder Käufer ist ein Enthusiast der gerne bastelt. Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte. Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören.

Schön das Du deinen Monitor auf diese Range getrimmt hast und Gurdi mittels undervolting und overclocking die Vega 64 nah an die Performance einer GTX1080Ti gebracht hat ... Nur ihr seit eben Bastler und Enthusiasten denen es Spaß macht sich stundenlang damit auseinanderzusetzen. Wahrscheinlich auch weil es euch gestört hat, dass es eben nicht funktioniert.

Aber kann es sich AMD leisten (oder streben sie es an), dass nur ein paar Kunden in der Lage sind das Potential ihrer tollen Hardware auch zu nutzen. Grade wenn man wichtige Marktanteile zurückerobern wills muss man auf die breite Masse der Kunden abziehlen und nicht nur auf den erfahrenen Kunden. Schließlich ist es diese Masse, die einen eine ausreichende Menge Karten abkauft, damit man das Ziel erreicht.

Ich kann es dir nur aus Gamersicht schildern. Ich möchte Produkte die so funktionieren wie sie sollen ohne groß zu basteln. Sie sollen Energieeffizent sein, damit sie einfach und leise zu kühlen sind, denn das permanente Geräusch eines rauschenden Lüfters stört mein Spielerlebnis. Außerdem soll das Sync-Verfahren den Bereich ab 30 Hz abdecken. Wie es letzendlich technisch funktioniert interessiert mich erstmal zweitrangig. Das es funktioniert ohne das ich es merke ist das was ich will und das was ich eben zur Zeit nur bei NVidia bekomme.

Glaub mir anders wäre es mir auch lieber. Eine größere Auswahl schadet nie.

Darf ich mal herzhaft über deine Argumentation lachen ? Was du hier als Kritik anbringst klingt wie der nackte Hohn für das System PC und seinen grossen Möglichkeiten .Einen Treiber modden zu können sehe sicher nicht nur ich generell eher als Vorteil den als Nachteil .Selbst ein Laie würde das in einer halben Stunde hinbekommen wenn er wollte .Für die sehr gute Treibermodanleitung hier mal vielen Dank an die Redaktion von PCGH . Über die konservativen Grundeinstellungen der Hersteller in bezug der Freesyncrange ihrer Produkte kann man sich leider oft nur wundern .
Genauso wie jeder der in irgendeiner Art und Weise mal eine seiner Komponenten OC hat oder dies mal möchte sich darüber wundern muss was du dir da zusammengereimt hast "Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte.Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören." Das sich das schon recht anmaßend ließt geht bestimmt nicht nur mir so . Das OC von CPUs und Grakas ist in deinen Augen grundsätzlich eigentlich sinnfrei und völlig überbewertet .Irgendjemand sollte die Hersteller darüber informieren das sie sich aufgrund deiner Aussage in Zukunft die Mühe OC fähige oder sonstwie modbare Produkte herzustellen sparen können .
 
Zuletzt bearbeitet:
Zurück