Freesync vs. G-Sync: Laut AMD nicht schlechter

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Freesync vs. G-Sync: Laut AMD nicht schlechter

AMD hat sich innerhalb seines FAQs zum Thema VBLANK-Intervalle bei Freesync geäußert. Diese müssten definitiv nicht vom Catalyst-Treiber vorhergesehen werden. Die GPU selbst bestimmt wie auch bei G-Sync direkt die Bildwiederholrate des eingesetzten Freesync-/Adaptive-Sync-Monitors.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Freesync vs. G-Sync: Laut AMD nicht schlechter
 
Falls die beiden Techniken wirklich das gleiche leisten, würde ich bei den neuen Modellen zu FreeSync greifen. Und das trotz GTX970. Entweder die Nvidia zieht nicht mit und ich kann die Technik nicht nutzen oder aber sie knicken ein.
Falls nicht, wird die nächste Karte halt eine AMD...
Der Preis spielt auch eine Rolle.
 
Was sollen sie anderes behaupten? Auch wenn es laut technischer Erklärung seitens diverser Seiten anders ist? Zugeben? Pah, das kommt nicht in Frage. Bisher brauche ich keine von beiden Lösungen und ich hoffe es bleibt dabei. Interessiert mich eh kaum die Bohne... aber ein bißchen schon...
 
Im Hintergrund hatten wir noch mit AMD weiter kommuniziert...
Wieso habt ihr diese Schwachsinnsaussage dann überhaupt in eurem Artikel untergebracht, wenn ein Statement von AMD ausstand? Hätte man das nicht abwarten können? Oder war euch der Flamewar unter dem Artikel gerade recht? :schief:

So fördert man den schlechten Ruf eines Unternehmens. Nicht alle, die den letzten Artikel gelesen haben, lesen auch diesen hier.

Herzlichen Glückwunsch! Nvidias bezahlter "nicht namentlich genannter" (das ist so lächerlich) Entwickler hat sein Ziel erreicht.
 
Was sollen sie anderes behaupten? Auch wenn es laut technischer Erklärung seitens diverser Seiten anders ist? Zugeben? Pah, das kommt nicht in Frage. Bisher brauche ich keine von beiden Lösungen und ich hoffe es bleibt dabei. Interessiert mich eh kaum die Bohne... aber ein bißchen schon...

Naja,
wenn man sie dann mit handfesten Beweisen wiederlegt, dann wird das wesentlich peinlicher als wenn sie es jetzt zugeben.

Wer zockt und sich einen neuen Monitor zulegt sollte darauf achten, da das ganze mehr bringt als die Graka einfach 1-2 Stufen stärker zu wählen und nicht soviel kostet. Solange es allerdings keine Monitore gibt die meinem 21" Röhrenklotz das Wasser reichen können bleibe ich bei dem, auch wenn das wohl wesentlich länger dauern wird als gedacht (hoffentlich hält Nvidia noch ein paar Generationen am analogen Anschluss fest).
 
[...]So fördert man den schlechten Ruf eines Unternehmens. Nicht alle, die den letzten Artikel gelesen haben, lesen auch diesen hier.

Herzlichen Glückwunsch! Nvidias bezahlter "nicht namentlich genannter" (das ist so lächerlich) Entwickler hat sein Ziel erreicht.
Einerseits redest du davon, dass man nicht den schlechten Ruf eines Unternehmens fördern soll. Andererseits behauptest du, dass Nvidia jemanden bezahlt hat, um die vermutlich falsche Aussage zu machen.
Denk mal drüber nach.
 
Da muss dein Strahlemann aber sehr viel können, wenn ihm moderne Monitore nicht das Wasser reichen können.

Klar dass AMD sagt Freesync wäre nicht schlechter, alles andere wäre auch sehr komisch.
Da hilft nur auf einen Test warten.
 
@krhome
word!

Wenn ich an den voran gegangenen, "bild-artigen" Artikel zurück denke, wird mir gleich nochmal schlecht.
Der Grat zwischen gutem und schlechtem Journalismus scheint ein schmaler zu sein.
Wenn ihr nicht aufpasst und in Zukunft noch ein paar solcher Eier raushaut, könnt ihr bald den Titel
"BildGamesHardware" ergattern und das habt ihr doch nicht wirklich notwendig oder?
Oder zahlt euch euer Werbevermakter, der euch mit verbuggter und schlechter Werbung versorgt, nur einen
Notgroschen, dass sich diese Klick-Geilheit entwickelt hat?
 
Großartig, diese Weltverschwörungstheorien. Wir haben uns mehrfach rückversichert, dass das, was der Autor auf der CES erlebt bzw. vom Entwickler gehört hat, auch tatsächlich so passiert ist. Deshalb haben wir den Artikel auch wirklich zwei Tage zurückgehalten. AMD haben wir parallel kontaktiert, dort hat man uns aber nur eine nichtssagende Standardantwort serviert. Da sahen wir keinen Grund, die Aussagen des Autoren infrage zu stellen.

Wir werden das Ganze dann schon austesten. Sehr bald hoffentlich.
 
Da muss dein Strahlemann aber sehr viel können, wenn ihm moderne Monitore nicht das Wasser reichen können.

In sachen Blickwinkelunabhängigkeit gibt es, nachdem die OLEDs vorerst gescheitert sind, auch heute kein Vorbeikommen. Da mir das besonders wichtig ist bleibt mein 8 Jahre alter Röhrenklotz nach wie vor erste Wahl. Daneben habe ich nocht die typischen Röhrenvorteile: kein Inputlag, variable Auflösung, beste Farbqualität, ca. 0ms Reaktionszeit, eine Schwarzphase und einen besseren Kontrast. Da ich nebenbei mit dem Syncmaster 1100MB den wohl besten Lochmaskenmonitor habe läßt sich auch die Auflösung mit 2048x1536@80Hz oder 1600x1200@100Hz ertragen.

Allerdings wäre mir Bilddiagonale durchaus recht, mal ganz davon abgesehen das Lcds auch einen Haufen prinzipielle Vorteile haben.

Großartig, diese Weltverschwörungstheorien. Wir haben uns mehrfach rückversichert, dass das, was der Autor auf der CES erlebt bzw. vom Entwickler gehört hat, auch tatsächlich so passiert ist. Deshalb haben wir den Artikel auch wirklich zwei Tage zurückgehalten. AMD haben wir parallel kontaktiert, dort hat man uns aber nur eine nichtssagende Standardantwort serviert. Da sahen wir keinen Grund, die Aussagen des Autoren infrage zu stellen.

Wir werden das Ganze dann schon austesten. Sehr bald hoffentlich.

Da fehlte irgendwie noch der Vorwurf das ihr von Nvidia bestochen worden seid und es euch jetzt auf euren Yachten in der Karibik oder sonstwo gutgehen laßt.

Ach ja: die Regierung ist auch irgenwie verstrickt und hat nicht die NSA Nvidiakarten für ihre Supercomputer gekauft?

Ich wollte es nur gesagt haben...
 
Braucht es nun für "Freesync" nen neuen Monitor mit Unterstützung und explizit ne AMD GPU, oder geht auch Nvidia und ein Standard Monitor ?
 
wenn ich von seiten AMD schonwieder "Treiberabhängigkeit" höre, hört es bei mir schon auf mit Freesync....
Neoterror, wenn du Probleme hast Meldungen zu lesen und/oder zu verstehen solltest du vielleicht den Artikel nochmal von dritten z.B. deinen Eltern lesen und dir erklären lassen, bevor du etwas postest was nirgends im Artikel steht und sogar verneint wird.

Braucht es nun für "Freesync" nen neuen Monitor mit Unterstützung und explizit ne AMD GPU, oder geht auch Nvidia und ein Standard Monitor ?
Du brauchst natürlich einen Monitor der den neuen VESA Standard unterstützt. Ansonsten auch eine AMD Grafikkarte, da sich Nvidia weigert den VESA Standard zu unterstützen um ihr propritäres G-Sync durchzudrücken, welches einen Monitor mit verbauten GSync Chip benötigt.
 
Zuletzt bearbeitet:
Ich hatte vor kurzem gelesen, das es einige Monitore gibt die "nachträglich" Freesync tauglich gemacht werden könnten.
Mit neuer Firmware oder ähnlichem, hab aber keine Ahnung ob das so stimmt...
 
Zurück