Desktop-GPU-Marktanteile: Radeon erringen kleinen Sieg im Q3/2015

Hat eigentlich irgendeine andere Seite auch nur annähernd das bestätigt, was WCCFTech da gemessen hat?

Das hätte normal schon lange die runde gemacht, falls die fury in BF4 zb. einfach mal 25% schneller ist.
 
also eine Karte die früher 1000 Euro gekostet hat ist jetzt schlechter als eine Karte die früher für rund 600 Euro zu haben war
AMD Radeon R9 290X 8GB CF vs Titan X SLI vs GTX 980 SLI at 4K - TweakTown's Tweakipedia
Kannst du eigentlich auch mal sinnvoll argumentieren?
Natürlich gibts Karten die sind schneller, schließlich kam ja von Nvidia schon hausinterne Konkurrenz in Form einer neuen Architektur.
Du hast mir jetzt immer noch nicht sinnvoll erklären können, weshalb diese Karte plötzlich obsolet sein sollte...
Kannst mir mal endlich ein gutes Argument geben, warum man Nvidia-Karten nach einem Jahr tauschen muss?Die Titan wie auch einige andere ältere Nvidiakarten sind mitnichten nach einem Jahr unbrauchbar. Dafür, dass sie schon ein paar Jahre aufn Buckel hat spielt sichs sicher noch recht angenehm damit
Zumal Nvidia selbst nie einen Hehl draus gemacht hat, dass sie eigentlich nur ein Premiumprodukt haben wollen. Dafür würde auch AMD enorm verlangen, wenn sie denn eins hätten.
Wie man hier entnehmen kann, trat die Titan knapp 1 Jahr nach Präsentation von GCN an und das gegen Karten wie die Radeon 7970 mit 3 GB - und hat diese nicht einfach überholt, sondern geradezu platt gemacht. Schon damals war klar, wer die nächsten Jahre in Führung sein wird was die GPUs betrifft, denn solange AMD nicht mit ner völlig runderneuerten, schnelleren Architektur auftaucht, kann man Kepler nicht einholen.
Nur war es nicht AMD, sondern Nvidia, die nochmal eins draufgesetzt haben. Nannte sich dann eben Maxwell, in Form von Titan X, 980 Ti, 980, 970.

Aber es ist eh egal was ich sage du lügst dir ja sowieso wieder was neues zusammen. Wie war das mit der dollen AMD Karte die so schnell ist wie ne 980 aber so effizient wie ne 970 und weniger kostet... aber eigentlich ist es sogar MEHR...

Hat eigentlich irgendeine andere Seite auch nur annähernd das bestätigt, was WCCFTech da gemessen hat?

Das hätte normal schon lange die runde gemacht, falls die fury in BF4 zb. einfach mal 25% schneller ist.

Weiß er doch hoffentlich selber. Vorallem ist es so schön offensichtlich: in 1-2von 10 Tests ist halt mal seine AMD vorne, dann heißt das für ihn gleich er hat allen bewiesen AMD ist besser insgesamt und überall, wenn sie denn irgendeinen superdollen Treiber noch nachliefern.
Dass es genau umgekehrt ist, und hier offensichtlich ein Treiberbug in diesem einem Spiel bei Nvidia liegt, das ist noch nicht angekommen.
Er sucht halt schon wieder irgendwelche fadenscheinige Begründungen irgendwas schlecht zu reden.
Ich hab bei der durchsicht noch gesehen, dass AMD doch woanders ganz überlegen ist: beim massiven Stromverbrauch ;)
In seiner Stelle würde ich bei den massiven Microlags @1080P bei der Fury anfangen. Jap, schon in FullHD bei manchen Spielen.
Page 2 - Is 4GB of VRAM enough? AMD?s Fury X faces off with Nvidia?s GTX 980 Ti, Titan X | ExtremeTech
 
Zuletzt bearbeitet:
Kannst du eigentlich auch mal sinnvoll argumentieren?
Natürlich gibts Karten die sind schneller, schließlich kam ja von Nvidia schon hausinterne Konkurrenz in Form einer neuen Architektur.
Du hast mir jetzt immer noch nicht sinnvoll erklären können, weshalb diese Karte plötzlich obsolet sein sollte...
Kannst mir mal endlich ein gutes Argument geben, warum man Nvidia-Karten nach einem Jahr tauschen muss?Die Titan wie auch einige andere ältere Nvidiakarten sind mitnichten nach einem Jahr unbrauchbar. Dafür, dass sie schon ein paar Jahre aufn Buckel hat spielt sichs sicher noch recht angenehm damit
Zumal Nvidia selbst nie einen Hehl draus gemacht hat, dass sie eigentlich nur ein Premiumprodukt haben wollen. Dafür würde auch AMD enorm verlangen, wenn sie denn eins hätten.
Wie man hier entnehmen kann, trat die Titan knapp 1 Jahr nach Präsentation von GCN an und das gegen Karten wie die Radeon 7970 mit 3 GB - und hat diese nicht einfach überholt, sondern geradezu platt gemacht. Schon damals war klar, wer die nächsten Jahre in Führung sein wird was die GPUs betrifft, denn solange AMD nicht mit ner völlig runderneuerten, schnelleren Architektur auftaucht, kann man Kepler nicht einholen.
Nur war es nicht AMD, sondern Nvidia, die nochmal eins draufgesetzt haben. Nannte sich dann eben Maxwell, in Form von Titan X, 980 Ti, 980, 970.
also eine neue Karte schlägt eine andere, welch ein Wunder, die 290x und die Titan / Titan X sind beides Karten die ungefähr gleich alt sind, für 2 GByte mehr hat man dann ~400 Euro mehr gezahlt, bei welcher Firma bekommt man mehr fürs Geld , tauschen wäre vielleicht falsch aber Maxwell ist jetzt was nächstes Jahr 2 Jahre alt und dafür gab es schon Karten auf ähnlichen Leistungsniveau, Nvidia hat doch nur das Stromargument gebracht um sich besser zu verkaufen können weil es so wichtig ist aber Sinnhaftigkeit hat keiner Hinterfragt ob man sich eine neue Karte kaufen muss

in dem Chart
Review: AMD Radeon R9 290X vs. Nvidia GeForce GTX Titan at 4K - Graphics - HEXUS.net
, sind beide Karte Kopf an Kopf, warum also soviel ausgeben ? die Leute pecken halt gerne herum AMD so schlecht bla bla, wäre die Karten so schlecht dann würde ein Karte die definitv billiger ist , sich nicht ein Kopf an Kopf rennen leisten

Aber es ist eh egal was ich sage du lügst dir ja sowieso wieder was neues zusammen. Wie war das mit der dollen AMD Karte die so schnell ist wie ne 980 aber so effizient wie ne 970 und weniger kostet... aber eigentlich ist es sogar MEHR...


Weiß er doch hoffentlich selber. Vorallem ist es so schön offensichtlich: in 1-2von 10 Tests ist halt mal seine AMD vorne, dann heißt das für ihn gleich er hat allen bewiesen AMD ist besser insgesamt und überall, wenn sie denn irgendeinen superdollen Treiber noch nachliefern.
Dass es genau umgekehrt ist, und hier offensichtlich ein Treiberbug in diesem einem Spiel bei Nvidia liegt, das ist noch nicht angekommen.
Er sucht halt schon wieder irgendwelche fadenscheinige Begründungen irgendwas schlecht zu reden.
Ich hab bei der durchsicht noch gesehen, dass AMD doch woanders ganz überlegen ist: beim massiven Stromverbrauch ;)
In seiner Stelle würde ich bei den massiven Microlags @1080P bei der Fury anfangen. Jap, schon in FullHD bei manchen Spielen.
Page 2 - Is 4GB of VRAM enough? AMD?s Fury X faces off with Nvidia?s GTX 980 Ti, Titan X | ExtremeTech

Einen Treiberbug, schon wieder ? hatte wir das nicht schon mal ? AMD Treiber so schlecht und Nvidia kann es als ausrede benutze so heimlich mal um die Ecke, es gibt einen Bug und deswegen laufen die Karten so langsame das ist halt dann in Ordnung
 
dein Frage wurde bereits beantwortet, Mantle ist Vulkan und Vulkan wird von der Khronos Group vertrieben, nur weil es noch nicht fertigstellt ist bedeutet das jetzt es ist nicht open Source, du verdrehst mal gerne wieder die Tatsachen, nach dem ich gezeigt hab das Mantle defacto Vulkan ist zeig deinen Link wo es nicht open source sein soll
Erstmal ist Mantle nicht Vulkan. Punkt 1. Ja, Teile von Mantle sind in Teilen in Vulkan aufgegangen. Aber Vulkan = Mantle ist schon mal Blödsinn.

Und weil es Mantle niemals frei gab, ist es schlicht nie frei gewesen. Ja, AMD hat viel herum gelogen, wie frei es doch ist, wie es bald das SDK gibt blablabla. Faktisch gezeigt und geliefert hat AMD gar nix. Das ist die harte Realität.

der Mehrwert schrumpft und schrumpft, die Frequenzen wo Free Sync funktioniert werden immer niedriger
Das ist schön. Meldet euch doch mit eurem "FreeSync ist genauso wie G-Sync!!" Geschrei bitte erst dann, wenn FreeSync auf dem Niveau von G-Sync ist. Danke.

Die Dinge sind sind in Wahrheit viel komplexer.
Auf der einen Seite wird AMD mangelnde Konkurrenzfähigkeit vorgeworfen und auf der anderen Seite können sie nicht wirtschaften.
Wie soll man mit einem geringen Marktanteil und daher wenig Einnahmen auch sinnvoll wirtschaften? Ich würde mal behaupten es ist ziemlich schwer und komplex das alles unter eine Hut zu bringen.
Das was mich stört ist, dass es hier von dir immer nur ganze einfache und pauschale Antworten zu schwierigen Fragen gibt, obwohl in Wirklichkeit viel mehr dahinter steckt.
Was ist denn so komplex? AMD hatte mal 30%+ Marktanteil und hat diesen verspielt. Ganz einfach. Warum? Schau dir doch die aktuelle Marktsituation an. Entweder man bekommt veralteten Müll oder man bezahlt sich dumm und dusselig für die Karten. Ist doch ganz einfach. Die Konkurrenz ist eben vorbei gezogen.

Das Problem ist dass du meine Aussage bewusst falsch verstehst. Einfach verstehen und gut ist.;)
Ich habs schon sehr gut verstanden, "frei" passt im Bezug auf Mantle eben einfach nicht.

Project Cars war ein Fall wo bei AMD ganz offensichtlich etwas ineffizient lief, vermutlich hatte es mit den Drawcalls zu tun, das wurde verbessert, aber nicht behoben.
Das ist jetzt ein einziges Beispiel von etwa einer handvoll.
Das Problem ist dass du dazu neigst, diese Dinge zu pauschalisieren und zu übersteigern.
Nebenbei ist das "Problem" in Project Cars lange nicht mehr so massiv wie zu Release, ich hab das Spiel selbst und bin recht zufrieden mit der AMD Leistung unter 4K, in Full HD könnte es aber gern 20 bis 30% schneller laufen.
Das ist schlicht Unfug, es gibt mehr als genug Spiele, bei denen AMD massive Probleme hat, sobald man nicht gerade mit einer völlig überzüchteten DesktopCPU bencht. Da hat AMD ja im Grunde nur Glück, dass inzwischen fast jeder mit fetten CPUs bencht, sonst hätten sie noch viel öfter das Problem.

Warum du nicht im Stande bist so einen klaren AMD-Nachteil zu akzeptieren und lieber rumdiskutierst, weiß ich nicht. Die Sache ist nun wirklich eindeutig.

Man muss ja nicht rumfrickeln, wenn man sich ein gescheites Gerät auswählt.;)
Die 48 bis 75 Hertz Monitore kommen ohne manuelle Anpassung nicht an die G-sync Gerät heran, das sollte ja klar sein.
Stimmt, man muss auch rumfrickeln, wenn man sich einfach G-Sync kauft. Sagte ich ja :daumen:

Es geht nicht um die Frage wer etwas richtig oder etwas falsch gemacht hat, sondern darum zu zeigen dass die richtigen Freesyncgeräte mittleweile gleichwertig zu den Nvidia Pendants sind und weniger kosten.
Das war die Diskussion mit Pumpi.
Wo gibt es denn ein zum PG279Q - ach so, stimmt, wo G-Sync völlig problemlos 0-144Hz fahren kann, schafft FreeSync nur 35-90. Aber eigentlich völlig gleichwertig diese FreeSync!1111elf :lol:

Wo ist der Themenbezug? Wer ist euch? Es ging darum aufzuzeigen dass Freesyncmonitore mittlerweile die gleichen Specs liefern können.
Können sie ja nicht, siehe oben.

Warum du das so schwer akzeptieren kannst und lieber versuchst das Thema ins Lächerliche zu ziehen und mit Vorwürfen kommst, die mit der Diskussion nichts zu tun haben, naja ok. *Schulterzuck*
Du hast die Frage die ich dir gestellt hast, nicht mal angeschnitten, sondern bist ausgewichen und antwortest mit Gegenfragen.
Ach süß. Mit der Diskussion komplett baden gegangen - schon fängt Schaffe an persönlich zu werden. Putzig :lol:

G-sync ist im Endeffekt das gleiche wie Adaptive Sync, nur proprietär und von Nvidia vorangetrieben.
Nein, ist es nicht, das haben wir geklärt. Siehe auch Beispiel oben. Und ich halte 0-144Hz Sync Range für ein ganz anderes Kaliber als 35-90, oder würdest du da widersprechen wollen?

Dass es so ein heißes Thema ist, wie man sein FreeSync-Gerät verfrickelt zeigt doch schon, dass da offensichtlich einiges im Argen liegt und G-Sync die bessere, weil rundere Technologie ist.

Apropos Funktionlevel, was unterscheidet Adaptive Sync und G-sync noch großartig wenn AMD jetzt auch mit Framedoubling nachgezogen ist? Kannst du mir das bitte mal erklären?
Echt? Das hast du immer noch nicht verstanden? Lies es doch nochmal nach. Hatte ich im letzten Posting ausführlich erklärt, sogar für ganz Dumme.
 
Erstmal ist Mantle nicht Vulkan. Punkt 1. Ja, Teile von Mantle sind in Teilen in Vulkan aufgegangen. Aber Vulkan = Mantle ist schon mal Blödsinn.

Und weil es Mantle niemals frei gab, ist es schlicht nie frei gewesen. Ja, AMD hat viel herum gelogen, wie frei es doch ist, wie es bald das SDK gibt blablabla. Faktisch gezeigt und geliefert hat AMD gar nix. Das ist die harte Realität.

Das ist schön. Meldet euch doch mit eurem "FreeSync ist genauso wie G-Sync!!" Geschrei bitte erst dann, wenn FreeSync auf dem Niveau von G-Sync ist. Danke.

.

Vulkan ist im Kern noch immer Mantle, Vulkan wird von der Khronus Groupe bearbeitet und die sind dafür bekannt, dass die an offenen Standards entwickeln, wegen Mantle kann man hier vieles erzählen, Fakt ist AMD hat es sich nicht unfreiwillig hergegeben was nicht bedeutet sie hätte es doch nicht getan ,

bei Freesync es ist halt einfacher irgendwo was einzubauen und es dann als den heiligen Gral zu verkaufen, wären alle Hersteller im Bot wäre es einfach Freesync weiter zu entwickeln umso keine bis kaum mehr Nachteile gegenüber G-Sync zu haben, ok Free-Sync kostet nichts aber ist nunmal einfacher ein Gerät irgendwo einzubauen um dann zu sagen es ist qualitativ
 
Vulkan ist im Kern noch immer Mantle, Vulkan wird von der Khronus Groupe bearbeitet und die sind dafür bekannt, dass die an offenen Standards entwickeln, wegen Mantle kann man hier vieles erzählen, Fakt ist AMD hat es sich nicht unfreiwillig hergegeben was nicht bedeutet sie hätte es doch nicht getan ,
Man kann noch so oft auf Vulkan zeigen, dass Mantle nie frei gewesen ist, nicht frei ist und nie frei sein wird, ändert das nichts. Und ja, da hat AMD uns alle, auch dich, heftig belogen. Es hieß immer, es wird frei sein, es gibt bald ein SDK, noch Ende 2014 hieß es, dass es im selben Jahr noch ein SDK geben wird. Gekommen ist: Nichts.

bei Freesync es ist halt einfacher irgendwo was einzubauen und es dann als den heiligen Gral zu verkaufen, wären alle Hersteller im Bot wäre es einfach Freesync weiter zu entwickeln umso keine bis kaum mehr Nachteile gegenüber G-Sync zu haben, ok Free-Sync kostet nichts aber ist nunmal einfacher ein Gerät irgendwo einzubauen um dann zu sagen es ist qualitativ
Tja, offensichtlich ist es eben nicht so einfach eine Funktion wie G-Sync einzubauen, sonst hätte AMD nicht zwei Jahre nach G-Sync immer noch keinen äquivalenten Ersatz.
 
Das ist schön. Meldet euch doch mit eurem "FreeSync ist genauso wie G-Sync!!" Geschrei bitte erst dann, wenn FreeSync auf dem Niveau von G-Sync ist. Danke.

Deswegen hatte ich auf den Beirag von Pumpi geantwortet.
Nimm ein Nixeus Gerät oder ein Asus Adaptive Sync Gerät mit einer Range von 30 bis 144 oder von 35 bis 144 Hertz oder mit 40 bi 144 Hertz mit IPS oder PLS oder TN Panel, dann hast du ein gleichwertiges Angebot.
Der Test per PcPer dazu ist auch ganz nett.

Geschriehen hat im übrigen niemand, wie du dem Post von mir zu Pumpis Aussage entnehmen kannst.
Darin habe ich die nötigen Informationen zu AMD´s Framedoubling und den Geräten die einen vergleichbaren Range anbieten verlinkt, inkl. Test.
Einfach lesen wenn du es übersehen hast.

Was ist denn so komplex?

Am Markt zu bestehen. Da gehören halt mehr Facetten dazu als einfach nicht wirtschaften zu können, wenn du dich an die Aussage die ich zitiert hab noch erinnerst.

Die Konkurrenz ist eben vorbei gezogen.

Natürlich ist die Konkurrenz in Punkto Marktanteil vorbeigezogen, das bestreitet niemand. Lies am besten nochmal den Zusammenhang auf den ich eingegangen bin, dann verstehst du auch meine Antwort bezüglich des "Wirtschaftens".

Das ist schlicht Unfug, es gibt mehr als genug Spiele, bei denen AMD massive Probleme hat, sobald man nicht gerade mit einer völlig überzüchteten DesktopCPU bencht. Da hat AMD ja im Grunde nur Glück, dass inzwischen fast jeder mit fetten CPUs bencht, sonst hätten sie noch viel öfter das Problem.

Könntest du mir bitte diese Spiele zeigen wo das relevant bremst? Beispielsweise bei einem 2500k in Verbindung mit einer Fury?
Ich kenne dort den Computerbasetest einer Fury mit einem alten non OC 2500k. Dort macht es in Full HD über 10 Games 8% aus.
Bei einer r9 390 2%.

Spontan fallen mit Project Cars und Rust ein, sowie Assassins Creed Black Flag, das wurde da aber schon behoben.
PCGH hatte viele Tests gemacht und es auch immer dazugeschrieben. Ich denke das war 6 bis 7 mal der Fall, dass dort etwas relevant gebremst hat.

Dass AMD das beheben soll steht außer Frage, ich sehe aber diese Problematik nicht massiv auftreten, eher ab und zu und im Mittel eher belanglos, solange man jetzt nicht mit einem i3 oder FX4300 rumgurkt.

Warum du nicht im Stande bist so einen klaren AMD-Nachteil zu akzeptieren und lieber rumdiskutierst, weiß ich nicht. Die Sache ist nun wirklich eindeutig.

Weil ich das nicht als "klaren AMD Nachteil" sehe, genausowenig wie ich Async Shader nicht als "klaren AMD Vorteil " sehe.
Ich halte mich an die Reviews, dort sieht man gut dass es im Mittel erwähnenswert aber eher unbedeutend ist, gegenteiliges kannst du gerne hier mit Quellen belegen.
Akzpetieren tu ich das schon, denn ich kenne die Tests und einzele Spiele wo das mal relevant auftritt besser als du, weil ich viel dazu lese.

Stimmt, man muss auch rumfrickeln, wenn man sich einfach G-Sync kauft. Sagte ich ja :daumen:

Was hast du denn gegen Adaptive Sync? Findest du es schlecht weil es eine offene Lösung ist und nicht von Nvidia ist?
Du hast den Zusammenhang meines Posts schon verstanden gehabt.:(

Wo gibt es denn ein zum PG279Q - ach so, stimmt, wo G-Sync völlig problemlos 0-144Hz fahren kann, schafft FreeSync nur 35-90. Aber eigentlich völlig gleichwertig diese FreeSync!1111elf :lol:

Ich habe doch schon ein Gerät verlinkt was diese Werte erreicht, falls du es wieder vergessen hast.;)
Und zudem habe ich nirgends gesagt Freesync sei allgemein gleichwertig, weil das von den Monitoren abhängt die die Hersteller liefern.
Aber es wird insgesamt besser und es gibt bereits mehrere Geräte die da mithalten oder die gleichen Specs liefern.

Können sie ja nicht, siehe oben.

Du hast mich schon verstanden.:rollen:

Nein, ist es nicht, das haben wir geklärt. Siehe auch Beispiel oben. Und ich halte 0-144Hz Sync Range für ein ganz anderes Kaliber als 35-90, oder würdest du da widersprechen wollen?

Wieso vergleichst du denn diesen Monitor? Es gibt von Asus ein Freesyncgerät mit 35 bis 144 Hertz, sowie ein Nixeus Gerät mit 30 bis 144 Hertz.
Mit ein bisschen Recherche kann man das finden, ich habs auch verlinkt.
Also bitte den Test von PcPer lesen und dann weiterdiskutieren.
Uninformiert macht es wenig Spaß mit dir zu diskutieren.

Ach süß. Mit der Diskussion komplett baden gegangen :lol:

Weil du dich nicht an das Thema hältst.;)

Echt? Das hast du immer noch nicht verstanden? Lies es doch nochmal nach. Hatte ich im letzten Posting ausführlich erklärt, sogar für ganz Dumme.

Du hast nichts erklärt. Du hast die Informationen die ich in diesen Thread eingebracht habe ignoriert und hast dir ein Freesyncgerät als Vergleichbasis genommen das deutlich schlechtere Unterstützungsraten bietet.
Nimm den Nixeus, dort kannst dann die geforderten Argumente für G-sync vorbringen, auf die ich warte.:)

Ums dir ganz einfach zu machen:

Hier eine Liste der bereits vorhandenen Freesyncmonitore mit Angabe des Unterstützungsrahmens. Mit Framedoubling kann man jetzt auch unter diese Bereiche gehen, so sollten sich also auch bei den Monitoren die erst bei 40 Hertz anfangen deutliche Verbesserungen einstellen.

[Sammelthread] FreeSync Monitore
 
Zuletzt bearbeitet:
Deswegen hatte ich auf den Beirag von Pumpi geantwortet.
Nimm ein Nixeus Gerät oder ein Asus Adaptive Sync Gerät mit einer Range von 30 bis 144 oder von 35 bis 144 Hertz mit IPS oder PLS Panel, dann hast du ein gleichwertiges Angebot.
Der Test per PcPer dazu ist auch ganz nett.
Schick mir doch mal kurz den Link für einen Shop, der den Nixeus lieferbar hat. Und eine AsusGerät mit 30-144 Hz ist mir nicht bekannt, Link?

Geschriehen hat im übrigen niemand, wie du dem Post von mir zu Pumpis Aussage entnehmen kannst.
Darin habe ich die nötigen Informationen zu AMD´s Framedoubling und den Geräten die einen vergleichbaren Range anbieten verlinkt, inkl. Test.
Einfach lesen wenn du es übersehen hast.
Dein Punkt, dass du über die Fallen von AMDs Framedoubling (u.A. dass 99% der bisher verkauften Monitore das Feature gar nicht nutzen können) gar nichts geschrieben hast. Typisches Bias eben. Statt einzugestehen, dass G-Sync immer noch überlegen ist.

Am Markt zu bestehen. Da gehören halt mehr Facetten dazu als einfach nicht wirtschaften zu können, wenn du dich an die Aussage die ich zitiert hab noch erinnerst.
Eigentlich ist das gar nicht so komplex. Klar, man kann sich (wie AMD) über Jahre immer selbst ins Knie schießen, klar, dann ist es schwer.

Natürlich ist die Konkurrenz in Punkto Marktanteil vorbeigezogen, das bestreitet niemand. Lies am besten nochmal den Zusammenhang auf den ich eingegangen bin, dann verstehst du auch meine Antwort bezüglich des "Wirtschaftens".
Die Konkurrenz ist auch technisch an AMD vorbeigezogen, siehe FreeSync. Zwei Jahre hinkt FreeSync hinterher und hat es nicht mal geschafft den Rückstand aufzuholen. Wir warten immer noch...

Könntest du mir bitte diese Spiele zeigen wo das relevant bremst? Beispielsweise bei einem 2500k in Verbindung mit einer Fury?
Ich kenne dort den Computerbasetest einer Fury mit einem alten non OC 2500k. Dort macht es in Full HD über 10 Games 8% aus.
Bei einer r9 390 2%.
Na Project Cars zum Beispiel. Link hatte ich ja geliefert, lies es halt nach. Wenn du mit Englisch ein Problem hast, gibt ja Google Translate.

Dass AMD das beheben soll steht außer Frage, ich sehe aber diese Problematik nicht massiv auftreten, eher ab und zu und im Mittel eher belanglos, solange man jetzt nicht mit einem i3 oder FX4300 rumgurkt.
Wie "belanglos" es ist, hat man am Flame rund um Project Cars gesehen. AMD hat eben nur Glück, dass es viele aktive Forentrolle gibt, die AMD bis aufs Blut verteidigen und sie lieber den Entwickler ans Bein gepisst haben, statt AMD, die tatsächlich verantwortlich sind.

Weil ich das nicht als "klaren AMD Nachteil" sehe, genausowenig wie ich Async Shader nicht als "klaren AMD Vorteil " sehe.
Ich halte mich an die Reviews, dort sieht man gut dass es im Mittel erwähnenswert aber eher unbedeutend ist, gegenteiliges kannst du gerne hier mit Quellen belegen.
Akzpetieren tu ich das schon, denn ich kenne die Tests und einzele Spiele wo das mal relevant auftritt besser als du, weil ich viel dazu lese.
Ob unbedeutend, das entscheidest wohl kaum du, Kollege. Weiter oben wurde (du solltest offensichtlich mehr lesen!) ja der Test von EarlyAccess-Games genannt ,bei der AMD miserabel abgeschnitten hat. Wer auf sowas steht, sowas öfter zockt, für den wird aus diesem deiner Meinung nach "unbedeutend[en]" Punkt plötzlich ein extrem wichtiger. Du bist nicht der Nabel der Welt und ja, es ist ein klarer AMD-Nachteil. Punkt.

Was hast du denn gegen Adaptive Sync? Findest du es schlecht weil es eine offene Lösung ist und nicht von Nvidia ist?
Du hast den Zusammenhang meines Posts schon verstanden gehabt.:(
Ich habe nichts gegen AdaptiveSync. Ich habe etwas gegen Leute, die fern der Realität behaupten, dass diese Technologie gleichwertig zu G-Sync ist. Weil das ist sie nicht.

Ich habe doch schon ein Gerät verlinkt was diese Werte erreicht, falls du es wieder vergessen hast.;)
Und zudem habe ich nirgends gesagt Freesync sei allgemein gleichwertig, weil das von den Monitoren abhängt die die Hersteller liefern.
Aber es wird insgesamt besser und es gibt bereits mehrere Geräte die da mithalten oder die gleichen Specs liefern.
Geil, ein Gerät, das nicht lieferbar ist, nirgends. Großartig. Was bringt mir das jetzt konkret?

Du hast mich schon verstanden.:rollen:
Ich habe ein Beispiel für einen tatsächlich KAUFBAREN Monitor genannt. Und da sieht es sehr mau aus.

IWieso vergleichst du denn diesen Monitor? Es gibt von Asus ein Freesyncgerät mit 35 bis 144 Hertz, sowie ein Nixeus Gerät mit 30 bis 144 Hertz.
Mit ein bisschen Recherche kann man das finden, ich habs auch verlinkt.
Also bitte den Test von PcPer lesen und dann weiterdiskutieren.
Uninformiert macht es wenig Spaß mit dir zu diskutieren.
Ja, so uninformiert wie du bist. Hier ein kurzer Funfact zum Asus FreeSync Gerät:

"The only potential obstacle is the MG279Q's 90Hz upper limit. It you're already set to a higher refresh rate, the checkbox will not appear. And if you change the refresh rate after enabling FreeSync, the monitor will remind you that it's disabled above 90Hz."

Gleichwertig my ass. Informiere dich bitte mal lieber!

Weil du dich nicht an das Thema hältst.;)
Was ist denn das Thema? FreeSync wäre angeblich gleichwertig. Ist es das? Nö.

Du hast nichts erklärt. Du hast die Informationen die ich in diesen Thread eingebracht habe ignoriert und hast dir ein Freesyncgerät als Vergleichbasis genommen das deutlich schlechtere Unterstützungsraten bietet.
Nimm den Nixeus, dort kannst dann die geforderten Argumente für G-sync vorbringen, auf die ich warte.:)
Nochmal: Warum sollte ich ein hier zulande seit Monaten kaufbares Gerät mit einem überhaupt nicht erhältlichen vergleichen? Wie bescheuert ist das bitte schön?

Boah bist du verzweifelt AMD am schön reden. Das ist echt unfassbar.
 
Schick mir doch mal kurz den Link für einen Shop, der den Nixeus lieferbar hat. Und eine AsusGerät mit 30-144 Hz ist mir nicht bekannt, Link?

Ich habe dir jetzt eine komplette Liste der Freesyncgeräte geliefert, die ein freundlicher User im HWL Forum zuammengefasst hat, ich denke das sollte ausreichen. Von einem 30 bis 144 Hertz ASUS Monitor habe ich kein Wort gesagt.

Dein Punkt, dass du über die Fallen von AMDs Framedoubling (u.A. dass 99% der bisher verkauften Monitore das Feature gar nicht nutzen können) gar nichts geschrieben hast.

Wenn ein Gerät nur 40 bis 60 Hertz unterstützt, dann ist das für mich kein ordentliches Adaptive Sync Gerät, eher was ist der AOC der 30 bis 160 Hertz supportet, der Nixeus, oder die Asus Modelle mit 35 bis 144 oder 40 bis 144 Hertz, letzteren meinte ich.
Die Verdopplungsrate liegt bei 2,0 , daher profitieren nur die Monitore die auch einen ordentlichen Unterstützungsrahmen nach oben hin bieten. Die Monitore die einen kleinen Rahmen bieten sind schlecht.
Ich denke nicht dass das in irgendeiner Weise bestritten wurde. Jeder Monitor der 30 bis 60 Hertz oder 40 bis 144 Hertz oder manuell eingestellt 32 bis 75 Hertz bietet ( von den schlechteren 48 bis 75 Hertz Monitoren bekommt das Framedoubingfeature aktiv.

Eigentlich ist das gar nicht so komplex. Klar, man kann sich (wie AMD) über Jahre immer selbst ins Knie schießen, klar, dann ist es schwer.

Du bist von dem Thema das ich zitiert habe, inhaltlich entfernt.

Die Konkurrenz ist auch technisch an AMD vorbeigezogen, siehe FreeSync. Zwei Jahre hinkt FreeSync hinterher und hat es nicht mal geschafft den Rückstand aufzuholen. Wir warten immer noch...

Genau das Gegenteil ist bei den guten Adaptive Sync Moitoren der Fall und deswegen habe ich auch auf Pumpis Beitrag geantwortet, ich denke du wirst so frei sein und mir das erlauben, das ich auch mal ein paar Informationen die der Reputation von G-sync eher schaden hier unterbringen darf.

Na Project Cars zum Beispiel. Link hatte ich ja geliefert, lies es halt nach. Wenn du mit Englisch ein Problem hast, gibt ja Google Translate.

Ich hatte nach Beispielen gefragt, weil deine Formulierung impliziert es sei generell so und "massiv". Dass du diese Beispiele nicht lieferst, bestätig mich in meiner Ansicht, dass es erwähnenswert für den jeweiligen Titel ist, aber im Mittel unbedeutend.

Wie "belanglos" es ist, hat man am Flame rund um Project Cars gesehen.

Ja, ich sage ja das es hin und wieder erwähnenswert ist.
Bestimmt kennst du auch des Overheadproblem der Nvidiakarten bei Black Ops III, wenn du so gut informiert bist, aber mich nicht an deinem Wissen teilhaben lassen willst.

Ob unbedeutend, das entscheidest wohl kaum du, Kollege. Weiter oben wurde (du solltest offensichtlich mehr lesen!) ja der Test von EarlyAccess-Games genannt ,bei der AMD miserabel abgeschnitten hat. Wer auf sowas steht, sowas öfter zockt, für den wird aus diesem deiner Meinung nach "unbedeutend[en]" Punkt plötzlich ein extrem wichtiger.

Early Access hat jetzt was mit dem Overheadtthema zu tun? Early Acess Titel laufen, soviel ich mich informieren konnte tendenziell auf Nvidiakarten besser ja, auch wenn die Sache nicht ganz eindeutig ist, aber hier gebe ich dir recht, was aber nichts mit dem Overheadthema zu tun hat, wo ich dir nicht recht gebe.
Ich entscheide nicht, ob etwas unbedeutend ist oder nicht, sondern ich stütze mich auf den Computerbasetest mit einem alten 2500k, der langsam genug ist um das was dort gemessen wurde zu qualifizieren.

Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich (Seite 4) - ComputerBase

Ich habe nichts gegen AdaptiveSync. Ich habe etwas gegen Leute, die fern der Realität behaupten, dass diese Technologie gleichwertig zu G-Sync ist. Weil das ist sie nicht.

Das habe ich im übrigen nie getan, weil ich mittlerweile schon 4 oder fünfmal gesagt habe, damit es auch wirklich der letzte Kritiker versteht, dass ich damit nur die guten Adaptive Sync Monitore meine und nicht die witzlosen mit Ranges die so breit sind wie ein blatt Papier.
Das konntest du aber schon in meinem ersten Beitrag lesen, insofern fordere ich dich auf diesen vielleicht nochmal zu lesen.

Ja, so uninformiert wie du bist. Hier ein kurzer Funfact zum Asus FreeSync Gerät:

Ich habe nicht von diesem Monitor geredet, sondern einen anderen ins Feld geführt. Von dem Monitor sprichst ausschließlich du und hast ihn mit in die Diskussion gebracht.:)

ASUS MG278Q, 27" (90LM01S0-B01170) Preisvergleich | Geizhals Österreich

Gleichwertig my ass. Informiere dich bitte mal lieber!

Ich habe zu diesem Monitor nirgends von einer Gleichwertigkeit gesprochen, das kann man schon in Beitrag nummer eins lesen.
Eher gleichwertig ist das Gerät mit 40 bis 144 Hertz oder der Nixeus mit 30 bis 144 Hertz, oder der AOC mit 30 bis 160 Hertz.

Nochmal zur Erinnerung:

Pumpi schrieb:
Framedoubeling ist unwichtig ? Wäre mir alles neu....Ps: Welche Monitore können denn 30-144hz durchgängig Freesyncen ? Mit ein paar manuellen Treiberanpassungen können das sogar die 48 bis 75 Hertz Monitore von LG. ( ab 32 Hertz)
Infos dazu im 3D Center Freessyncthread.

Review:

Nixeus Vue 24-in 1080P 144Hz TN 30-144Hz FreeSync Monitor Review | PC Perspective

Das war der Beitrag Nummer 109 und folgende, einfach nachlesen und bitte aufhören mir falsche Aussagen zu unterstellen, das ist nicht ok.

Nochmal: Warum sollte ich ein hier zulande seit Monaten kaufbares Gerät mit einem überhaupt nicht erhältlichen vergleichen? Wie bescheuert ist das bitte schön?

Ich habe in meinem ganzen Beiträgen nicht ein Wort über die Lieferbarkeit von Monitor X oder Q gesagt.
Aber hier mal die in Deutschland lieferbaren "guten" Adaptive Sync Monitore ( ja, die gleichwertig mit G-sync sind), damit du auch bestellen kannst, falls es deine offensichtliche Abneigung gegen AMD Initiativen nicht von vorneherein verbittet.

Nummer 1:
AOC G2770PF, 27" Preisvergleich | Geizhals ÖsterreichNummer 2:

AOC G2460PF, 24" Preisvergleich | Geizhals Österreich

Nummer3:

http://geizhals.at/acer-xr341ckbmijpphz-um-cx1ee-001-a1223885.html

Nummer 4:

http://geizhals.at/benq-xl2730z-9h-ldclb-qbe-a1223748.html

Wenn du dich zu weiteren Monitoren und wann diese auch hier in D verfügbar sind informieren willst, dann schau in diesen Thread:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549697&page=238

Die guten Freesyncmonitore sind gleichwertige Alternativen zu Nvidias Lösungen, das sollte doch auch die G-sync Nutzer freuen, vielleicht fallen so die Preise?:)
 
Zuletzt bearbeitet:
Ich habe dir jetzt eine komplette Liste der Freesyncgeräte geliefert, die ein freundlicher User im HWL Forum zuammengefasst hat, ich denke das sollte ausreichen.
Ja und ein zu einem G-Sync Modell gleichwertiges, habe ich nicht gefunden. Blöd aber auch.

Von einem 30 bis 144 Hertz ASUS Monitor habe ich kein Wort gesagt.
oder ein Asus Adaptive Sync Gerät mit einer Range von 30 bis 144
Ich lass das mal so stehen....

Wenn ein Gerät nur 40 bis 60 Hertz unterstützt, dann ist das für mich kein ordentliches Adaptive Sync Gerät, eher was ist der AOC der 30 bis 160 Hertz supportet, der Nixeus, oder die Asus Modelle mit 35 bis 144 oder 40 bis 144 Hertz, letzteren meinte ich.
Trotzdem gibt es diese Gerät und lange Zeit (also ca. ein Jahr nach Einführung von G-Sync) gab es nur so Geraffel. Da stößt AMD seinen Early Adaptors mal richtig heftig vor den Kopf, während die Käufer selbst der ersten G-Sync Monitore, immer noch sehr gut damit leben können.

Die Rate beträgt 2,5 Prozent, daher profitieren nur die Monitore die auch einen ordentlichen Unterstützungsrahmen nach oben hin bieten. Die Monitore die einen kleinen Rahmen bieten sind schlecht.
Ich denke nicht dass das in irgendeiner Weise bestritten wurde.
2,5fach meinst du wohl, Herr Vielleser. Dass eben nur ein sehr kleiner Bruchteil der FreeSync-Monitor ÜBERHAUPT Framedouebling beherrschen, während es ALLE G-Sync Monitore können, spricht für sich.

Faktisch kann kein UHD-FreeSync Gerät Framedoubling. G-Sync? Alle.

Du bist von dem Thema das ich zitiert habe, inhaltlich entfernt.
Nein, überhaupt nicht. Das Versagen von AMD ist nämlich gar nicht so komplex. Das Problem ist für viele eher, ihre Traumwelt mit der jetzt immer ernüchtern werdenden Realität in Einklang zu bringen.

Genau das Gegenteil ist bei den guten Adaptive Sync Moitoren der Fall und deswegen habe ich auch auf Pumpis Beitrag geantwortet,
Dann bitte, ein FreeSync Gerät mit:

- 27"
- 3840x2160
- 60 Hz
- IPS
- Frame-Doubling

oder auch gern

- 27"
- 2560x1440
- 165 Hz
- IPS
- Frame-Doubling

Von einem so viel belesenen, lasse ich mir doch gern FreeSync-Alternativen aufzeigen ;)

ich denke du wirst so frei sein und mir das erlauben, das ich auch mal ein paar Informationen die der Reputation von G-sync eher schaden hier unterbringen darf.
Welche Informationen sollen G-Sync genau schaden? Ich denke eher, dass du belegst, wie gut G-Sync schon 2013 war. Mal sehen ob FreeSync 2016 es schafft immerhin aufzuholen :lol:
 
flankendiskriminator schrieb:
Ja und ein zu einem G-Sync Modell gleichwertiges, habe ich nicht gefunden. Blöd aber auch.

Deswegen war ich ja so frei und hab die guten Monitore zusammengefasst, die ja jetzt dank Framedoubling auch unter 30 Hertz syncen können.
Also kannst du dir da ja einen aussuchen.

Ich lass das mal so stehen....

Zitiere bitte den ganzen Satz, dann siehst du dass es eine Aufzählung der Ranges war, die ohne Framedoubling angeboten werden.:)

"Nimm ein Nixeus Gerät oder ein Asus Adaptive Sync Gerät mit einer Range von 30 bis 144 oder von 35 bis 144 Hertz oder mit 40 bi 144 Hertz mit IPS oder PLS oder TN Panel, dann hast du ein gleichwertiges Angebot."

Trotzdem gibt es diese Gerät und lange Zeit (also ca. ein Jahr nach Einführung von G-Sync)

Dass AMD später kam bestreitet keiner, habe ich auch nicht bestritten, und ich glaube du stimmst mir zu wenn ich sage, dass das nicht das Thema war.;)
Allerdings gibt es schon wesentlich länger gute Freesyncmonitore und das nicht erst eseit gestern, sondern schon rund 10 Monate, du bist nur nicht informiert.
Das was fehlte ist Framedoubling, hat AMD ja jetzt nachgeliefert.

2,5fach meinst du wohl, Herr Vielleser. Dass eben nur ein sehr kleiner Bruchteil der FreeSync-Monitor ÜBERHAUPT Framedouebling beherrschen, während es ALLE G-Sync Monitore können, spricht für sich.

Ich habe das schon korrigiert, da war dein Beitrag noch nicht mal da.;) Es sind übrigens 2 und nicht 2,5.
Und dass es ein sehr kleiner Bruchteil ist, ist falsch, das siehst du anhand der Liste die ich verlinkt habe, das sind etwa die Hälfte an Geräten.;)
Es steht nämlich 8 zu 9.
9 Ist die Zahl der MOnitore ohne Framedoubling. Allerdings gibt es die manuelle Möglichkeit den Range zu erweitern, dann klappt es auch mit Framedoubling, zumindest bei den Monitoren die von 48 bis 75 Hertz laufen und auf 32 bis 75 Hertz angepasst werden können.

Faktisch kann kein UHD-FreeSync Gerät Framedoubling. G-Sync? Alle.

Es gibt nur ein einziges G-sync Gerät das 4K auf den Bildschirm zaubert, wohl wahrscheinlich wegen der Problematik des engen Ranges von 30 bis 60 Hertz und der auftreten Probleme des Framedoublings, wenn Faktor 2 nicht erreicht werden kann.


Nein, überhaupt nicht. Das Versagen von AMD ist nämlich gar nicht so komplex. .

Ich sprach nicht vom Versagen von AMD, sondern von der Reduzierung vielerlei Probleme die AMD hat und vielerlei Baustellen auf eine einfache Antwort: Man könne nicht wirtschaften.
Kannst du ja nochmal nachlesen worum es da ging, du bist weit weg davon.

Von einem so viel belesenen, lasse ich mir doch gern FreeSync-Alternativen aufzeigen ;)

Ich habe nie behauptet dass es für jedes G-sync Gerät ein genausogutes Freesyncgerät gibt.:)
Ich habe sogar noch extra gesagt, dass unter 4K AMD keinen Range von 30 bis 60 anbietet, sondern von 40 bis 60 Hertz, das kannst du gerne nochmal gesondert nachlesen.

Welche Informationen sollen G-Sync genau schaden?

Die Informationen die Pumpi und du über Seiten und Threads hinweg ignorieren und Freesync pauschal schlechtreden.;)
Denn mir ging es nicht darum Freesync über alle Auflösungen hinweg zu G-sync als gleichwertig hinzustellen, dafür fehlt es an guten Freesync oder Adaptive Sync Geräten in der Breite, sowwohl als auch der 4K 30 bis 60 Hertz Unterstützung und das habe ich jetzt schon 10 mal gesagt und trotzdem hast du es mir unterstellt.

Ich habe alle Informationen zu den guten Monitoren verlinkt.
 
Zuletzt bearbeitet:
Deswegen war ich ja so frei und hab die guten Monitore zusammengefasst, die ja jetzt dank Framedoubling auch unter 30 Hertz syncen können.
Also kannst du dir da ja einen aussuchen.
Ich hatte dich doch nach zwei FreeSync Geräten gefragt, nenn doch mal bitte passende Geräte:

- 27"
- 3840x2160
- 60 Hz
- IPS
- Frame-Doubling

oder auch gern

- 27"
- 2560x1440
- 165 Hz
- IPS
- Frame-Doubling

Zitiere bitte den ganzen Satz, dann siehst du dass es eine Aufzählung der Ranges war, die ohne Framedoubling angeboten werden.:)
Also erst willst du ein Asus-Gerät nicht gesagt haben wollen, jetzt doch - entscheide dich doch mal.

Allerdings gibt es schon wesentlich länger gute Freesyncmonitore und das nicht erst eseit gestern, sondern schon rund 10 Monate, du bist nur nicht informiert.
Das was fehlte ist Framedoubling, hat AMD ja jetzt nachgeliefert.
Hat AMD ja leider nur sehr wenig nachgeliefert. Also für ein paar Modelle. Mal sehen, welche Stricke da noch kommen werden.

Ich habe das schon korrigiert, da war dein Beitrag noch nicht mal da.;) Es sind übrigens 2 und nicht 2,5.
Und dass es ein sehr kleiner Bruchteil ist, ist falsch, das siehst du anhand der Liste die ich verlinkt habe, das sind etwa die Hälfte an Geräten.;)
Es steht nämlich 8 zu 9.
Ich rede nicht von aktuell erhältlichen Modellen, sondern natürlich auch vom Bestand. Oder werden jetzt all die Gurken-FreeSync-Modelle mit lächerlichen Ranges jetzt plötzlich FrameDoubling-tauglich? Nein? Siehst du. Der arme EarlyAdaptor.

Du reitest ja selbst auf ein Modell herum, dass nicht mal für Deutschland angekündigt ist. Lächerlicher kann man sich nicht machen.

9 Ist die Zahl der MOnitore ohne Framedoubling. Allerdings gibt es die manuelle Möglichkeit den Range zu erweitern, dann klappt es auch mit Framedoubling, zumindest bei den Monitoren die von 48 bis 75 Hertz laufen und auf 32 bis 75 Hertz angepasst werden können.
Das mit dem Frickeln hatten wir doch schon, dachte ich?

Es gibt nur ein einziges G-sync Gerät das 4K auf den Bildschirm zaubert, wohl wahrscheinlich wegen der Problematik des engen Ranges von 30 bis 60 Hertz und der auftreten Probleme des Framedoublings, wenn Faktor 2 nicht erreicht werden kann.
Tja, da entlarvt sich der Herr Vielleser wieder mal als völlig ahnungslos:
Monitore: LCD-Monitore | heise online Preisvergleich
Schaffst du es bis 3 zu zählen?

Ich sprach nicht vom Versagen von AMD, sondern von der Reduzierung vielerlei Probleme die AMD hat und vielerlei Baustellen auf eine einfache Antwort: Man könne nicht wirtschaften.
Kannst du ja nochmal nachlesen worum es da ging, du bist weit weg davon.
Oh das kommt mir bekannt vor. Du schreibst ja auch mich per PN an und forderst mich dann auf, dich nicht mehr zu kontaktieren :lol:

Ich habe nie behauptet dass es für jedes G-sync Gerät ein genausogutes Freesyncgerät gibt.:)
Ich habe sogar noch extra gesagt, dass unter 4K AMD keinen Range von 30 bis 60 anbietet, sondern von 40 bis 60 Hertz, das kannst du gerne nochmal gesondert nachlesen.
Moment mal! Du hast (wörtlich) behauptet "dann hast du ein gleichwertiges Angebot".

Nun nenne ich dir zwei G-Sync Monitore und plötzlich gibt es das von dir behauptete "gleichwertige" Angebot nicht mehr? Ja was denn nun? Wo ist denn nun FreeSync gleichwertig zu G-Sync?

Die Informationen die Pumpi und du über Seiten und Threads hinweg ignorieren und Freesync pauschal schlechtreden.;)
Lüg doch jetzt nicht schon wieder. Ich habe FreeSync nirgends pauschal schlecht geredet, sondern einfach den Finger in die Wunde gelegt, wo FreeSync nicht auf dem Niveau von G-Sync ist. Nicht mehr, nicht weniger. Ja, solch eine sachliche Herangehensweise ist jetzt für dich wieder Bashing, du lebst lieber in deine Nixeus Traumwelt.

Denn mir ging es nicht darum Freesync über alle Auflösungen hinweg zu G-sync als gleichwertig hinzustellen, dafür fehlt es an guten Freesync oder Adaptive Sync Geräten in der Breite, sowwohl als auch der 4K 30 bis 60 Hertz Unterstützung und das habe ich jetzt schon 10 mal gesagt und trotzdem hast du es mir unterstellt.
Gern das Zitat von dir nochmal:
Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind.

Oben musstest du selbst kleinlaut eingestehen, dass dem nicht so ist und G-Sync Geräte immer noch USPs haben und FreeSync schlechter sind.

Klar, du kannst jetzt natürlich den allerneusten, nirgendwo zu kaufenden FreeSync-Monitor mit dem schon seit Jahren erhältlichen G-Sync Modell vergleichen und behaupten, da hält ja was mit - aber dass das natürlich reine Tatsachenverdrehung ist, merkst doch selbst du, oder? ;)
 
Ich hatte dich doch nach zwei FreeSync Geräten gefragt, nenn doch mal bitte passende Geräte

Und ich habe nicht behauptet, dass es für jeden G-sync Monitor ein Freesync Ebenbild gibt.:schief:
Sondern nur dass es von den Grundfunktionen her mittlerweile gleichwertige Monitore in Full HD und WHQD gibt.
AMD bietet bei den besten Freesyncgeräten die gleiche Qualität wie Nvidia bei Gsync.

Also erst willst du ein Asus-Gerät nicht gesagt haben wollen, jetzt doch - entscheide dich doch mal.

Ich habe die Ranges zu den Modellen aufgezählt, das bezog sich nicht auf einen bestimmtem Monitor.:schief:
Ansonsten ist das eh völlig egal, weil es nichts mit dem Thema zu tun hat und du genau weißt was welcher Monitor kann und ich auch.:D

Hat AMD ja leider nur sehr wenig nachgeliefert. Also für ein paar Modelle. Mal sehen, welche Stricke da noch kommen werden.

AMD lieferte per Treiber nach, soll AMD jetzt zu dir nach Hause kommen und die von den Monitorherstellern verfügbaren Scaler in die gekauften Monitore einbauen?
Unterscheide zwischen Software und Hardware. Mehr kann AMD überhaupt nicht updaten.:rollen:
Und auch ist AMD nicht der Hersteller von Monitoren, sondern nur der Initiator von der offenen Adaptive Sync Lösung.
Nvidia nutzt es ja auch in Notebooks.

Ich rede nicht von aktuell erhältlichen Modellen, sondern natürlich auch vom Bestand.

Die Unterstützungsliste bei Hardwareluxx ist der Bestand und wurde das letzte mal im Juli geupdatet. Informiere dich doch endlich mal ein bisschen.
Deine Aussage von einem Bruchteil ist konsequenter Unsinn und ich hab es dir auch noch vorgerechnet.

Du reitest ja selbst auf ein Modell herum, dass nicht mal für Deutschland angekündigt ist. Lächerlicher kann man sich nicht machen.

Der Nixeus ist in der Tat nicht in Deutschland lieferbar, man kann ihn aber über Amazon USA trotzdem bestellen, wenn man den Aufpreis für den Versand bezahlt.:rollen:
Zudem sprach ich in den Kommentaren niemals von irgendwelchen Lieferbarkeiten, noch reite ich darauf herum.
Gute Monitore gibt es hier in Deutschland ja ebenso, ich hab sie verlinkt, falls es dir wieder entfallen sein sollte.

Das mit dem Frickeln hatten wir doch schon, dachte ich?

Ja das hatten wir schon. Das war immer nur eine Zusatzinformation:rollen:
Ist das so schlimm, dass man das erwähnt? Ohje man kann bei manchen Freesyncmonitoren die keine großen Ranges haben, noch manuell mehr herausholen, wie phöse ist das denn.

Tja, da entlarvt sich der Herr Vielleser wieder mal als völlig ahnungslos:
Monitore: LCD-Monitore | heise online Preisvergleich
Schaffst du es bis 3 zu zählen?

Okay, dann gibt es mittlerweile 2 lieferbare Monitore vom gleichen Hersteller die mehr oder weniger dasselbe kosten und dassselbe bieten.
Man kann sich ja auch mal irren.:)

Moment mal! Du hast (wörtlich) behauptet "dann hast du ein gleichwertiges Angebot".

Nun nenne ich dir zwei G-Sync Monitore und plötzlich gibt es das von dir behauptete "gleichwertige" Angebot nicht mehr? Ja was denn nun? Wo ist denn nun FreeSync gleichwertig zu G-Sync?

Jetzt wird es mir zu langweilig. Du verdrehst das Gesagte und hast kein Interesse an einer normalen Unterhaltung.
EOD
 
Und ich habe nicht behauptet, dass es für jeden G-sync Monitor ein Freesync Ebenbild gibt.:schief:
Sondern nur dass es von den Grundfunktionen her mittlerweile gleichwertige Monitore in Full HD und WHQD gibt.
AMD bietet bei den besten Freesyncgeräten die gleiche Qualität wie Nvidia bei Gsync.
Hör doch auf so einen Unfug zu behaupten, kann jeder nachlesen, was du geschrieben hast. Und das war u.A.:

Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind.

Von der Einschränkung FullHD oder WQHD kann ich da nichts lesen. Und ich habe dir die Specs zweiter G-Sync Monitore genannt und du konntest immer noch kein Äquivalent nennen. Ergo ist dein letzter Satz schon wieder schlichtweg eines: Falsch.

Ich habe die Ranges zu den Modellen aufgezählt, das bezog sich nicht auf einen bestimmtem Monitor.
Ansonsten ist das eh völlig egal, weil es nichts mit dem Thema zu tun hat und du genau weißt was welcher Monitor kann und ich auch.
Ach so, du schreibst einfach irgendwelchen o.t. Müll zusammen, Hauptsache was geschrieben. Sag das doch direkt....

AMD lieferte per Treiber nach, soll AMD jetzt zu dir nach Hause kommen und die von den Monitorherstellern verfügbaren Scaler in die gekauften Monitore einbauen?
Unterscheide zwischen Software und Hardware. Mehr kann AMD überhaupt nicht updaten.
Ich verlange gar nichts von AMD. Ich erkenne nur ganz nüchtern, dass FrameDoubling bei AMD nur unter gewissen Modelle funktioniert, während es bei G-Sync bei JEDEM Modell funktioniert.

Warum hast du damit so ein Problem? Nur weil AMD schlecht da steht? :schief:

Die Unterstützungsliste bei Hardwareluxx ist der Bestand und wurde das letzte mal im Juli geupdatet. Informiere dich doch endlich mal ein bisschen.
Deine Aussage von einem Bruchteil ist konsequenter Unsinn und ich hab es dir auch noch vorgerechnet.
Und was hat nun der Käufer eines FreeSync-Monitors, der nicht FrameDoubling tauglich ist, von einer aktuellen Liste? Erzähl doch mal.

Ja, es relativiert den Preis für einen G-Sync Monitor eben, wenn man keinen neuen kaufen muss, wenn man ein so wichtiges Feature wie FrameDoubling nutzen möchte.

Der Nixeus ist in der Tat nicht in Deutschland lieferbar, man kann ihn aber über Amazon USA trotzdem bestellen, wenn man den Aufpreis für den Versand bezahlt.
:lol::lol::lol:

Aber klar, Kollege! Sonst noch Probleme?

Habs übrigens gerade mal probiert, da kommt folgendes:

"Sorry, this item can't be shipped to your selected address. Learn more. You may either change the shipping address or delete the item from your order. "

Und die nächste Schaffe-Unwahrheit entlarvt. :daumen:

Zudem sprach ich in den Kommentaren niemals von irgendwelchen Lieferbarkeiten, noch reite ich darauf herum.
Gute Monitore gibt es hier in Deutschland ja ebenso, ich hab sie verlinkt, falls es dir wieder entfallen sein sollte.
Dass du kein in Deutschland erhältliches Modell als Paradebeispiel nennen kannst, sagt schon alles über die Gerätewüste FreeSync aus.

Ja das hatten wir schon. Das war immer nur eine Zusatzinformation:rollen:
Ist das so schlimm, dass man das erwähnt? Ohje man kann bei manchen Freesyncmonitoren die keine großen Ranges haben, noch manuell mehr herausholen, wie phöse ist das denn.
Ja und schon zeigt sich eben, dass G-Sync mitnichten teuer ist. Im Gegenteil.

Okay, dann gibt es mittlerweile 2 lieferbare Monitore vom gleichen Hersteller die mehr oder weniger dasselbe kosten und dassselbe bieten.
Man kann sich ja auch mal irren.:)
Du bist echt der Burner Schaffe! Für deine Argumentation ein in Deutschland wahrscheinlich nie erhältliches Gerät verwenden, dann noch die Frechheit besitzen fern der Wahrheit zu behaupten, man könne ja bei Amazon.com bestellen, was nachweislich nicht geht und jetzt ein in Deutschland angekündigtes, aber noch nicht verfügbares Modell nicht mitzählen zu wollen :daumen2:

Soviel Bias ist echt unfassbar, du machst dich nur lächerlich. Wie kann man nur eine dermaßen dicke AMD-Brille aufhaben und dann auch noch andere Leute per PN anmachen? :lol:

Jetzt wird es mir zu langweilig. Du verdrehst das Gesagte und hast kein Interesse an einer normalen Unterhaltung.
EOD
Oh nein, wenn ich deine Aussage, dass "gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten" können genauso wiedergebe, dann verdrehe ich sie, wie geil bist du denn :lol::lol:
 
Hör doch auf so einen Unfug zu behaupten, kann jeder nachlesen, was du geschrieben hast. Und das war u.A.:

"Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind."

Ich habe das nicht geschrieben, du zitierst falsch. :ugly:
Zudem ging es überhaupt gar nicht darum Freesync besser zu stellen als G-sync, sondern die Specs der Monitore zu nennen die auf dem Markt sind.
Aber das war mir schon klar dass dir das nicht passen wird, wenn man bei guten Monitoren Freesync auf G-Sync Ausgenhöhe sieht, das ist wohl verboten.:)

Von der Einschränkung FullHD oder WQHD kann ich da nichts lesen. Und ich habe dir die Specs zweiter G-Sync Monitore genannt und du konntest immer noch kein Äquivalent nennen. Ergo ist dein letzter Satz schon wieder schlichtweg eines: Falsch.

Du entstellst den Zusammenhang maßgeblich, es ist insofern sinnfrei überhaupt noch auf deine Rethorikschiene zu antworten, denn dir geht es wie ich schon erwähnt habe nicht um das Thema, sondern darum zu erreichen dass ich hier gesperrt werde, das hast du ja von anfang an verfolgt.
Du kannst dein AMD Bashing gerne abziehen, mich interessiert es nicht. Mir geht es um Informationen und um die Sachdiskussion, die man mit dir nicht führen kann, schade.

Übrigens ist es unter aller Sau, wenn du mit voller Absicht Abschnitte selbst schreibst oder von anderen Forenteilnehmern nimmst und sie mir nur aus dem Grund der Rethorikplärrerei unterschieben willst.
 
Zuletzt bearbeitet:
"Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind."

Ich habe das nicht geschrieben, du zitierst falsch. :ugly:
Hast du nicht?

Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind.
Gern auch der Link
Darf ich fragen, warum du lügst? Ist dir deine eigene Aussage, nachdem ich sie vollständig widerlegt habe, schon so peinlich, dass du sie jetzt leugnest?

Zudem ging es überhaupt gar nicht darum Freesync besser zu stellen als G-sync, sondern die Specs der Monitore zu nennen die auf dem Markt sind.
Aha. Warum nimmst du dann einen Monitor, der gar nicht auf dem deutschen Markt ist?

Aber das war mir schon klar dass dir das nicht passen wird, wenn man bei guten Monitoren Freesync auf G-Sync Ausgenhöhe sieht, das ist wohl verboten.:)
Ist man ja leider nicht, zumindest konntest du doch auf meine zwei G-Sync keine FreeSync-Alternative nennen, oder? Oder kommt die noch?

Gern nochmal:

- 27"
- 3840x2160
- 60 Hz
- IPS
- Frame-Doubling

oder auch gern

- 27"
- 2560x1440
- 165 Hz
- IPS
- Frame-Doubling

Also: Welches FreeSync-Modell gibt es, dass mit diesen Modelle "auf Augenhöhe" ist?

Du entstellst den Zusammenhang maßgeblich, es ist insofern sinnfrei überhaupt noch auf deine Rethorikschiene zu antworten, denn dir geht es wie ich schon erwähnt habe nicht um das Thema, sondern darum zu erreichen dass ich hier gesperrt werde, das hast du ja von anfang an verfolgt.
:lol::lol::lol::lol::lol:

Du bist ja geil. Genau, mein ganzes Ziel ist es, Schaffe89 sperren zu lassen.

:lol::lol::lol::lol::lol:

Du kannst dein AMD Bashing gerne abziehen, mich interessiert es nicht. Mir geht es um Informationen und um die Sachdiskussion, die man mit dir nicht führen kann, schade.
Wenn es dir um Information und Sachdiskussion möchtest, warum kommen dann von dir nur Unwahrheiten? FreeSync ist nicht "auf Augenhöhe", der Nixeus ist in D gar nicht erhältlich und Amazon.com liefert ihn auch nicht für alles Geld der Welt hierher.

Übrigens ist es unter aller Sau, wenn du mit voller Absicht Abschnitte selbst schreibst oder von anderen Forenteilnehmern nimmst und sie mir nur aus dem Grund der Rethorikplärrerei unterschieben willst.
:lol::lol::lol:

Wie albern ist es bitte schön, über den Inhalt eines selbst vor zwei Tagen geschriebenen Postings zu lügen? ;)
 
Einen Treiberbug, schon wieder ? hatte wir das nicht schon mal ? AMD Treiber so schlecht und Nvidia kann es als ausrede benutze so heimlich mal um die Ecke, es gibt einen Bug und deswegen laufen die Karten so langsame das ist halt dann in Ordnung
In Ordnung ist es nicht. Ich will hier nicht Nvidia schön reden, Treiberfehler und überoptimierung hasse ich: Wenn ein Spiel nur gut läuft, wenn der Treiber optimiert ist (Project Cars usw bei AMD) heißt das im Umkehrschluss es wird mal beschissen laufen, wenn der Support aus ist. Und ich bin jemand, der immer wieder mal alte Spiele installiert und spielen will. Derzeit scheitere ich da an GTA4 (jep, 4, nicht 5), denn entgegen einem früheren Spielanlauf, läuft es jetzt nur noch als Diashow.
Zur Diskussion:
Aber wenn man in 9 Spielen von 10 besser performt und im 10. dann wesentlich schlechter (relativ gesehen), dann kann das halt ein Bug sein. Oder mieserable optimierung.
Beides ist schlecht
Und schön, dass du EINEN von 100en Benchmark gefunden hast, der dir recht gibt. Wenn du nur das eine Spiel spielst, in nur der einen Auflösung - dann ist gut. Aber wehe dir, du kaufst dir mal was anderes :D :D
Vulkan ist im Kern noch immer Mantle, Vulkan wird von der Khronus Groupe bearbeitet und die sind dafür bekannt, dass die an offenen Standards entwickeln, wegen Mantle kann man hier vieles erzählen, Fakt ist AMD hat es sich nicht unfreiwillig hergegeben was nicht bedeutet sie hätte es doch nicht getan ,
Naja wie freiwillig es war wissen wir nicht. Aber man kann es recht einfach herleiten:

Die API würde nur AMD verwenden. 18% Marktanteil
Kein Entwickler, außer bezahlte, würden sich die Arbeit antun, für eine propritäre API, oder eine, die nur ein Hersteller mit 18% Marktanteil einfach nichts zu sagen hat, einzusetzen.
AMD muss also bezahlen: API Entwicklung, Entwickler die mit der API arbeiten.
Was hat AMD nochmal nicht? Geld

Wenn AMD jetzt nicht Jahrelange Forschungs und Entwicklungsarbeit wegwerfen will, macht man besser Open Source draus -> Vulkan.
Vulkan hat einen Teil von Mantle, aber bei weitem ist Vulkan nicht zum Großteil Mantle. Mantle war eine reine Spielebeschleunigungs-API. Vulkan wird wesentlich mehr werden, da es ja auch im Web, im Profisegment, Mobil und in vielen anderen Bereichen eingesetzt wird.

Aus der Freesync vs G-Sync Diskussion muss ich mich raushalten, da kenne ich mich ehrlich gesagt zu wenig aus, und ich bin ja hier ungern der, der mit Halbwissen und verdrehten Fakten um sich wirft ;)
 
Zuletzt bearbeitet:
In Ordnung ist es nicht. Ich will hier nicht Nvidia schön reden, Treiberfehler und überoptimierung hasse ich: Wenn ein Spiel nur gut läuft, wenn der Treiber optimiert ist (Project Cars usw bei AMD) heißt das im Umkehrschluss es wird mal beschissen laufen, wenn der Support aus ist. Und ich bin jemand, der immer wieder mal alte Spiele installiert und spielen will. Derzeit scheitere ich da an GTA4 (jep, 4, nicht 5), denn entgegen einem früheren Spielanlauf, läuft es jetzt nur noch als Diashow.
Zur Diskussion:
Aber wenn man in 9 Spielen von 10 besser performt und im 10. dann wesentlich schlechter (relativ gesehen), dann kann das halt ein Bug sein. Oder mieserable optimierung.
Beides ist schlecht
Und schön, dass du EINEN von 100en Benchmark gefunden hast, der dir recht gibt. Wenn du nur das eine Spiel spielst, in nur der einen Auflösung - dann ist gut. Aber wehe dir, du kaufst dir mal was anderes :D :D
Naja wie freiwillig es war wissen wir nicht. Aber man kann es recht einfach herleiten:

Die API würde nur AMD verwenden. 18% Marktanteil
Kein Entwickler, außer bezahlte, würden sich die Arbeit antun, für eine propritäre API, oder eine, die nur ein Hersteller mit 18% Marktanteil einfach nichts zu sagen hat, einzusetzen.
AMD muss also bezahlen: API Entwicklung, Entwickler die mit der API arbeiten.
Was hat AMD nochmal nicht? Geld

Wenn AMD jetzt nicht Jahrelange Forschungs und Entwicklungsarbeit wegwerfen will, macht man besser Open Source draus -> Vulkan.
Vulkan hat einen Teil von Mantle, aber bei weitem ist Vulkan nicht zum Großteil Mantle. Mantle war eine reine Spielebeschleunigungs-API. Vulkan wird wesentlich mehr werden, da es ja auch im Web, im Profisegment, Mobil und in vielen anderen Bereichen eingesetzt wird.

Aus der Freesync vs G-Sync Diskussion muss ich mich raushalten, da kenne ich mich ehrlich gesagt zu wenig aus, und ich bin ja hier ungern der, der mit Halbwissen und verdrehten Fakten um sich wirft ;)


mit der API ist das nicht so einfach, es wird relativ wenig auf PCs eigentlich mehr gespielt dafür das meiste auf Konsolen dort hätte es durchaus Sinn dort sind es halt 40 Millionen Konsolen gegenüber 10 Millionen PCs, ich weiß ja nicht was noch zu Vulkan hinzugekommen außer das Memory Management sicher hat es AMD nicht ganz so freiwillig gemacht zu unterstellen sie hätte es nicht gemacht ist meiner Meinung nach einfach nicht richtig, wer weiß vielleicht doch.

AMD Karten sind halt wie ein alter Audi 80, obwohl ich selbst einen 1er BMW hab aber ich steh darauf wenn man weiß es ist nicht immer die beste Karte aber man weiß was man bekommt, bei Nvidia Nö nicht immer, ich werde bis nächste Jahr warte und dann in die vollen gehen mit einem neuen PC, obwohl die Nano für 400 Euro wäre schon ok selbst mit einer neuen Generation von Karten weil die sicher sehr teuer sind.
 
Ist halt ne Frage des Namens. Genau wie Apple vs Samsung, auch wenn das kein guter Vergleich ist weil Samsung locker mithalten kann. Aber dennoch. Die meißten Käufer haben schlicht nicht wirklich Ahnung was den Bereich angeht. "The way ist meant to be played" und der ganze Crap hören sich nunmal schön an für solche Leute. Man siehts ja hier im Forum. Am meißten werden die 390er empfohlen, es sei denn das Geld für ne 980 Ti ist da. Und das ganz einfach weil man hier weiß das AMD keineswegs schlechter ist, nur grottig vermarktet wird. Ich freu mich immernoch auf Samsung Galaxy Graphics ^^
 
Zurück