Seite 3 von 6 123456
  1. #21
    Avatar von PCGH_Tom
    Mitglied seit
    01.10.2013
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    225

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Zitat Zitat von Grimreaper667 Beitrag anzeigen
    Leute, Leute, die Anleitung mag ja gut sein und funktionieren, aber was GAR NICHT GEHT, ist das der Phoenix EDID Designer total virenverseucht ist! Ich habe gerade echt arbeiten müssen, um die ******* wieder von meinem PC zu kriegen. Jedem, der das Tutorial daher nachvollziehen will, sollte bewusst sein, dass die Installation des Phoenix EDID Designer einige Risiken birgt.

    Grim
    Nur wenn man ihn bei Tucows herunterlädt. Es finden sich noch andere Quellen im Netz, ganz ohne nervige Mal- und Adware.
    Mein ganz persönlicher Größenwahn xD
    Heimischer Rechenknecht: Intel Core i7 4790K | Asus Maximus VII Formula | 8,0 GiByte DDR3 | Geforce GTX 780 EK-FC 780 Jetstream | 2x Samsung SSD 840 | Dell 1440p Monitor

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #22
    Avatar von JoM79
    Mitglied seit
    02.01.2012
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    20.014

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Weil ja AMD, oder auch Nvidia oder Intel, immer nur perfekte Ware abliefert, bei denen es keine Probleme gibt.
    AMD hat in letzter Zeit vielen guten Gedanken gehabt, nur ist nie viel bei rumgekommen.

  3. #23
    Avatar von belerad
    Mitglied seit
    14.03.2015
    Liest
    PCGH.de
    Ort
    Thailand
    Beiträge
    189

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Zitat Zitat von JoM79 Beitrag anzeigen
    Weil ja AMD, oder auch Nvidia oder Intel, immer nur perfekte Ware abliefert, bei denen es keine Probleme gibt.
    AMD hat in letzter Zeit vielen guten Gedanken gehabt, nur ist nie viel bei rumgekommen.
    Wüsste nicht was bei AMD in letzter Zeit so schief gelaufen sein soll :O Die Fury`s sind gute Karten, die 2 Jahre alten rebrandeten/-workten Karten der 200er Reihe sind immer noch Konkurrenzfähig gegenüber Maxwell.
    Man könnte nun das Fieben der Pumpe bei den ersten Fury X nehmen, da halte ich mal das "Spulenfieben" dagegen. Man nehme die schlechte Übertaktarkeit trotz Ankündigung (Overclockers Dream) und da halt ich dann einfach 3,5+5 GB Speicher dagegen.

    Weder AMD noch NVIDIA haben reine Westen, beide bauen mehr als genug *******, selbst Treibermäßig ist NVIDIA nicht wirklich vorne. Das einzige Problem ist das es den Leuten bei AMD eher hängenbleibt. Und das Warum ist auch einfach geklärt, nennt sich "Kognitive Dissonanz".

  4. #24
    Avatar von JoM79
    Mitglied seit
    02.01.2012
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    20.014

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Ich sag nur Bulldozer Fail und das ganze drumherum bei Mantle.
    Die Fury ist halt auch bei weitem nicht das, als was sie geteasert wurde.
    Bei Freesync wurde auch so viel versprochen und so wirklich rund läuft das nicht.

  5. #25
    Avatar von XeT
    Mitglied seit
    07.10.2014
    Liest
    PCGH.de & Heft (Abo)
    Ort
    Stralsund
    Beiträge
    2.252

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Alles Ansichtssache. Aber bei nvidia wird es einfach eher ignoriert. Ist einfach so

    Mein nächster wird freesync haben, das steht fest aber erst einmal brauch ich Zeit damit die Frau auch zustimmt.
    PC1: Asrock h97mpro4/Xeon e3-1231-v3/r9 Nano/8gb Crucial B-Sport
    FaltPC: msi z87/I5-4460/Zotac980ti amp|Evga 980/8GB Crucial tacitical

  6. #26
    Avatar von belerad
    Mitglied seit
    14.03.2015
    Liest
    PCGH.de
    Ort
    Thailand
    Beiträge
    189

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Zitat Zitat von JoM79 Beitrag anzeigen
    Ich sag nur Bulldozer Fail und das ganze drumherum bei Mantle.
    Die Fury ist halt auch bei weitem nicht das, als was sie geteasert wurde.
    Bei Freesync wurde auch so viel versprochen und so wirklich rund läuft das nicht.
    Das musst du mir jetzt aber genau erklären. Also erstens das eine Hersteller bei Teasern eines neuen Produktes sehr positive Angaben macht ist doch normal. Oder macht Nvidia das plötzlich nicht mehr ? Slebst BMW, Apple, Samsung, VW, BOSCH, H&K,.... teasern ihrte Produkte immer sehr "positiv". Das soll also ein Vorwurf an AMD sein ?

    Bulldozer war meiner Meinung nach seiner Zeit voraus. Prozessoren die auf Mehrkernleistung ausgelegt waren. In dieser Kategorie waren sie Intel von damals überlegen. Sobald es aber um die Single Core Leistung ging, konnte die Bulldozer nicht mehr mithalten. Da hat AMD einfach den Fehler gemacht zu früh die guten Sachen zu entwickeln. Davor hatte es ja des öfteren geklappt, Intel mit Innovation ein Schnippchen zu schlagen (siehe 64bit oder Multicore). Leider haben sich die Spieleentwickler nicht darauf eingelassen und haben ihre Spiele weiterhin nur auf Single Core optimiert, was daher sehr vorteilhaft für Intel war.

    Nun zu Freesync, was läuft denn nicht rund ?

    *Es gibt Monitore
    *Freesync funktioniert
    *Freesync ist billiger
    *Freesync ist offener Standart
    *Freesync ist billiger

    Nachteil, Freesync funktioniert momentan (offiziell) nur ab 35Hz, und G-sync ab 30 Hz (Wobei da Nvidia zwischen 30 u. 40Hz ein wenig schummelt und einfach doppelte Bilder ausgibt)

    Und zu guter letzt Mantel. Was hat dir denn bei Mantle nicht gepasst. Mantel ist das gewesen und ist das geworden was AMD von Anfang an kommuniziert hat. Man hat Mantle entwickelt und anschließend der Kronos Group übergeben damit es ein offener Standard werden kann. Also welches Drummherum bei Mantle war jetzt so schlimm ?

  7. #27

    Mitglied seit
    19.06.2015
    Beiträge
    636

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Ich kann das Thema G-sync/Free-sync immer noch nicht so richtig verstehen, ja die Technik ist gut. Aber ich nutze seit Jahren V-Sync und durch meine neue Grafikkarte(Fury X) brauch ich in nächster Zeit kein neuen Monitor, da ich mit den meisten Spielen sonso keine Probleme habe. Monitor habe ich den BenQ XL2420T(120Hz). Für mich ist das nur Geldverschwendung, dafür ein Extra Monitor zu kaufen, dann lieber gleich eine ordentliche Grafikkarte kaufen, die ordentlich FPS Produziert.

  8. #28
    Avatar von DKK007
    Mitglied seit
    16.12.2013
    Liest
    PCGH.de & Heft
    Beiträge
    19.492

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Kommt aber auch auf die Auflösung und die Einstellungen an. in UHD schafft keine Karte immer die 60 FPS und dann ruckelt es mit VSYnc.
    PC: CPU: i7-4770K @3.5GHz, MB: ASUS Z87-Pro, RAM: 20GiB, NT: bq Straight Power E9 CM 580W, GPU: Sapphire R9-380X Nitro 4 GiB [ASIC 75,7%], Win7 Ultimate (64bit) + OpenSuse 13.1 (64bit)
    2. PC: CPU: i5-2500K @Stock, MB: ASRock Z77-Pro4, RAM: 12GiB, NT: bq Straight Power E10 400W, GPU: Gigabyte GTX1050ti G1 Gaming 4 GiB, Gehäuse: R5 PCGH, Win7 Pro (64bit)
    Laptop: ASUS Pro P55VA, CPU: i5-3210M @ 2x2,5GHz, RAM: 8GiB, HD4000, Win10-TP + Linux Mint 17 Cinnamon (jeweils 64bit) auf MX100 256GB

  9. #29
    Avatar von JoM79
    Mitglied seit
    02.01.2012
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    20.014

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Zitat Zitat von belerad Beitrag anzeigen
    Das musst du mir jetzt aber genau erklären. Also erstens das eine Hersteller bei Teasern eines neuen Produktes sehr positive Angaben macht ist doch normal. Oder macht Nvidia das plötzlich nicht mehr ? Slebst BMW, Apple, Samsung, VW, BOSCH, H&K,.... teasern ihrte Produkte immer sehr "positiv". Das soll also ein Vorwurf an AMD sein ?

    Bulldozer war meiner Meinung nach seiner Zeit voraus. Prozessoren die auf Mehrkernleistung ausgelegt waren. In dieser Kategorie waren sie Intel von damals überlegen. Sobald es aber um die Single Core Leistung ging, konnte die Bulldozer nicht mehr mithalten. Da hat AMD einfach den Fehler gemacht zu früh die guten Sachen zu entwickeln. Davor hatte es ja des öfteren geklappt, Intel mit Innovation ein Schnippchen zu schlagen (siehe 64bit oder Multicore). Leider haben sich die Spieleentwickler nicht darauf eingelassen und haben ihre Spiele weiterhin nur auf Single Core optimiert, was daher sehr vorteilhaft für Intel war.

    Nun zu Freesync, was läuft denn nicht rund ?

    *Es gibt Monitore
    *Freesync funktioniert
    *Freesync ist billiger
    *Freesync ist offener Standart
    *Freesync ist billiger

    Nachteil, Freesync funktioniert momentan (offiziell) nur ab 35Hz, und G-sync ab 30 Hz (Wobei da Nvidia zwischen 30 u. 40Hz ein wenig schummelt und einfach doppelte Bilder ausgibt)

    Und zu guter letzt Mantel. Was hat dir denn bei Mantle nicht gepasst. Mantel ist das gewesen und ist das geworden was AMD von Anfang an kommuniziert hat. Man hat Mantle entwickelt und anschließend der Kronos Group übergeben damit es ein offener Standard werden kann. Also welches Drummherum bei Mantle war jetzt so schlimm ?
    AMD hat mittlerweile selber zugegeben das Bulldozer ein Fail war.
    Hier mal als Beispiel:
    Feldman candidly acknowledged that the Bulldozer failure cost AMD some credibility in servers. But the company is looking to rebound with a revamped management team led by CEO Rory Read and a new server roadmap comprising x86 and ARM chips for multiple server categories.“Bulldozer was without doubt an unmitigated failure. We know it,” Feldman said.
    “It cost the CEO his job, it cost most of the management team its job, it cost the vice president of engineering his job. You have a new team. We are crystal clear that that sort of failure is unacceptable,” Feldman said.
    Wow gleich 2 mal das Freesync billiger ist.
    Nur das Freesync bei gleichen und ähnlichen Modellen einen kleineren Bereich abdeckt, sollte mittlerweile klar sein.
    Gerade bei IPS Paneln hat Gsync bei der oberen Grenze klare Vorteile.
    Asus MG279Q 35-90Hz und Acer XB270HU 30-144Hz
    Beide haben das gleiche Panel, daran kanns also nicht liegen.
    Bleibt nur der Scaler und ja das ist ja Herstellersache.
    Nur warum hat AMD dann vorher grossspurig mit 9-240Hz getönt, wenn sie wussten dass es die Hersteller nicht halten können?

    Freesync ist nicht offen, der offene Standard heisst immer noch Adaptive Sync.

    Mantle wurde immer wieder verschoben und hat am Anfang teils grosse Probleme gemacht.
    Den Riesensprung in den fps, es sollte meine ich 30%+ sein, gab es auch nicht.

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  10. #30

    AW: AMD Freesync-Tuning: Bildwiederholfrequenz absenken oder erhöhen - Auf eigene Gefahr

    Zitat Zitat von JoM79 Beitrag anzeigen
    AMD hat mittlerweile selber zugegeben das Bulldozer ein Fail war.
    Hier mal als Beispiel:


    Wow gleich 2 mal das Freesync billiger ist.
    Nur das Freesync bei gleichen und ähnlichen Modellen einen kleineren Bereich abdeckt, sollte mittlerweile klar sein.
    Gerade bei IPS Paneln hat Gsync bei der oberen Grenze klare Vorteile.
    Asus MG279Q 35-90Hz und Acer XB270HU 30-144Hz
    Beide haben das gleiche Panel, daran kanns also nicht liegen.
    Bleibt nur der Scaler und ja das ist ja Herstellersache.
    Nur warum hat AMD dann vorher grossspurig mit 9-240Hz getönt, wenn sie wussten dass es die Hersteller nicht halten können?

    Freesync ist nicht offen, der offene Standard heisst immer noch Adaptive Sync.

    Mantle wurde immer wieder verschoben und hat am Anfang teils grosse Probleme gemacht.
    Den Riesensprung in den fps, es sollte meine ich 30%+ sein, gab es auch nicht.

    ja ne 100 Euro mehr für etwas ausgeben was ich bei der Konkurrenz für nichts bekommen, toller Vergleich

    selbst wenn FreeSync jetzt noch Nachteile hat die Monitore werden besser eventuell kann man die nachher noch flashen, es ist relativ leicht ein Gerät einzubauen was die Arbeit für einen macht anstatt das über ein einfaches Protokoll zu machen.

    DX12 hat ja nur mehr als 50 % Prozent gebracht bis jetzt, ich kann diese Lügnerei einfach nicht mehr sehen und hören die von manchen Leuten hier von sich gegeben wird , es gibt immer ein aber, aber immer die Wahrheit verdrehen geht echt nicht
    Bitte schau dir bitte mal die Benchmarks an AoS, wie viele Prozent hat es gebracht ? eine olle Radeon 290x aka 390x überholt eine 980GTX und das für 100 Euro weniger aber bitte AMD ist schlecht ich hab es von manchen Leuten mittlerweile verstanden

Seite 3 von 6 123456
Cooler Master MasterCase H500P

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •