Seite 8 von 15 ... 456789101112 ...
  1. #71

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Das war doch schon seit Monaten klar. Gab doch schonmal eine News das Anfang 2018 erst die neuen Karten kommen wenn GDDR 6 verfügbar ist.
    *CPU: Core i7-6950X @4,3GHz* *GPU: Nvidia Geforce GTX 1080Ti @2088/6055MHz* *CPU-Kühler: Corsair H90* *RAM: 64GB DDR4-3200 CL14* *Mainboard: Asrock X99M Killer/3.1* *SSD: Samsung SM961 256GB + 850 Evo 1TB* *HDD: Toshiba 3TB* *Gehäuse: Aerocool Strike-X Cube* *Tastatur: Thermaltake eSports Poseidon Z RGB* *Maus: Logitech G700s* *Monitor: Acer XB280HK*

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #72
    Avatar von Kasmopaya_PCGH
    Mitglied seit
    08.08.2016
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    46

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    "Sind doch die kommenden 144Hz IPS 4K Monitore von Acer und Asus eh auf 2018 verschoben worden."
    Das höre ich zum ersten mal. Ich dachte nur Q4 2017?

    Wenn es wirklich 2018 wird, dann müssten die 21:9 Versionen der eierlegenden Wollmilchsäue ja nicht mehr weit sein. Ich überlege mir gerade darauf zu warten, wenn das jetzt eh alles verschoben wurde.

    Irgend wie schaut es um big Volta nicht gut aus für uns Gamer. Hört sich alles nach einer GPGPU Architektur an, nicht so effizient für Spiele. Vielleicht mit GDDR6 dann doch was für uns? Hauptsache 2019 kommt eine schnelle, effiziente Grafikkarte auf dem Markt. Hersteller wäre ja egal.(wobei mit G-Sync im Monitor wäre es dann doch nicht so egal) Hauptsache kein Thermi 2.0 oder so.
    Geändert von Kasmopaya_PCGH (13.08.2017 um 17:24 Uhr)

  3. #73
    Avatar von Killermarkus81
    Mitglied seit
    18.07.2008
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    1.621

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Rollora Beitrag anzeigen
    Natürlich sollte es der längste sein, wenn man 1 Jahr später kommt und wesentlich mehr Aufwand benötigt, um es zu erreichen.
    1 Jahr später
    größerer Chip
    mehr Strom
    spezieller, vergleichsweise teurer RAM.

    da wärs schon schön, wenn AMD es schon probiert mit roher Gewalt, man wenigstens einen "Pyrrhussieg" zu schaffen. Aber nichtmal das. Nein, man muss sich preislich dort einreihen, wo bei Release die "kleinen" Chips von Nvidia gewildert haben. Da hat der 300mm² Chip der 1080 und 1070 mehr gekostet, bzw die Grafikkarte.


    Stimmt. Dass man im letzten Jahr dadurch MILLIARDEN verschenkt hat ist völlig irrelevant. Die braucht man ja auch nicht für die Forschung. Mir ist nicht klar, warum manche Leute das nicht sehen wollen, dass
    1) jeder der sich in den letzten 2-3 Jahren Performancelösungen gekauft hat Nvidia kaufen "musste"
    2) jeder der Nvidia gekauft hat und zufrieden ist wohl eher wieder Nvidia kaufen wird
    3) die daduch verbreitete Mundpropaganda und Prestige "Nvidia sind die schnellsten und besten" nunmal sehr schwer wieder aus den Köpfen der Leute wegzukriegen ist
    4) Nvidia mit relativ kleinen Chips teure Grafikkarten verkauft hat und sich "dumm und dämlich" verdient hat. Schau mal die letzten Tage auf PCGH. Und dann 3 Monate davor. Und nochmal ca 3 Monate davor. Jedesmal steht da "Rekordgewinn für Nvidia". Ja wiel ohne Konkurrenz steckt man sich halt das ganze Geld ein. Und was heißt das: Nvidia kann NOCH mehr Forschen und ausgeben. Der Vorspung wird NOCH größer, die Preise bleiben hoch usw usf... da verstehe ich einfach nicht, wie man den Zusammenhang nicht sehen kann. Wäre AMD überall konkurrenzfähig gäbe es einen Preiskampf, und die 1080 hätte bei Release wohl um die 400 gekostet, die 1070 300, die 1060 bei 200.

    Der "dumme" Vergleich ist also nur ein solcher, wenn man ihn nicht versteht
    Perfekt auf den Punkt gebracht!
    CPU: i7 5820k @ 4600 Mhz (@ 1,310 V) - @ H2O , GPU: GTX 1080 (MSI Gaming X @ 2150 MHz) - @H2O MB: MSI X99A Titanium Arbeitsspeicher: 32 GB GSkill DDR4 2400 Mhz Gehäuse und NT:The Tower 900 Mod + Dark Base Pro11 650 Watt Wakü: (1x 480mm + Mora 360 Watercool)

  4. #74
    Avatar von CD LABS: Radon Project
    Mitglied seit
    09.08.2012
    Liest
    PCGH.de & Heft
    Beiträge
    4.752

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Kasmopaya_PCGH Beitrag anzeigen
    "Sind doch die kommenden 144Hz IPS 4K Monitore von Acer und Asus eh auf 2018 verschoben worden."
    Das höre ich zum ersten mal. Ich dachte nur Q4 2017?

    Wenn es wirklich 2018 wird, dann müssten die 21:9 Versionen der eierlegenden Wollmilchsäue ja nicht mehr weit sein. Ich überlege mir gerade darauf zu warten, wenn das jetzt eh alles verschoben wurde.

    Irgend wie schaut es um big Volta nicht gut aus für uns Gamer. Hört sich alles nach einer GPGPU Architektur an, nicht so effizient für Spiele. Vielleicht mit GDDR6 dann doch was für uns? Hauptsache 2019 kommt eine schnelle, effiziente Grafikkarte auf dem Markt. Hersteller wäre ja egal.(wobei mit G-Sync im Monitor wäre es dann doch nicht so egal) Hauptsache kein Thermi 2.0 oder so.
    Bitte sehr: Acer Predator X27: G-Sync-HDR-Monitor verspatet sich auf 2018

    Was die GSYNC-FreeSync-Bindung angeht: Monitore kann man auch wieder verkaufen, so oder so dürften auch FreeSync-Klone der beiden erscheinen. Ist ja nicht so, als könnte man Panels aus dem Himmel herbeizaubern, AUO wird die sicher auch an AMD-nahe Hersteller verkaufen.
    Schenker DTR 17, UHD GSYNC IPS 60hz (AUO109B), i7 7700K geköpft, GTX 1080 MXM, Clevo Z170, 4x 16 GiB HyperX Impact 2133er CL13 SODIMM, Mx300 1TiB M.2-SATA-AHCI, Killer 1535, Win10Pro.

  5. #75
    Avatar von Kasmopaya_PCGH
    Mitglied seit
    08.08.2016
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    46

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Für den Asus besteht anscheinend noch eine Chance auf Q4 2017: "Auf der Computex 2017 erklärte Asus bereits, dass die Veröffentlichung des hauseigenen ROG Swift PG27UQ vom dritten auf das vierte Quartal verschoben wurde."

  6. #76
    Avatar von Rollora
    Mitglied seit
    02.10.2008
    Ort
    Wo mich die Arbeit und die Familie so hintreibt :-) Ist flexibel mit mehreren Wohnsitzen
    Beiträge
    10.298

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Killermarkus81 Beitrag anzeigen
    Perfekt auf den Punkt gebracht!

    Danke! Balsam für die geschundene Seele
    Zitat von <<Painkiller>> : "Vergesst Chuck Norris, Spongebob grillt unter Wasser!"

  7. #77
    Avatar von Duvar
    No Adblocker!

    Mitglied seit
    09.03.2013
    Beiträge
    12.062

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Killermarkus81 Beitrag anzeigen
    Perfekt auf den Punkt gebracht!
    Stimme ich zu, denn selbst ich als eher "AMD Fan" hatte zuletzt 980 Ti-->1070-->1080--->1080 Ti.
    Langsam zweifele ich an mir selbst, ob ich noch als AMD Fan durchgehen kann
    Dank Ryzen halte ich mich noch gerade so über Wasser...
    GPU: AORUS GeForce GTX 1080 Ti Xtreme
    Mainboard: MSI B350 Tomahawk Arctic
    CPU: AMD Ryzen R7 1700 @ 3.2GHz @ 0.987V
    Memory: 32GB DDR4-3066 CL16-17-17-18-32 (2x16GB) (Dual Rank)
    Case: Corsair Crystal Series 460X RGB + 6x Corsair Air Series HD 120 LED RGB

  8. #78
    Avatar von CD LABS: Radon Project
    Mitglied seit
    09.08.2012
    Liest
    PCGH.de & Heft
    Beiträge
    4.752

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Rollora Beitrag anzeigen
    UHD wird noch lange keine große Relevanz haben. Die Monitore sind zu teuer und die Computer/GPUs die 4K befriedigend ermöglichen sind es auch. Da reden wir von einer Randgruppe unter der Randgruppe Gamer.
    (...)
    Ja, die Monitore sind zu teuer---aber das ist nichts, was nur UHD-Monitore auszeichnet, sondern alle Monitore. Die Panelindustrie dreht einfach mal seit 2015 Däumchen und das, obwohl sogar mit DP1.4 ein Anschluss vorhanden ist, der völlig andere Monitore ermöglichen würde. Preislich, Featuretechnisch und Qualitativ hat sich da nahezu nichts getan.

    Dennoch haben UHDs momentan das mit Abstand beste Preis-Leistungsverhältnis, das sollte man vielleicht beim berechtigten lamentieren bzgl. der Preise nicht vergessen:
    Samsung S22F350FHU Preisvergleich | Geizhals Deutschland
    Samsung U28E590D Preisvergleich | Geizhals Deutschland

    Oberes 100€, FreeSync, 60hz, 6bitTN, FHD. Unteres 300€, FreeSync, 60hz, 10bitTN, UHD.

    Und abermals, es ist die Faulheit der Hersteller, dass unterer nicht DP1.4 hat und dann mehr als 60hz liefern könnte, denn natürlich dürfte der Großteil der Panels z.B. zumindest 72hz (+20%) mitmachen.
    Zitat Zitat von Kasmopaya_PCGH Beitrag anzeigen
    Für den Asus besteht anscheinend noch eine Chance auf Q4 2017: "Auf der Computex 2017 erklärte Asus bereits, dass die Veröffentlichung des hauseigenen ROG Swift PG27UQ vom dritten auf das vierte Quartal verschoben wurde."
    Ah, sorry; die Aussage darin ist leider veraltet, mittlerweile hat auch Asus das bestätigt: Acer and ASUS Delay Their 4K 144 Hz G-Sync HDR Displays to 2018
    Zitat Zitat von Killermarkus81 Beitrag anzeigen
    Perfekt auf den Punkt gebracht!
    Zitat Zitat von Rollora Beitrag anzeigen

    Danke! Balsam für die geschundene Seele
    Dem kann ich mich nur anschließen.

    Noch ein paar Worte zu AMD, Vega 10 und OEM (AllInOne & Mobile): Auch da sieht es nicht gut aus, denn eigentlich wäre Vega 10 dank HBM natürlich für beides prädestiniert. Aber die schon bestätigt suboptimale Effizienz wird Mobile hart treffen. Da kann AMD dann nur versuchen über FreeSync und den Preis anzurücken. Bei AllInOne haben sie ja zumindest wieder Apple, allerdings werden sie nur in den iMac Pro drinnen sein und das dürften jetzt nicht so die höchsten Stückzahlen werden. Auch, weil Apple sich beim Prozessor für Core X entschieden hat, die Systeme also wohl für Silent-Fans eine ziemliche Katastrophe werden. (es sei denn Apple verlangt von Intel Sondervarianten mit vernünftigen TIM oder modifiziert selber)
    Das einzige, wo AMD GPU-mäßig so richtig wird abräumen können, wird hoffentlich RavenRidge sein---das interessiert aber Nvidia wohl mittlerweile so gar nicht mehr, denn SuperLowEnd hat Nvidia ja aufgehört zu bedienen, die 1030 ist ja jetzt die kleinste neue Karte.
    Schenker DTR 17, UHD GSYNC IPS 60hz (AUO109B), i7 7700K geköpft, GTX 1080 MXM, Clevo Z170, 4x 16 GiB HyperX Impact 2133er CL13 SODIMM, Mx300 1TiB M.2-SATA-AHCI, Killer 1535, Win10Pro.

  9. #79
    Avatar von Korn86
    Mitglied seit
    16.08.2008
    Liest
    PCGH.de & Heft
    Beiträge
    1.780

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Duvar Beitrag anzeigen
    Stimme ich zu, denn selbst ich als eher "AMD Fan" hatte zuletzt 980 Ti-->1070-->1080--->1080 Ti.
    Langsam zweifele ich an mir selbst, ob ich noch als AMD Fan durchgehen kann
    Dank Ryzen halte ich mich noch gerade so über Wasser...
    Wieso hast du von einer GTX980Ti auf eine GTX1070 gewechselt?
    Intel® Core™ i7-4790K@4,5GHz | Thermalright HR-02 Macho Rev.A | GIGABYTE GA-Z87X-D3H | Kingston HyperX Savage 16 GB 2400 MHz DDR3 | Samsung SSD 840 250GB + Samsung SSD 850 500GB | MSI GTX 980Ti GAMING 6G | Creative Sound Blaster X-Fi Titanium |
    be quiet! Dark Power Pro 650W | Fractal Design Define R5 White - Window | Windows 10 x64 | BenQ XL2430T | Logitech Z623/Logitech G930

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  10. #80
    Avatar von drstoecker
    Mitglied seit
    02.02.2009
    Liest
    PCGH.de
    Ort
    57567
    Beiträge
    4.998

    AW: Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

    Zitat Zitat von Gysi1901 Beitrag anzeigen
    Das hier und jetzt war auch vor einem Jahr entscheidend, wo sich die meisten mit einer Nvidia-Karte versorgt haben. Die wird es einen feuchten Dreck interessieren, wenn sie jetzt zum gleichen Preis 10 Prozent mehr Leistung bekommen. Die würden vielleicht bei 30 Prozent hellhörig werden.
    versorgt klingt irgendwie auf lange Sicht oder für immer. Du weist ja auch wenn was schnelleres/besseres kommt Fackeln die Spezis nicht lange. Ich Kauf mir ne neue Karte wenn ich Bock drauf habe und Vorallendingen wenn neue Technik/feautures anstehen, das macht nämlich richtig Bock! Ryzen ist auch nicht das schnellste auf dem Markt, hatte trotz 6700@4,5ghz gewechselt. Warum ? , weil ich Bock drauf hatte und mich das neue Produkt interessiert. Selbiges gilt für Vega. Das Vega nicht die Wunderwaffe überhaupt wird ist glaube jedem klar, dennoch erwarte ich ein top Produkt! Wenn mir Vega nächste Woche keinen Spaß mehr macht kaufe ich mir was anderes zum Spielen. Habe mir auch grad 3x 290er windforce Karten gekauft weil ich Bock drauf habe. Bastel ab und zu da ist es egal ob rot o. Grün. Auch hatte ich vor kurzem noch ne 980, die war auch ok. Das Vega nicht die schnellste Karte wird könnte durchaus stimmen, aber in größeren Auflösung ist der Vorsprung auch nicht mehr so extrem !

    Zitat Zitat von Rollora Beitrag anzeigen
    Natürlich sollte es der längste sein, wenn man 1 Jahr später kommt und wesentlich mehr Aufwand benötigt, um es zu erreichen.
    1 Jahr später
    größerer Chip
    mehr Strom
    spezieller, vergleichsweise teurer RAM.

    da wärs schon schön, wenn AMD es schon probiert mit roher Gewalt, man wenigstens einen "Pyrrhussieg" zu schaffen. Aber nichtmal das. Nein, man muss sich preislich dort einreihen, wo bei Release die "kleinen" Chips von Nvidia gewildert haben. Da hat der 300mm² Chip der 1080 und 1070 mehr gekostet, bzw die Grafikkarte.


    Stimmt. Dass man im letzten Jahr dadurch MILLIARDEN verschenkt hat ist völlig irrelevant. Die braucht man ja auch nicht für die Forschung. Mir ist nicht klar, warum manche Leute das nicht sehen wollen, dass
    1) jeder der sich in den letzten 2-3 Jahren Performancelösungen gekauft hat Nvidia kaufen "musste"
    2) jeder der Nvidia gekauft hat und zufrieden ist wohl eher wieder Nvidia kaufen wird
    3) die daduch verbreitete Mundpropaganda und Prestige "Nvidia sind die schnellsten und besten" nunmal sehr schwer wieder aus den Köpfen der Leute wegzukriegen ist
    4) Nvidia mit relativ kleinen Chips teure Grafikkarten verkauft hat und sich "dumm und dämlich" verdient hat. Schau mal die letzten Tage auf PCGH. Und dann 3 Monate davor. Und nochmal ca 3 Monate davor. Jedesmal steht da "Rekordgewinn für Nvidia". Ja wiel ohne Konkurrenz steckt man sich halt das ganze Geld ein. Und was heißt das: Nvidia kann NOCH mehr Forschen und ausgeben. Der Vorspung wird NOCH größer, die Preise bleiben hoch usw usf... Man leistet sich mal eben einen exklusiven Prozess, einen 800mm² Chip, wesentlich mehr aufgelegte Chips als die Konkurrenz um NOCH besser das FEld abzudecken von ganz unten bis ganz oben. Da verstehe ich einfach nicht, wie man den Zusammenhang nicht sehen kann. Wäre AMD überall konkurrenzfähig gäbe es einen Preiskampf, und die 1080 hätte bei Release wohl um die 400 gekostet, die 1070 300, die 1060 bei 200.

    Der "dumme" Vergleich ist also nur ein solcher, wenn man ihn nicht versteht
    Wenn du weiterhin die Preispolitik so unterstützt dann wird sich da auch nichts ändern. Deine Weisheiten könnte auch von einem Papagei kommen , sorry für den Vergleich, aber wer hier Millionen /Milliarden verschenkt oder nicht kannst du gar nicht wissen. Das es bei NVIDIA schon sagen wie immer Berg auf geht weis jedes Kind, die Produkte sind auch auch sehr gut keine Frage. Aber wenn ich mir die letzten Jahre so anschaue dann war der Vorsprung nie so Riesen groß wie hier immer so getan wird.
    RYZEN R7 1700 @ 3.00GHz by 0.944v + 16GB Kit Crucial Ballistix Tactical 2666MHz @ 2933MHz CL14 + MSI B350M Mortar Arctic
    #Custom Wakü
    #("VEGA XT")#SanDisk UltraII 960GB#BQ Straight Power E10 400W##Win10Pro64bit#Samsung C24F390#In Win 303#Logitech G810#Mad Catz R.A.T. 5

Seite 8 von 15 ... 456789101112 ...

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •