1. #161
    Avatar von Cook2211
    Mitglied seit
    11.03.2010
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Aachen
    Beiträge
    17.528

    "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von Locuza Beitrag anzeigen
    Kann man den Vergleich nicht irgendwie einfacher gestalten?
    Nvidias Marge ist über die Zeit immer gestiegen und Gaming stellt für Nvidia nach wie vor mit Abstand den größten Umsatzanteil dar, entsprechend kassiert Nvidia immer mehr und effektiv führt Nvidia kontinuierlich eine Preissteigerung durch.
    Ja, genau das macht NV, und darum ging es mir. So ist der Aufschlag vom Vorgänger des GK104 hin zur GTX680 gewaltig gewesen. Das Problem war, dass NV es einfach konnte, weil der GK104 sogar schneller war, als AMDs schnellste GPU. Und mit der TITAN hat man direkt mal eine ganz neue Preiskategorie für eine Single GPU eingeführt.
    Geändert von Cook2211 (11.02.2018 um 06:35 Uhr)
    Xbox One X - Playstation 4 Pro - Nintendo Switch
    MacBook Pro 15" 2017 - iPhone X 256 GB - iPad Pro 12.9 2017 256 GB

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #162
    Avatar von FortuneHunter
    Mitglied seit
    22.06.2011
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Am 2. Stern rechts und dann bis zum Morgen
    Beiträge
    5.793

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von Cook2211 Beitrag anzeigen
    Nein, Namen sind Schall und Rauch. An der GPU Größe.

    Beispiel Kepler Architektur:
    GK104 Performance Chip, GTX680): 294qmm
    GK110 (High-End Chip, GTX780Ti): 533qmm
    Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.

    Zitat Zitat von Cook2211 Beitrag anzeigen
    Das ändert nicht daran, dass ein Preisvergleich auf Basis der GPU Kategorie deutlich sinniger ist, als der, den du angestellt hast. Die 680 ist nicht die High-End GPU der Kepler Generation. Das ist die 780 (Ti), und die ist wiederum der tatsächliche Nachfolger der GPU aus 480/580.
    Die UR-Titan war NVIDIAs erste Karte die den semiprofessionellen Markt bedienen sollte. Sie war gar nicht für Gamer vorgesehen.

    Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.

    Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden. Möchte mal sehen wie du diese Prozessoren ohne Grafikausgänge fürs Gaming einsetzt. Denn nach deinem Selbstverständnis und der Kategorieneinteilung müssten das ja Gaming CPUs sein.

    Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
    Geändert von FortuneHunter (11.02.2018 um 07:25 Uhr)
    Gamer seit 1984
    Historie: ZX81, Thompson MO5, Schneider CPC6128, Amiga 500+1200, SNES, PS1
    Aktuell: PC (siehe Profil), PS4 Slim und nVidia Shield tablet

  3. #163
    Avatar von Cook2211
    Mitglied seit
    11.03.2010
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Aachen
    Beiträge
    17.528

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.
    Ich redete in Post #159 von GK104 und GK110: Selbe Architektur, selbe Fertigung. GK104 (GTX680): Performance. GK110 (GTX780Ti) High-End. Abzulesen an der GPU Größe.

    PS:

    PCGH sagt dazu im Test der GTX680 übrigens Folgendes:

    "Umso interessanter ist, dass es sich beim GK104 gar nicht um das HPC-Flaggschiff der Kepler-Reihe handelt - GK104 ist technisch gesehen vielmehr der Nachfolger des beliebten GF104/114 (GTX 460/560). Nvidias Geforce GTX 680 ist also eindeutig an Gamer adressiert. Ob das Auswirkungen auf die Compute-Leistung hat? Auch das überprüfen wir im Anschluss. GK110, sozusagen die "volle Packung" der Kepler-Architektur mit HPC-Fokus, soll Gerüchten zufolge nicht vor Herbst sein Stelldichein in Form von Desktop-Karten geben."

    Und genau darauf wollte ich hinaus.

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.
    Und? 780 und 780Ti sind trotzdem die Gaming High-End GPUs. Auch hier: Abzulesen and der GPU Größe.

    Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden.
    Nein, er ist keineswegs hinfällig. Siehe: Du weißt schon, GPU Größe.

    Willst du das Offensichtliche jetzt wirklich abstreiten?
    Seit Kepler sieht NVs Release Schema Folgendermaßen aus:
    Bei einer neuen Architektur werden zuerst die günstig zu produzierenden, da kleinen Performance Chips auf den Markt geworfen. Diese sind aber so schnell, dass man sie äußerst hochpreisig als GTX x80 Modelle verkaufen kann. Seit Kepler folgende Grafikkarten: GTX680, GTX980, GTX1080.
    Etwa 1 Jahr später bringt Nvidia dann den etatmäßigen Geforce High-End Gamer Chip auf den Markt. Diese sind immer bei gleicher Architektur und gleicher Fertigung deutlich größer, als die Performance Chips und leisten dementsprechend auch mehr. Seit Kepler: GTX780(Ti), GTX980Ti, GTX1080Ti.
    Das ist nun mal einfach so, und lässt sich nicht wegdiskutieren.
    Und mit diesem Vorgehen hat Nvidia die Marge deutlich erhöhen können.

    Das ist keine Kritik meinerseits, sondern nur ein Anmerken.

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
    Und diese Steigerungen lässt sich NV von uns Europäern von Gen zu Gen preislich immer mehr vergolden.
    Geändert von Cook2211 (11.02.2018 um 08:17 Uhr)
    Xbox One X - Playstation 4 Pro - Nintendo Switch
    MacBook Pro 15" 2017 - iPhone X 256 GB - iPad Pro 12.9 2017 256 GB

  4. #164

    Mitglied seit
    27.11.2013
    Liest
    PCGH.de & Heft
    Beiträge
    110

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Die GTX780 und 780Ti sind nur noch beschnittene TITANs.
    GK110 in 780Ti ist nicht beschnitten, sondern Vollausbau.

  5. #165
    Avatar von Cook2211
    Mitglied seit
    11.03.2010
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Aachen
    Beiträge
    17.528

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von ColonelPanic Beitrag anzeigen
    GK110 in 780Ti ist nicht beschnitten, sondern Vollausbau.
    Stimmt, in der 780Ti werkelt, genau wie in der damaligen Titan, der Vollausbau des GK110.
    Xbox One X - Playstation 4 Pro - Nintendo Switch
    MacBook Pro 15" 2017 - iPhone X 256 GB - iPad Pro 12.9 2017 256 GB

  6. #166
    Avatar von Sebastianmxx
    Mitglied seit
    28.10.2017
    Liest
    PCGH.de & Heft
    Ort
    Sachsen
    Beiträge
    59

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    "Nvidia Ampere ist für mich ..."

    - die Generation welche ich wohl gerne überspringen werde.

    Genauso wie aktuelle 6 Kerner von Intel ...
    RAM Erweiterungen die nicht nötig sind, 32 GB oder mehr bringen mir gar nichts ...

    Für mich wird es erst wieder interessant wenn wir mit den Bildschirmen weiter sind.

    Ich rüste auf, wenn es sehr gute Gaming Bildschirme ala: 4K 240Hz G-Sync o.Ä. gibt,
    welche sich dann aber auch mit der entsprechenden GPU mit viel Puffer für die Zukunft füttern lassen.

    Grafikqualität für FPS minimieren ist für mich absolut keine Option, wenn ich viel Geld in etwas investiere.
    INTEL Core i7 - 7700k / ASUS STRIX GTX 1080 8GB OC 11Gbps
    ASUS Prime Z270-K / 16 GB DDR4 Corsair 2400
    Samsung 960er EVO NVME, Kingston UV 400, Crucial MX500 1 TB SSD´s
    ALIENWARE AW2518H 240 Hz G-SYNC / 24 Zoll LED ASUS
    Corsair RM850X / MAD CATZ R.A.T 3 / ASUS GM50 / Logitech G413

  7. #167

    Mitglied seit
    29.09.2015
    Liest
    PCGH.de & Heft
    Beiträge
    1.777

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Die erste Titan die auf den Markt kam hatte zwar den großen Chip, war aber nicht der Vollausbau.
    Shader-/SIMD-/Textureinheiten 2.688/14/224

    Der kam erst mit der GTX 780 ti und der Titan Black.
    Shader-/SIMD-/Textureinheiten 2.880/15/240.
    Vorteil der Titans waren eben die 6GB VRam die bei der GTX 780 ti mit 3GB doch eher spärlich ausgefallen sind.

    Ampere ist für mich dieses Jahr wahrscheinlich kein Grund um eine neue Karte zu kaufen.
    Vielleicht nächstes Jahr mit der neuen TI.
    Home&Office PC: I7 2600K || Noctua NH- D14 || GA-P67A-UD4 ||EVGA GeForce GTX 1050 Ti SSC 4GB || 16 GB G Skill Ripjaws 1600 Mhz|| SSD 250 GB Samsung Evo und 500 GB HDD || Be Quiet Straight Power 10 400w

  8. #168
    Avatar von FortuneHunter
    Mitglied seit
    22.06.2011
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Am 2. Stern rechts und dann bis zum Morgen
    Beiträge
    5.793

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von ColonelPanic Beitrag anzeigen
    GK110 in 780Ti ist nicht beschnitten, sondern Vollausbau.
    Nope. Von den Cores nicht beschnitten, aber der Speicher ist halbiert. Das macht sie für den Semiprofessionellen Markt ziemlich nutzlos.

    Zitat Zitat von Cook2211 Beitrag anzeigen
    Und diese Steigerungen lässt sich NV von uns Europäern von Gen zu Gen preislich immer mehr vergolden.
    Wiederum Nope. In USA ist die Mehrwertsteuer (aus offensichtlichen Gründen) nicht eingepreist. Und mir war nicht bekannt, dass NVIDIA jetzt eine so starke Macht ist, dass sie den Eurokurs neuerdings mitbestimmen.

    50 US$ Steigerung von der GTX980 auf die GTX1080 wurden bei uns zu 132€ aufgrund des schlechten Wechselkurses und der darauf aufgeschlagenen Mehrwertsteuer. Mit beiden hat NVIDIA gar nichts zu tun. Aber wenn man so richtig schön ablästern will übersieht man das ja gerne mal.

    Rohstoffpreise, Fertigungsanlagen, Entwicklungskosten etc steigen ja auch nicht im Preis. Wie kann sich ein Unternehmen nur erdreisten seine Kosten auf die Produkte umzulegen ... Schließlich muss ja alles nach den Käufern gehen ... Geiz ist Geil klappt ja auch prima ... Sieht man an den Lebensmitteln, deren Rezepte auch immer mehr abgespeckt werden.
    Geändert von FortuneHunter (11.02.2018 um 08:43 Uhr)
    Gamer seit 1984
    Historie: ZX81, Thompson MO5, Schneider CPC6128, Amiga 500+1200, SNES, PS1
    Aktuell: PC (siehe Profil), PS4 Slim und nVidia Shield tablet

  9. #169
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    10.160

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    [...]
    Da macht die Unterscheidung nach technischen Daten wesentlich mehr Sinn.
    Wenn man sich mal die technischen Daten anschaut, dann hat man eine massive Steigerung zwischen der GTX580 und der GTX680 (3 mal mehr ALUs und 2 mal mehr Shadereinheiten) bei gleicher Transistoranzahl. Die Leistungssteigerung zwischen GTX580 zu GTX680 fiel mit 28,19% auch größer aus als die 18,91% zwischen GTX480 zu GTX580. Die darauffolgenden Generationen GTX680 zu GTX980 und GTX980 zu GTX1080 fielen mit jeweils über 60% noch wesentlich üppiger aus:

    Anhang 988134
    Perf/Watt, Perf/mm² und Perf/€ sind die einzigen Vergleichsmetriken die zum Schluss Sinn ergeben.
    3x mal ALUs sagen mir schließlich nichts, wenn ich nicht über den Takt Bescheid weiß und GFLOPs als FMA-Ops x Takt sagen mir am Ende auch nicht die Wahrheit, weil es nur beschränkt mit der praktischen Performance zu tun hat.
    Und ALUs = Shadereinheiten, in der Tabelle stimmt es mit Textureinheiten.
    Apropo Tabelle, die ist ansonsten voller Fehler.

    Der GP104 ist ~314mm² groß (1070(Ti)/1080), der GP102 ~471mm² und der GP100 ~610mm².
    Es gibt auch keinen die size Unterschied beim GK110, die sind alle ~561mm² groß.

    Der GM200 (980Ti) besitzt eine Chipgröße von ~601mm.

    Und woher kommen die Leistungssteigerungen in Prozent?

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Eine geschrumpfte DIE bei einem Sprung von 40nm auf 28 nm ist wohl zu erwarten.

    Die UR-Titan war NVIDIAs erste Karte die den semiprofessionellen Markt bedienen sollte. Sie war gar nicht für Gamer vorgesehen.

    Die GTX780 und 780Ti sind nur noch beschnittene TITANs. Alle Ti-Modelle danach wurden auf den Markt geworfen um fehlerhafte Chips nicht entsorgen zu müssen, sondern weiterzuverwerten und diese an Enthusiasten zu verkaufen. In der Pascal-Generation haben sie es dann auf die Spitze getrieben. Erst werfen sie einen beschnittenen Quadro Chip als neue Titan X auf den Markt, dann folgt die 1080Ti die nur einen defekt im Speicherinterface aufweist. Und weil diese von der Leistung einer Titan X entspricht, wird nochmal der Vollausbau als Titan XP nachgeschoben.

    Und dein Kategorienvergleich ist schon nach 2 Generationen hinfällig. Bei Keppler mag er noch passen, aber ab Maxwell sind die HighEnd-Chips für den Endverbraucher nicht mehr zu verwenden, das diese als GM100 und GV100 nur noch für den professionellen Markt in Clustern eingesetzt werden. Möchte mal sehen wie du diese Prozessoren ohne Grafikausgänge fürs Gaming einsetzt. Denn nach deinem Selbstverständnis und der Kategorieneinteilung müssten das ja Gaming CPUs sein.

    Ich für meinen Teil vergleiche lieber die Leistungs und Effizenzsteigerungen der jeweiligen Generationen. Den im Endeffekt ist es das was für mich als Gamer zählt und an dem ich ausrichte, was ich zu zahlen bereit bin. Und hier hat NVIDIA in jeder Generation seit der GTX480 (mit beachtlichen Leistungssteigerungen in den letzten beiden Generationen) abgeliefert.
    Es stellt nur keine Regel dar, dass ein neuer Fertigungsnode dafür verwendet wird die Chipgröße massiv zu senken, entsprechend war das nicht zu erwarten.

    Und der Kepler vs. Fermi-Vergleich ergibt bezüglich der Kategorisierung schon Sinn.
    Ein über 500mm² großer Chip, mit einem hohem FP64-Verhältnis, künstlich gedrosselt für den Konsumenten.
    Nvidia hat nur die Handhabung bezüglich Einführung und Preis geändert.

    Es gibt keinen GM100-Chip, nur einen GM200 und der wurde ja als 980Ti verkauft.
    Den GV100 kann man als Titan V für eine Arsch voll Kohle kaufen und ist aktuell die schnellste GPU im Gaming und besitzt Display-Ausgänge.

    Den GP100 konnte man nicht über einen Shop für Einzelhandelskunden kaufen, sondern höchstens als GP100 Quadro-Version mit Display-Ausgängen.
    Und Gaming CPUs stellen die alle natürlich nicht da.

    Und naja, wie gesagt, Nvidias Marge ist ständig gestiegen (61,9% Bruttomarge in Q4!) und die Gaming-Sparte stellt den größten Umsatzfaktor dar.
    Entsprechend muss ich mir den Kopf nicht mit Mühe und Not zerbrechen indem ich die Chipgröße vergleiche, die UVP/den Straßenpreis, die Inflationsrate, den Zeitrahmen, Produktionskosten usw.
    Ich weiß das Nvidia mehr Gewinn rauspresst im Vergleich zu früher und das ich als Kunde relativ weniger bekomme, als damals.
    Ganz so simpel ist es natürlich auch nicht, aber die Perspektive kommt auch auf einen Punkt mit deutlich weniger Faktoren die man krude in Relation ziehen muss und sehr unterschiedlich ausfallen.
    Geändert von Locuza (11.02.2018 um 08:46 Uhr)

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  10. #170

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Irgendwie freue ich mich gar nicht über die nächste Generation. Vielleicht kommt das noch.
    Aber ich habe mit einer 1080Ti und einer Ultra Wide UXGA Auflösung keinen Grund aufzurüsten, damals hat immer irgendein Spiel das Aufrüsten erfordert.
    Den aktuellen GamingMonitor werde ich wohl noch eine lange Zeit behalten. Wenn die neue Generation nicht gewaltig schneller in den niedrigen Auflösungen ist, dann gibt es für mich dieses mal keinen Grund aufzurüsten.

Seite 17 von 21 ... 7131415161718192021

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •