Seite 16 von 21 ... 6121314151617181920 ...
  1. #151
    Avatar von yummycandy
    Mitglied seit
    02.07.2016
    Liest
    PCGH.de & Heft
    Ort
    Ankh-Morpork
    Beiträge
    843

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von matty2580 Beitrag anzeigen
    Du bist furchtbar, Es ist nachts um 04:00 Uhr, Zigaretten und Alkohol sind alle, und du willst dich über solchen Quatsch mit mir streiten.
    Ich hab noch russischen Wodka und selbstgedrehte. Wäre das ok?

    Zitat Zitat von zotac2012 Beitrag anzeigen
    Eine GTX 2070 mit 11GB VRam in Form von GDDR6, das gepaart mit der Leistung einer jetzigen GTX 1080Ti und dazu das KI-Feature, das hätte was!
    KI bzw, AI sind bis jetzt theoretische Konstrukte und nich in Software gemeißelt. Bei Games macht sowieso jeder was anderes. Ehe sowas wie tensorflow in Games etabliert ist, dauert es noch eine Weile. Und die Anwendungsmöglichkeiten sind im Gegensatz zum Profibereich auch eher gering. Wird zwar belächelt, aber für mich wäre sowas wie "Sword Art Online" das nächste große Ding. Natürlich ohne die bekannten Konsequenzen.
    Geändert von yummycandy (11.02.2018 um 04:15 Uhr)
    FX8320 | Macho HR02 | 32GB | 270x | 500GB 850EVO | 10TB HD | Zyxel NAS 542 8TB | Nanoxia DS2 | VN279QL (AMVA+) | Xonar DGX | CM Sentinel III | Logitech G710+ | Logitech G933 | Teufel Concept E 400
    ----
    http://www.sysprofile.de/id183798

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #152
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    10.385

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von Atma Beitrag anzeigen
    Die Architekturänderungen gehen mit TBR einher. Sie waren nötig, sonst wäre kein TBR möglich gewesen.
    Hauptsächlich nur die Vergrößerung vom L2$, um genug Platz für das Tiled-Caching zu haben, aber Maxwell hat deutlich bessere SM-Cluster, völlig unabhängig vom TBR.
    Maxwell hat die Latenz für FMA-Operationen gesenkt, statt 9 Takte braucht es nur 6, dass Register-File kann 128 ALUs füttern, bei Kepler waren es 192 ALUs, wo Kepler niemals seine theoretische ALU-Leistung erreicht hat.
    Das Cache-System fällt auch anders aus, dass TMU-Verhältnis hat Nvidia reduziert, für eine bessere Effizienz.
    Die Delta-Color-Compression wurde verbessert, die Geometrie-Engines und vieles mehr.

    Zitat Zitat von matty2580 Beitrag anzeigen
    Du bist furchtbar, Es ist nachts um 04:00 Uhr, Zigaretten und Alkohol sind alle, und du willst dich über solchen Quatsch mit mir streiten.
    [...]
    Diskutieren, nicht streiten.
    Du hast etwas behauptet, ich stimme dem argumentativ nicht zu, du kannst darauf wieder argumentativ antworten oder schlafen gehen.
    Entsprechend gn8.

  3. #153
    Avatar von yummycandy
    Mitglied seit
    02.07.2016
    Liest
    PCGH.de & Heft
    Ort
    Ankh-Morpork
    Beiträge
    843

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Also im Prinzip Frontend verbessert und Pipeline optimiert. Größerer Cache an sich, verbraucht natürlich mehr Strom. Wenn aber gleichzeitig die ISA überarbeitet wird, kann das widerum Strom sparen. Wobei ich die Kompression für die beste Neuerung halte. Das ist der Grund, warum nVidia sein SI so reduzieren konnte, was natürlich Kosten spart.
    FX8320 | Macho HR02 | 32GB | 270x | 500GB 850EVO | 10TB HD | Zyxel NAS 542 8TB | Nanoxia DS2 | VN279QL (AMVA+) | Xonar DGX | CM Sentinel III | Logitech G710+ | Logitech G933 | Teufel Concept E 400
    ----
    http://www.sysprofile.de/id183798

  4. #154
    Avatar von matty2580
    Mitglied seit
    09.09.2011
    Ort
    Potsdam
    Beiträge
    5.500

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Danke das du Atma geantwortet hast Locuza.
    Das Argument mit der Delta-Color-Compression war noch so halb im akoholisierten matty-Gehirn.
    Ich muss jetzt aber trotzdem schlafen, gn8....
    "Zensur? Nicht mal im Traum, der Beitrag ist öffentlich einsehbar im Fischbecken, wo man Dein Meisterwerk bewundern kann...Nö, nix Zensur, man kann Deinen Beitrag immer noch lesen. Und wenn Dir das so wichtig ist: pinne es zusätzlich irgendwo an einen Laternenmast. Das kann Dir niemand verwehren...Und ja, Moderatoren beurteilen, ob ein Beitrag in einen Thread gehört oder nicht." rumpel01 (ComputerBase-Mod)

  5. #155
    Avatar von yummycandy
    Mitglied seit
    02.07.2016
    Liest
    PCGH.de & Heft
    Ort
    Ankh-Morpork
    Beiträge
    843

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Gute Nacht an meinen Nachbarn matty
    FX8320 | Macho HR02 | 32GB | 270x | 500GB 850EVO | 10TB HD | Zyxel NAS 542 8TB | Nanoxia DS2 | VN279QL (AMVA+) | Xonar DGX | CM Sentinel III | Logitech G710+ | Logitech G933 | Teufel Concept E 400
    ----
    http://www.sysprofile.de/id183798

  6. #156
    Avatar von TheGoodBadWeird
    Mitglied seit
    19.04.2013
    Ort
    Im Dungeon links, dann rechts
    Beiträge
    1.051

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von Locuza Beitrag anzeigen
    Volta ist eben viel mehr als nur Tensor-Cores, Volta verwendet eine neue ISA, also eine neue Maschinensprache, besitzt ein anderes Cache-System, was allgemein Auswirkungen auf die Performance hat etc.
    Volta hatte neben Tensor-Cores auch "Independent Thread Scheduling", was im Prinzip eine bessere Version von AMDs Async Compute ist. Verbessert in dem Sinn, dass Nvidia keine extra Hardware auf dem DIE verbauen muss und daher mehr Platz für zusätzliche Shader alias CUDA-Cores hat.
    -Das dürfte einige Flaschenhälse in z.B. DX12 / Vulkan beheben. Dazu kommen sicher diverse Verbesserung im Cache und memory management /memory-controller dazu.

    Wenn ich Volta oder einen möglichen Ampere kurz beschreiben sollte, würde ich sagen, die Architektur geht auf massive Parallelisierung und stark erhöhten Datendurchsatz bei gleichzeitig verringerten Zugriffszeiten.

    Diese Kombination hat einiges an Potential. Ein Teil davon wird sicher auch erst mit GDDR6 möglich. Auf die technischen Details bin ich durchaus gespannt.


    Zitat Zitat von Locuza Beitrag anzeigen
    Und es ist unwahrscheinlich das Nvidia Mrd. in die Entwicklung von Volta investiert hat, um für den Consumer-Bereich nichts davon wieder zu verwenden, wo sie bisher mit Abstand den größten Umsatz genießen.
    Nvidia wird nicht auf der faulen Haut gelegen haben. Das wird immerhin ihre Platform für die nächsten 2-3 Jahre. Um Wachstum zu generieren braucht man einfach stetige Verbesserungen. Da nimmt Nvidia sicher mit was sie haben.

    Zitat Zitat von Locuza Beitrag anzeigen
    Ich würde behaupten das sich Nvidia zeitlich gar nicht bzw. wenig zurückhält, denn Pascal erschien 2016, man musste 16nm umsetzen und die Produktlaufzeit lag häufig bei ungefähr 2 Jahren.
    4 Jahre halte ich entsprechend für eine verzerrte und übertriebene Zeitrechnung.
    Zurückgehalten hat sich Nvidia eher nicht. Eher mussten sie auf ausgereifte Halbleitertechnologien wie GDDR6 und 12nm FF+ bei TSMC warten. Maxwell und Pascal haben herausgeholt was an Technik zu diesem Zeitpunkt machbar war, hatten aber gleichzeit einen hohen Fokus auf Wirtschaftlichkeit.

    Ampere nutzt viele neue Technologien. Ich hoffe das wird am Ende nicht zu teuer.

  7. #157
    Avatar von FortuneHunter
    Mitglied seit
    22.06.2011
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Am 2. Stern rechts und dann bis zum Morgen
    Beiträge
    6.266

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von yummycandy Beitrag anzeigen
    2 Stufen höher, mit nur einer Generation? Wo soll das herkommen? Eine Stufe, 1080=2070 könnte ich ja noch verstehen. Aber wirklich, warum sollte nVidia jetzt das Tempo so hoch halten? Ein besserer Refresh von Pascal sollte schon reichen. Wenn überhaupt was kommt.

    Und ja, würde mir nicht gefallen, siehe meinen vorherigen Posts hier im Thread.

    PS. So ein Gefühl wie von 68000 zu 68030/50/50 AGA oder Rage 2c zu Voodoo, wäre mal wieder toll.
    Haben sie beim letzten Sprung (ohne Druck) doch auch schon gemacht ... Die GTX1070@Stock hat das Tempo einer GTX980Ti@Stock übertroffen. Und welcher Druck war von AMD-Seite zu diesem Zeitpunkt zu spüren? Die Fury zumindest nicht.

    Und das Gefühl vom 68000 auf den 68030/50/55 AGA wirst du so schnell nicht mehr erleben, außer du wechselst von einer 1050Ti auf ne Titan V . Innerhalb der gleichen Klasse wird schwierig.

    Warum NVIDIA das machen sollte? Nun um einen Stiefel in die Tür der nächsten VR/AR-Generation zu bekommen deren Displays mehr Leistung erfordern. Das VR/AR für NVIDIA ein Thema ist sieht man schon am Programm der nächsten GTC: AI & Deep Learning Conference | GTC 2018 | NVIDIA
    Unabhängig von der Konkurrenz zu AMD gibt es auch noch immer Hardwareerwägungen und Trends die man bedienen muss.

    Konkurrenzdruck ist nicht der einzige Innovationsmotor für ein Unternehmen.
    Gamer seit 1984
    Historie: ZX81, Thompson MO5, Schneider CPC6128, Amiga 500+1200, SNES, PS1
    Aktuell: PC (siehe Profil), PS4 Slim und nVidia Shield tablet

  8. #158
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    10.385

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von yummycandy Beitrag anzeigen
    Also im Prinzip Frontend verbessert und Pipeline optimiert. Größerer Cache an sich, verbraucht natürlich mehr Strom. Wenn aber gleichzeitig die ISA überarbeitet wird, kann das widerum Strom sparen. Wobei ich die Kompression für die beste Neuerung halte. Das ist der Grund, warum nVidia sein SI so reduzieren konnte, was natürlich Kosten spart.
    Die Delta-Color-Compression wurde schon in Fermi in beschränktem Sinne umgesetzt, bei Kepler war es die zweite Generation, aber bei Maxwell schlug es dann völlig durch, wobei das wahrscheinlich nicht nur am DCC-Prinzip liegt.
    DCC und TBR sind zwei Konzepte, die in Kombination sehr gut funktionieren und Nvidia schafft seit Maxwell brutale Durchsatzraten, welche AMD z.B. mit Vega nicht erreicht, obwohl Vega einen DSBR implementiert hat, ebenfalls eine ausgefallene DCC besitzt, die ROPs sind auch Clients vom L2$ und trotzdem sind die Ergebnisse nicht so gut wie bei Nvidia.
    Irgendetwas fällt bei Nvidia deutlich besser aus, als bei der Konkurrenz, weswegen Nvidia so gute Bandbreitenergebnisse erreicht.

    Zitat Zitat von TheGoodBadWeird Beitrag anzeigen
    Volta hatte neben Tensor-Cores auch "Independent Thread Scheduling", was im Prinzip eine bessere Version von AMDs Async Compute ist. Verbessert in dem Sinn, dass Nvidia keine extra Hardware auf dem DIE verbauen muss und daher mehr Platz für zusätzliche Shader alias CUDA-Cores hat.
    -Das dürfte einige Flaschenhälse in z.B. DX12 / Vulkan beheben.
    [...]
    Das sind zwei relativ unterschiedliche Baustellen.
    Async Compute zielt darauf ab, den Aufgabentyp zu sortieren, um der GPU die Ausführung und Verwaltung der Ressourcen zu erleichtern.
    AMD kann 3D- und Compute-Context auf einer CU laufen lassen, dass kann Nvidia nicht und ITS bezieht sich auf die Verwaltung der Threads innerhalb einer Threadgroup und nicht darauf, wie das State-Management in der Hinsicht aussieht.
    Und die ITS-Maschinerie ist nicht kostenlos, Volta muss dafür den Program Counter und den Stack-Call pro Thread verwalten und ein Convergence Optimzer achtet noch darauf die Threads effizient zu gruppieren.

  9. #159
    Avatar von Cook2211
    Mitglied seit
    11.03.2010
    Liest
    PCGH.de (Abo) & Heft (Abo)
    Ort
    Aachen
    Beiträge
    18.295

    "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Wodran machst du fest, dass die GTX680 nur der Performance-Chip ist ... An NVidias interner Modellbezeichung? Dann müsstest du aber den GP 100 als High-End Chip einordnen, denn die GTX480 hatte noch die Typbezeichung GF100. Versuch mal eine GP100 oder GV100 in deinen PC zu schrauben, denn nach der Typbezeichungs-Theorie müssten es ja beides die HighEnd Grafikkarten ihrer Generation sein.
    Nein, Namen sind Schall und Rauch. An der GPU Größe.

    Beispiel Kepler Architektur:
    GK104 Performance Chip, GTX680): 294qmm
    GK110 (High-End Chip, GTX780Ti): 533qmm

    Beim GF100 der GTX480 handelte es sich um den High-End Chip der Fermi Generation, welcher aus bekannten Gründen, für die 580 verbessert und dort im Vollausbau verbaut wurde.

    Zitat Zitat von FortuneHunter Beitrag anzeigen
    Wenn man sich mal die technischen Daten anschaut, dann hat man eine massive Steigerung zwischen der GTX580 und der GTX680 (3 mal mehr ALUs und 2 mal mehr Shadereinheiten) bei gleicher Transistoranzahl. Die Leistungssteigerung zwischen GTX580 zu GTX680 fiel mit 28,19% auch größer aus als die 18,91% zwischen GTX480 zu GTX580. Die darauffolgenden Generationen GTX680 zu GTX980 und GTX980 zu GTX1080 fielen mit jeweils über 60% noch wesentlich üppiger aus:
    Das ändert nicht daran, dass ein Preisvergleich auf Basis der GPU Kategorie deutlich sinniger ist, als der, den du angestellt hast. Die 680 ist nicht die High-End GPU der Kepler Generation. Das ist die 780 (Ti), und die ist wiederum der tatsächliche Nachfolger der GPU aus 480/580.
    Geändert von Cook2211 (11.02.2018 um 06:34 Uhr)
    Xbox One X - Playstation 4 Pro
    MacBook Pro 15" 2017 - iPhone X 256 GB - iPad Pro 12.9 2017 256 GB

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  10. #160
    Avatar von Locuza
    Mitglied seit
    30.10.2009
    Ort
    BW
    Beiträge
    10.385

    AW: "Nvidia Ampere ist für mich ..." Das meinen die PCGH-Redakteure

    Für mich persönlich ist die Antwort relativ einfach, Nvidias Marge ist über die letzten Jahre immer gewachsen und Gaming stellt nach wie vor mit Abstand den größten Umsatzanteil dar, entsprechend führt Nvidia effektiv seit Jahren eine Preissteigerung durch.

Seite 16 von 21 ... 6121314151617181920 ...

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •