Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

die 2080 wird 20%-30% mehr Leistung als die 1080Ti haben - ähnlich wie bei 1080 und 980Ti
und Poor Volta war ja wohl die lächerlichste "Werbung" überhaupt wenn dann beim Start nichtmal die 1 Jahr alte 1080 schlagen konnte - außer natürlich beim Stromverbrauch und somit bei der Hitzeentwicklung

Aber 3GB weniger Speicher haben.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Ich bezweifle stark, dass nVidia Ende März eine GPU veröffentlichen wird, die breit verfügbar sein wird (schon aufgund der von nVidia bezügl. der Verfügbarkeit getroffenen Aussagen).
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Auch Du kannst Dich irren - die neuen Ampere GPU werden massenweise auf 'Halde' produziert, um einen optimalen Nvidia Grafikkarten Launch hinzulegen .... nicht so wie AMD (Vega for Gamers) ;o) ^^

Nvidia überrascht oft .... Tesla P100 HBM2 schon in 2016 (April) / GTX 1080 & 1070 April 2016 / Titan Xp April 2017 / Tesla V100 Mitte 2017 / Titan V Dezember 2017 .... => April 2018 Ampere & Turing (AI) !

=> NVIDIA Beats AMD To Market On HBM2 | Computer Hardware Reviews - ThinkComputers.org
 
Zuletzt bearbeitet:
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Missionierung modus an

Nvidia hat keinen grund etwas am markt zu ändern sondern kann sich beruhgigt auf gddr6 und kostenoptimierung konzentrieren
Was heisst das
Das bedeutet das nvidia einfach pascal gpu wie sie sind nimmt diese auf 16nm+ fertigen lässt (mehr takt möglich)
Dann den SI auf 128 96 64bit verkleinert und die karten in UVp erhöht
bedeutet gtx1180 1170 1160 1150ti in gp204 gp 206 gp208
Wieso das ganze
chips werden gleich groß sein man spart am SI was kosten senkt bei den chipsproduktion
Weniger Spannungswechsler
man verwendet das neue gddr6 um zu testen wie weit man den si je Gb treiben kann
aktuell wäre das 16bit auf 1GB vram mit gddr6
Weil es sich hier um quadchannel ram handelt
ist dieser fürs mining nicht geeignet (bisher)

Kosten gesenkt für die gpu Belichtung weil mehr stück je wafer
an dem design gespart
Die UVP angehoben
und sich selbst kein druck gemacht
Win wins win für nvidia
Der gamer wird dieselbe leistung haben wie jetzt nur mit etwas mehr gpu Takt ich rechne mit durchschnitt 2ghz @stock, ab gtx1060 -100mhz bei gp204
Volta wird kommen am PC und als 4K und VR gaming Karte beworben ab 2020
das ist aber schon der high end chip den man schon jetzt als titan v kaufen kann
Nur wird dieser dann in 7nm produziert und mit gddr6 ausgeliefert mit 16gb 256bit
Und auf dem namen hören gtx xx80ti
Zuvor kommen gamer karten mit gv104 gv106 mit den üblichen preisen

leistung gv104 etwas über 10% gp102 192bit 12gb
leistung gv106 etwa gtx1080 gp104 128bit 8gb

ab 2021 wird spannend dann kommen von amd und nvidia erste MCM gpu auf dem markt
Das wird dann so sein wie ryzen am desktop
Diese gpu werden als VR gaming vermarktet dx12 only mit legacy support auf VM
ja diese werden noch alte games normal laufen können nur wird das nur ein chip tun auf dem mcm
Das ist kein SLi oder crossfire sondern eher die Konsequenz von Singlethread limit der cpu.
Womit gtx1080ti als letzte Steigerung ansehen kann volta ist zu mächtig um noch mit normalen auflösungen ausgelastet werden kann mit directx
Denn volta vollausbau 5120shader müssen erstmal genutzt werden können.
beim gpgpu sind mehr shader immer besser.
Normale auflösung
1080p
1200p
1440p
alles darüber ist mit einen desktop monitorgröße nicht mehr sinnvoll zu skallieren insbesondere nicht mit älterer software
Das größte was man sich auf dem Tisch stellt ist 32" und selbst das ist extrem
ich würde nicht über 27" gehen mit max 1440p und da brauche ich fast nee lupe
Windows standard dpi ist 96 = 0,264mm
1080p 0,29mm auf 27" (0,26mm auf 24")
1440p 0,21mm auf27"
3840p 0,14mm auf 27"

ich will den sehen der das in Windows standard dpi noch lesen kann auf min 1,0m Abstand
Die Schrift und Schaltflächen halbieren sich von 1080p aus
Dazu den größeren desktop
man hat schlicht nicht mehr alles im blick
Der Mensch neigt zum fokussieren
Und die windows gui ist das eine Programme sind das andere und die sind in der Regel strikt auf eine dpi festgelegt.
leider gehört das in einen gpu thread dazu weil wir am limit sind bei Singlegpu leistung nicht die chips sind am ende sondern die cpu beim Takt
den serielle rechnungen können nur stark beschränkt parallelisiert werden
das Maximum war faktor 2 und das auch nur weil man die last des OS entfernt hat
Solange es keine unbegrenzte coreclock gibt mit etwa 6-8GHz cpu wird sich der Markt klar richtung multi chip Modul Ausrichten.
 
Zuletzt bearbeitet:
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Würde mich auch nicht wundern wenn nV eine eigene API zu dieser Saison im Gepäck hat. Zeit genug ist ja nun verstrichen seit Mantle erschien um zum ultimativen Gegenschlag auszuholen und Soft und Hardware hocheffizient abzustimmen. :D

nVidia hat Vulkan mit verabschiedet und benutzt außerdem DX11 und 12. Warum sollte es noch eine API geben?
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Richtig auf Nvidia Hardware Optimiert, sind da schnell 30-40% höhere FPS drin - wenn man es richtig macht .... 'Nvidia Gameworks API' !
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Richtig auf Nvidia Hardware Optimiert, sind da schnell 30-40% höhere FPS drin - wenn man es richtig macht .... 'Nvidia Gameworks API' !

oder einfach vulkan, gleicher geschwindigkeitsschub, aber es freuen sich alle. vor allem die entwickler. warum soll man dinge unterstützen, die nur auf einer einzigen platform funktionieren? was kommt raus? spiele, die ne schlechte performance haben, da es auf 5 verschiedene apis umgesetzt werden musste.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

So lange es keine 4K+120Hz Monitore über 30 Zoll gibt kann ich auch auf die 5080Ti warten. Für 60fps in 4K reicht ne TitanXP nun wirklich immer wenn man halbwegs vernünftig ein Optionsmenü bedienen kann.
...und wenns diese Monitore gibt auch wiedern halbes Jahr länger bis ich wieder Geld für ne GPU habe nachdem der TFT dann ja alles verschlungen hat. :ugly:

Bis dies beides erhältlich ist, kannst du auf beides zusammen angespart haben ;)
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Offen gesagt ist mir der Name der kommenden Generation dermaßen egal... in Anbetracht der aktuellen GPU Preisentwicklung interessiert mich nur der Preis. Ich fürchte dass eine GTX xx80 um die 900€ kosten wird. :nene:
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Bis dies beides erhältlich ist, kannst du auf beides zusammen angespart haben ;)

Da haste Recht. Mehr oder weniger hab ich das schon fast... die letzten rund 2 Jahre kam ja nichts für mich Interessantes. :ka:
So lange wie diese Runde hab ich mein ganzes Leben noch nie gewartet beim aufrüsten. Und ich mach das schon über 20 Jahre. :ugly:
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Warum nicht einfach mehr produzieren?
Dadurch bleiben die preise unten und keiner muss irgendetwas kastrieren.

Muss ich dann demnächst überteuerte mining Karten kaufen um eine vollwertige GPU zu bekommen?

Durch die Beschneidung wird sie auch langsamer in anderen Anwendungen/APIs, zb. OpenGL, Vulkan, OpenCL, nvenc(decoder)

NVIDIA beschneiden so schon ihre karten aber demnächst haben wir eine dia-show in Anwendungen außerhalb von games

Durchgängig niedrige Preise als solche sind nicht im Interesse eines Herstellers. Als optimal wird für gewöhnlich ein Portfolio erachtet, dass jedem Interessenten gerade eben so dass bietet, was er braucht, zum höchsten Preis, den er zahlen kann. Deswegen kosten ein paar 100 MHz mehr schnell 100 Euro Aufpreis und ein und zwei technisch identische CPUs können sich um 100 Prozent im Preis unterscheiden, nur weil bei einem Modell die Multi-CPU-Fähigkeit freigeschaltet wurde. Im GPU-Markt sind die Preise aber mittlerweile so gestiegen, dass es für viele Spieler gar keine akzeptablen Angebote mehr gibt. Hier gehen Nvidia (und auch AMD) Einnahmen verloren, weil Käufe aufgeschoben werden und gegebenenfalls fließt das Geld am Ende in andere Investitionen. Mit mehr Produktion und niedrigeren Preisen könnte man dieses Problem zwar lösen, hätte dann aber höhere Ausgaben und umgekehrt würde man jetzt den Minern weniger Geld abnehmen, als diese zu zahlen bereit sind.

Eine mögliche Lösung sind getrennte Sparten. Einmal teure Miner-Modelle mit voller Compute-Leistung (ich schlage als Namen mal "Turing" vor) und daneben Gamer-Produkte ("Ampere"?) zum niedrigeren Preis, aber mit eingeschränkter GPGPU-Fähigkeit. So kann Nvidia die volle Zahlungsbereitschaft beider Zielgruppen abschöpfen. Positiver Nebeneffekt: Spieler-Grafikkarten waren schon vor dem Mining-Boom wegen knappen VRAMs zunehmend im Preis gestiegen und dieses Problem hält an. Miner brauchen bislang aber nur wenige Gigabyte, man könnte also knappe Speicherchips auf den Miner-Modellen einsparen, weil diese gar nicht Spiele-tauglich sein sollen.


Kann mir jemand den Grund erklären, wieso Nvidia so rummosert bzw sogar lügt? Sie haben ja inklusive Ceo jetzt mehrfach scheinbar gelogen. "Es kommt keine neue Gamer Karte". Was hat man davon?

Hast du diese Aussage wortwörtlich gehört oder ist sie eine Zusammenfassung deiner Interpretationen mehrerer Andeutungen? Letztere gab es nämlich durchaus viele, aber wie immer bei erfahrenen Marketing-Profis lassen sie Scheunentor-große Lücken für diverse Aktionen, ohne eine Lüge darzustellen. Ich persönlich erinnere mich, dass "Pascal weiterhin das beste Produkt für Gaming ist" (ohne Zeitangabe komplett wertlos) und dass "zur GTC keine neue Grafikkarte in den Handel kommen" (wäre auch sehr überraschend, wenn ein neu vorgestelltes Produkt nicht mindestens eine Woche bis in die Regale bräuchte).
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Was sich alle schon verrückt machen. Vor Sommer gibts eh nichts vernünftiges neues in den Regalen. DIe Mehrleistung wird sich arg in Grenzen halten. Beide Hersteller werden Ihre aktuellen Chips etwas tweaken und Refreshs auf den Markt hauen, das wars.

Miningkarten hätten die Hersteller schon längst zur Verfügung stellen können wenn Sie es denn wöllten, Nvidia hat aber die gute Gelegenheit via GDDR6 wirklich Minerunfreundliche Karten zu konzipieren, zumindest fürs erste.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Wenn die 1180/2080 für "early adopter" für roundabout 750-800 € zu bekommen ist, wäre ich schon ganz zufrieden.

Hört sich nach nem realistischem Preisrahmen an.

Mal gespannt, ob alle da so mitspielen.
Nvidia, Händler und Miner.

Lassen wir uns überraschen, wie's wirklich aussehen wird.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Hört sich nach nem realistischem Preisrahmen an.

Mal gespannt, ob alle da so mitspielen.
Nvidia, Händler und Miner.

Lassen wir uns überraschen, wie's wirklich aussehen wird.

800Taler für ne GraKa? Das käme mir nicht in die Tüte, beim besten willen nicht.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Werden die Karten nur beim Mining eingeschränkt, oder auch bei anderen Anwendungen wie CUDA oder Folding@Home?
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

[...]
Nvidia hat aber die gute Gelegenheit via GDDR6 wirklich Minerunfreundliche Karten zu konzipieren, zumindest fürs erste.
Die Byte-Size bleibt bei GDDR6 pro Operation mit 32-Bytes die gleiche wie bei GDDR5, entsprechend wird es beim Mining wahrscheinlich keine negativen Auswirkungen geben?
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

Mal abwarten was nVidia im Köcher hat. Das Ampere nur ein lahmer Aufguss wird bezweifel ich stark. Pascal war das ja schon. Würde mich nicht wundern wenn uns ein sattes neues Featurepack um die Ohren gehauen wird. Würde mich auch nicht wundern wenn nV eine eigene API zu dieser Saison im Gepäck hat. Zeit genug ist ja nun verstrichen seit Mantle erschien um zum ultimativen Gegenschlag auszuholen und Soft und Hardware hocheffizient abzustimmen. :D

Ein lahmer Aufguss? Das war der größte Performancesprung seit Generationen gewesen. Immerhin brachte die GTX 1080 über 70% Mehrleistung gegenüber dem einstmaligen Flagschiff GTX 980. Die Titan Maxwell und GTX 980Ti blende ich mal aus, weil die nicht die direkte Konkurenz darstellen. Die haben als Feindbild die 1080Ti und die Titan Xp und beide Modelle übertrumpfen ihre Vorgänger ebenfalls um mindestens 70%.
 
AW: Nvidia Ampere: Release möglicherweise doch zur GTC Ende März?

bei gddr6 handelt es sich um qdr ram
Unterschiede sind
gddr5
8-16gb/s
1 channel auf ddr
gddr6
8-16gb /s
2 channel auf ddr
dabei muss gesagt werden das die Speicherchips in 32mb Blöcke organisiert sind
Das bedeutet aber nicht das das SI das auch ist
Die bandbreite richtet sich nach dem Takt des ram mal channels mal effektiver datenfluss
bedeutet aus
gddr5 2ghz/2gbits = 8gb/s
gddr6 2ghz/2gbits = 16gbs

rechnung
gddr5
realer ramtakt 2ghz*2 channel(das D in DDR)*2 mal daten in derselben zeit
gddr6
realer ramtakt 2ghz*2channels*4 mal daten in derselben zeit

bsp eine gtx1060 mit gddr6 benötigt keine 16gbits also kürzt man das SI auf 96bit
96bit/6GB = 16bit je GB mit 8gbits/s

Beim ramtakt selbst kann man derzeit nicht schneller werden das geht aus physischen gründen nicht gddr5 kam auf 2,25ghz an seine grenzen
Gddr5x ist eine Vorstufe zu gddr6 und funktioniert auch nach dem qdr Prinzip
weil dies aber alles gpu intern läuft gibt es keine Konflikte mit os oder anderer hardware
GPu sind in gesamten als Konsole zu verstehen wären diese modular wie der rest am PC (vram upgrades wäre ein traum oder ersetzen der gpu)würde so eine Änderung viele Probleme machen
So wie es jetzt ist kann man nur die ganze gpu austauschen daher sind direkte vergleiche eher schwierig
Man kann hier nur gleiche architekturen vergleichen unterschiedliche muss man Testen.
Die große Hoffnung ist das mit gddr6 kein mining mehr geht bzw es sogar schlechtere Ergebnisse bringt. Finger kreuzigen

Gddr5 ist schnellerer DDR3 ram
Und wurde 2006 spezifiziert
Meine altehrwürdige 9800gtx+ hatte schon gddr5 (2007 rebrand der 8800gtx mit kleineren SI 256 an 512mb statt 384bit an 768mb)
Das dies so lange standard blieb lag vor allen am Fertigungsprozesse der chiphersteller.
DDR4 wurde sogar vorgezogen weil man nicht Sinnvoll vram höher spezifizieren konnte
erst 2017 wurde GDDR6 festgelegt
Und das auch nur weil man mit HBM druck gemacht hat.

Lustig ist das mein SI exakt dem des speicherbandbreite entspricht 192bit = 192gb/s
Dies ist nur möglich weil nvidia auf 32bit je gb herunterging mit 384bit käme ich auf max 320gb/s hier limitiert der ramtakt. Und ob der kleine pascal das überhaupt füllen kann ist fraglich
 
Zurück