Nvidia Pascal: GP104-200-A1 der Geforce GTX 1070 angeblich abgelichtet

Das wird denke ich noch ne Spur länger dauern. Selbst Skylake-E wird noch mit PCIe3.0 erscheinen nach aktuellem Stand, wies bei der Zen-Plattform aussieht weiß ich nicht. Vor 2018 würde ich nicht mit einer Einführung rechnen, bis das flächendeckender verbreitet ist wirds eher 2020... macht aber nichts der Vorteil davon ist mal von einigen speziellen Fällen (extremes Multi-GPU oder zig schnelle Datenträger/GPGPU) ohnehin Null.

Der Performanceunterschied eines normalen Spiele-PCs zwischen PCIE2 und 3 ist so winzig, dass der von 3 auf 4 nicht mal merklich sein dürfte.

Hm,meinst du ? Das wäre schade, im Netz ist der Launch für 2017 angegeben.
PCI Express 4. verspatet sich
Nicht ganz neu ich weiß aber liest man immer häufiger. Na ja, du hast mehr Erfahrung als alter Profi ;) und wäre ich für 2018 in meinem Terminplan. Erst in 2020 wäre ich traurig.Seufz
Du meinst man merkt die Verdoppelung nicht aber vergiss nicht, das die neuen Grafikkarten in der Speicherbandbreite, ich würde behaupten, kaum noch limitieren. Stimmt natürlich nur indireckt .
Grüsse
 
Zuletzt bearbeitet:
zu RawMangoJuli ... Platzverschwändung und der hohe Strom verbrauch ... Deine Frage hat mir gefalllen.
zu Noname1987 ... irgendiw klingst du wie Framinator .. was ist ein Framinator ? und warum kannst du meinen Text höhren ?
Ihr würdet auch bei AMD Nachfragen wann die erste ATI Karte mit Nvidia GPU kommt oder ?
zu wolflux ... ich habe auf die 980Ti verzichtet weil ich dachte die neuen Karten kommen ja bald ... ich will auch ne TitanX2 ..2 davon !^^ Aber bei mir wirds wohl ne 1080Ti. *leider* heheheh
 
zu RawMangoJuli ... Platzverschwändung und der hohe Strom verbrauch ... Deine Frage hat mir gefalllen.
zu Noname1987 ... irgendiw klingst du wie Framinator .. was ist ein Framinator ? und warum kannst du meinen Text höhren ?
Ihr würdet auch bei AMD Nachfragen wann die erste ATI Karte mit Nvidia GPU kommt oder ?
zu wolflux ... ich habe auf die 980Ti verzichtet weil ich dachte die neuen Karten kommen ja bald ... ich will auch ne TitanX2 ..2 davon !^^ Aber bei mir wirds wohl ne 1080Ti. *leider* heheheh

Schon Ok, ich war auch mal so, immer auf Nr. Sicher gehen. Da musste du aber noch waaarten !? ;)
Trotzdem Feigling. Ha ha
 
Die letzten Infos die ich habe wären 48 PCIe3.0 Lanes und 6-Channel-RAM für SKY-E. Das ist aber natürlich nicht gesichert sondern der Stand der Gerüchte.

Aber um beim Threadthema zu bleiben - zumindest für die GPU-Leistung dürfte das ziemlich wurscht sein.
Ich hab auch keine Ahnung wies mit PCIe4 bei GPUs aussieht? Schätze mal da wird ja auch erst Navi/Volta einsteigen.
 
PCIe ist und bleibt abwärtskompatibel. Auch wenn das Board nur PCIe3 bietet wird eine zukünftige PCIe4-Karte natürlich laufen (mit PCIe3-Speed).
 
Zwischenfrage:
Macht es wirklich soviel aus wenn jetzt die GTX 1070 nur mit 8gb GDDR 5 kommt, aber dafür schon ab 300 Euro angepriesen wird. Im Idealfall auf Höhe einer GTX 980 Ti.

Weiß nicht ob es sich lohnt, wenn am Ende die GTX 1080 nur 10-20% schneller ist und zwar GDDR5X Speicher bietet aber dafür auch 500-600 € kostet. O.o

Falls es so kommen sollte, seh ich da die GTX 1070 als verführerischer an.
Oder muss mann künftig mit Abstrichen durch den normalen GDDR 5 rechnen?
Wo wäre denn schnellerer VRAM von Vorteil?
 
Zuletzt bearbeitet:
Ich gehe davon aus, dass die beiden 970/980 Nachfolger eine GTX 980 Ti an die Wand klatschen.
8GB Vram sehe ich als logisch an, aber kein HBM. der kommt erst nächstes Jahr mit dem Titan Nachfolger.
Ob es GDDR5X gibt oder nicht, weiß ich wiederum nicht, da spekuliere ich auch nicht.
 
Es gibt noch eine klassische Unterscheidung zwischen Immediate Mode Renderer (AMD, Nvidia) und Tile-Based Deferred Renderer (ARM, Imagination, Qualcomm).
Da gibt es auch große Unterschiede wie das Front-End arbeitet und wie Objekte erzeugt werden, wo gespeichert und wann verworfen.
Soweit ich es mitbekommen habe, ist Nvidia mit Maxwell den ersten Schritt gegangen einen Hybriden zu bauen, Pascal setzt hier vielleicht auf und erweitert das ganze.
Bei Maxwell hat Nvidia die Informationen übrigens nicht offengelegt, ein Intel Mitarbeiter hat die Tatsache auf Twitter geteilt:
Aras Pranckevičius auf Twitter: "@AndrewLauritzen Hmm. Which part of Maxwell is that? I probably haven't been following the scene lately."
Ja, an die Diskussion um das Tile Based Rendering kann ich mich noch vor ca 15 Jahren erinnern, als Carmack darüber geschrieben hat und damals auch die Geforce 2 MX Konkurrenten in Form der PowerVR Lösungen ( STMicroelectronics Kyro II 64MB ) "Kyro II" aufkamen.

Die Idee war, in meiner Erinnerung, Speicherbandbreite zu sparen. Ähnlich wie bei Carmacks späterer Softwarelösung "Megatexture".
 
Zuletzt bearbeitet:
Als PCI-E 2.0 Nutzer frage ich mich ob ich überhaupt etwas von GDDR5X bzw HBM2 hab. O.o

Oder kann man da falls notwendig mit der Übertaktung von PCI-E entgegenwirken?
 
Zuletzt bearbeitet:
Bitte unterscheiden:

PCIe = Verbindung der Grafikkarte zum Restsystem
GDDR/HBM = (hier: Verbindung der GPU zum) Videospeicher

Das eine hat mit dem anderen zunächst rein gar nichts zu tun.
 
Aber die Daten müssen doch über den Anschluss raus transportiert werden. O.o
Und wenn dieser langsamer ist bremst der doch den schnellen Speicher.
Oder steh ich jetzt auf den Schlauch? :)
 
Bitte unterscheiden:

PCIe = Verbindung der Grafikkarte zum Restsystem
GDDR/HBM = (hier: Verbindung der GPU zum) Videospeicher

Das eine hat mit dem anderen zunächst rein gar nichts zu tun.

Heute nerven wir Unwissenden dich gelle? Sorry.
Ganz Unrecht hat er aber nicht, logisch wenn die eine Einheit die Daten schneller verarbeitet muss der Rest auch schneller annehmen.
 
Du stehst auf dem Schlauch :p
Die Daten werden hauptsächlich zwischen GPU und VRAM ausgetauscht, die Daten die "raus" (bzw. rein) gehen sind im Vergleich schon fast vernachlässigbar (sieht man ja auch an den geringen Unterschieden zwischen PCIx Gen 2 und Gen 3).
 
Der Wille ist da P) .. Nvidia bringt 100% dieses Jahr noch das neue Titan Modell also Anfang 2 Quartal nächstes Jahr .. also gefühlte 5 Jhare noch warten *g

Intel hat sich ganz bestimmt keine Gedanken über Ihre neue CPU Technology und deren böse Auswirkung auf auf die PCIE-Schnittstelle gemacht. Wieso auch ? Die "16nm" sind ein Name der Fertigung, keine tatsächliche Größe .. naja wenn du das sagst .. das würde ich gerne mal meinem Vater zeigen ... der Lacht auch gerne. TSMC Explains 16nm Process Technology; FinFET Introduced - Nikkei Technology Online .... SRAM-Zelle !!!!! *vieleicht kommt ja schon bald der ganz neue DRAM der ist schnell aber leider auch nen bisssl teurer. !!
Manchmal würde es wirklich helfen ein klein wenig selbst unabhängig nachzulesen statt nur Werbeparolen nachzuplappern. Ist ja nicht so dass es irgendwie geheim wäre dass die Nanometerangaben bei den prozessen nicht das Geringste mit echten Größen zu tun haben. Nanometer haben wirklich nichts mit echten Größen zu tun ... 1nm ist winzig und beim besten willen nicht Groß. Lesen schadet nicht .. aber dein Bluff ist mal voll in die Hose gegangen!
wolflux ist dann wohl doch nichts mit Pascal .. der SRAM macht es nicht möglich ... ich glaub es selber kaum.

Gut ich habe nicht studiert oder eine Ausbildung im Technischenbereich .. wie der vater so der Sohn und mein vater ... sagen wir Künstler.
Ach ganz vergessen ... Ich habe Mechatronik studiert ... und wenn du wissen willst wer mein Vater war schicke ich dir gerne per pm nen Link.
Ich habe nur meine begeisterung gegenüber der Technologie zum Ausdruck gebracht. Und das in einem Hardware Forum ... was fällt mir Spinner eigendlich ein ^^
 
Ich gehe davon aus, dass die beiden 970/980 Nachfolger eine GTX 980 Ti an die Wand klatschen.

Wer bist du und wie kommst du an Tresh' Account :D

Nee, ernsthaft. Das ist viel zu übertrieben. Grad der Salvage Chip wird diesmal wieder deutlicher abgegrenzt. Wer immernoch GM200 Performance für 350€ erwartet, wird sich noch umgucken.
 
Du stehst auf dem Schlauch[emoji14]Die Daten werden hauptsächlich zwischen GPU und VRAM ausgetauscht, die Daten die "raus" (bzw. rein) gehen sind im Vergleich schon fast vernachlässigbar (sieht man ja auch an den geringen Unterschieden zwischen PCIx Gen 2 und Gen 3).
Also GDDR5X bzw. HBM2 kein Geschwindigkeitsverlust mit PCI-E 2.0? Versteh ich das richtig?
Kann ich nicht so recht glauben. O.o

Wer bist du und wie kommst du an Tresh' Account :D

Nee, ernsthaft. Das ist viel zu übertrieben. Grad der Salvage Chip wird diesmal wieder deutlicher abgegrenzt. Wer immernoch GM200 Performance für 350€ erwartet, wird sich noch umgucken.

Denk an das Beispiel:
GTX 970 vs Titan :)
 
Zurück