Nvidia GP100: Tape-Out des Pascal-Chips

Und du verstehst es nicht! Wie kommt die Zahl denn in den Arbeitsspeicher? Schreibt die sich alleine Rein? nein
Vorher muss mit einer Doppelt so großen Zahl gerechnet werden. Das kostet Leistung!

Das Problem bei Star Citizien ist der Grose Weltraum und die kleinen Schiffe und der einhergehende Rechenfehler der Auftritt wenn man in so einer großen Welt mit Singeprecission rechnet. Heißt ja nicht umsonst Precission.
 
Was bei Star Citizen gemacht wird, ist mir bis heute nicht ganz genau klar.
Also so wie ich das verstanden habe, legen sie die Variablen von INT auf INT64 bzw. Double um, damit sie größere Zahlen und damit mehr Koordinaten abspeichern können. Wer sich ein bisschen mit Programmiersprachen (Java, C#, C++, etc.) beschäftigt weiß eig. dass das kein sonderlich großer Aufwand bei kleinen Programmen ist und dass diese dann etwas mehr RAM benötigen ;)


Und du verstehst es nicht! Wie kommt die Zahl denn in den Arbeitsspeicher? Schreibt die sich alleine Rein? nein
Vorher muss mit einer Doppelt so großen Zahl gerechnet werden.
Ich frage mich immer noch was das mit den DP-Einheiten der Grafikkarte zu tun hat :ugly:
Der Programmcode wird, solange er nicht in OpenCL, CUDA, o.ä. geschrieben ist, immer auf der CPU ausgeführt und die hat FP64-Einheiten, zumindest jede halbwegs moderne ;)
 
Hoffa das AMD mehr DP Leistung bringt als Maxwell. Das könnte für Maxwell in Zukunft echt ein Hinderniss werden. Spiele mit einer großen Spielewelten brauchen DP Leistung um Dinge in weiter Entfernung genauer Berechnen zu können. Sowas wurde ja schon bei Star Citizen angedeutet.

Die Aussage ist sogar gar nicht mal so verkehrt, ein großes Problem von heutigen Physik Engines ist, dass sie durch die Verwendung von 32 Bit floats in großen Open World Spielen massive Probleme mit der Genauigkeit haben.

....allerdings ist dafür die CPU zuständig, von daher war deine Aussage trotzdem Quark :ugly:.

Zum Thema: Tape-Out heißt leider im Prinzip noch nicht viel, und bei einer neuen Architektur UND neuer Fertigungstechnik glaube ich auch nicht an einen Release der allerersten Revision, dass wird wohl eher so ablaufen wie beim Big-Fermi. Auch bezweifle ich, dass nVidia zuerst Big-Pascal auf den Consumermarkt bringt, dann kann man die Performance Chips ja nicht mehr als High-End verkaufen. Durch meine rosarote AMD Brille sehe ich in diesem Gerücht nur einen Versuch die Leute am Aufrüsten auf AMD Karten zu hindern, zumindest wenn Fiji wirklich rockt *Aluhut aufsetz*.

Realistisch gesehen bemüht sich nVidia wohl eher die DP-Konkurrenz zu Fiji so schnell wie möglich rauszuhauen - denn Fiji dürfte Maxwell was DP angeht auf jeden Fall in den Boden stampfen (was zugegebenermaßen auch keine Kunst ist, das schafft Tahiti ja schon)
 
Der GP100 wird dringend für das Profisegment benötigt. Weil da NV inzwischen nicht so gut da steht, da Maxwell Gamer only war. Jetzt kommt AMD mit HBM und neuen Firepro Karten. Da müssen sie was neues mit akzeptabler DP Compute dagegen setzen. Ich glaube nicht dass diese Chips direkt in den Consumer Markt gehen. Als Quattros bringen die viel mehr Geld.

Du meinst Teslas

Quadro bzw Quadro Plex sind überwiegend Grafikrenderer für die reicht einfache Genauigkeit für Filmeffekte /Raytracing vollends


PS: Und Audi braucht auch keine Grafikkarte für seinen Quattro geschweige den DP:D
 
Zuletzt bearbeitet:
Derzeit gibt es keine Notwendigkeit von DP für GPUs für Spiele. Auch nicht für Star Citizen - das DP dort ist rein CPU-seitig, und die GPUs bekommen nur SP-Daten zugeführt. Das heißt aber nicht, dass es nicht irgendwann doch Anwendungsfälle geben könnte, wo es Sinn macht. Wenn man zum Beispiel überlegen würde die DP-Physik in Star Citizen per DirectCompute zu beschleunigen, da könnte eine Titan X schon gegen eine R9 290X schlecht dastehen.
 
Der Programmcode wird, solange er nicht in OpenCL, CUDA, o.ä. geschrieben ist, immer auf der CPU ausgeführt und die hat FP64-Einheiten, zumindest jede halbwegs moderne ;)

Jein. Die x87 FP Einheiten rechnen zwar intern sogar mit 80Bit, werden aber kaum verwendet. Stattdessen werden Spezialbefehle wie AVX, FMA oder SSE benutzt, die dann aber nur mit 64 oder 32 Bit arbeiten, dafür aber viel schneller sind.
 
Also ich lese vielmehr dass der GP100 Chip den Tape Out hatte.. HBM2 ist laut Hynix nicht mal Ansatzweise Marktfähig. HBM1 ist ja bisher nicht mal Massenmarkttauglich, da extrem teuer.
Bis Pascal kommt wird es wohl Mitte 2016 werden.. Wenn AMD mit Fiji nicht gleichzieht oder besser steht wohl eher 2017
 
@frozenpie
Nein sie brauchen nicht mehr Koordinaten sondern genauere Koordinaten. Sonst fliegt der Asteoridt irgendwann 1000000km am Ziel vorbei da der Rundungsfehler sich aufsummiert. Das hab sogar ich verstanden!
 
@frozenpie
Nein sie brauchen nicht mehr Koordinaten sondern genauere Koordinaten. Sonst fliegt der Asteoridt irgendwann 1000000km am Ziel vorbei da der Rundungsfehler sich aufsummiert. Das hab sogar ich verstanden!
Lenk nicht ab! Du willst doch nur deinen Fehler vertuschen, dass du dachtest, dass das ganze auf der GPU läuft, was es halt nicht tut!
(was aber natürlich nichts daran ändert, dass deine Kritik an Frozenpies Post Hand und Fuß hat! )
Klar könnte ich das. Da es noch nichts handfestes gibt. So könntest du und auch alle anderen, daneben liegen.
Das was ich geschrieben habe,ist ein Nvidia typisches Zyklus.
Ich kann nicht daneben liegen, denn ich hab überhaupt nicht mitspekuliert! :P:schief:
 
Also ich lese vielmehr dass der GP100 Chip den Tape Out hatte.. HBM2 ist laut Hynix nicht mal Ansatzweise Marktfähig. HBM1 ist ja bisher nicht mal Massenmarkttauglich, da extrem teuer.
Bis Pascal kommt wird es wohl Mitte 2016 werden.. Wenn AMD mit Fiji nicht gleichzieht oder besser steht wohl eher 2017

Das denk ich mir auch die ganze zeit alle labern hier von ende 2016 könnte schon was kommen obwohl hbm2 erst anfang 2016 in massenproduktion geht x)
 
na ihr "labert" doch auch über einen 8GB Futschi im HBM2 Ausbau für August , oder ist das da eher nicht so tragisch, weil die Hoffnung stirbt ja zuletzt

Da scheint plötzlich alles Rahmen zu sein und Wunder werden war , und bei Pascal ne ganzes halbes Jahr später, ist das ne völlig absurde Idee;)
 
Wieso ablenken eine Gpu eignet sich super für solche Berechnungen siehe Cuda!
Super dafür geeignet, ja, stimmt vollkommen. Aber überleg doch mal: Was wird die Performance in künftigen Spielen eher limitieren? Der Prozessor, der durch DX12 in der Lage sein wird viel effizienter zu arbeiten? Oder die GPU, die bisher schon massiv gefordert wurde und es in Zukunft noch viel stärker wird? Welcher Teil der Kernhardware sollte das aufgedrückt bekommen---GPU oder CPU?

Ganz davon abgesehen gibt es ja schon etwas, das die GPU für physikalische Berechnung in Spielen benutzt: GPU-PhysX!
Und das ist, abgesehen davon, dass es sich wegen des Herstellerzwangs zum Glück eh nicht durchsetzt, halt einfach aus dem Grund kein guter Deal... (dazu kommt, dass es oft ohne Limit/ Verhältnislos eingesetzt wird, wenn es denn mal verwendet wird)

Edit: Das heißt natürlich nicht,dass es keine sinnvollen Einsatzzwecke für GPU-PhsyX gibt---nur ist es bis dahin in meinen Augen noch ein recht weiter Weg!
 
Zuletzt bearbeitet:
na ihr "labert" doch auch über einen 8GB Futschi im HBM2 Ausbau für August , oder ist das da eher nicht so tragisch, weil die Hoffnung stirbt ja zuletzt

Da scheint plötzlich alles Rahmen zu sein und Wunder werden war , und bei Pascal ne ganzes halbes Jahr später, ist das ne völlig absurde Idee;)

Es gibt da auch was das nennt sich Dual Link.
 
Du hast den Wink der Zukunft nicht verstanden. Ich sage nur HSA und Multi Gpu/Cpu. Das ist die Zukunft. Da sich viele Physikberechnungen super parallelisieren lassen.
 
na ihr "labert" doch auch über einen 8GB Futschi im HBM2 Ausbau für August , oder ist das da eher nicht so tragisch, weil die Hoffnung stirbt ja zuletzt

Da scheint plötzlich alles Rahmen zu sein und Wunder werden war , und bei Pascal ne ganzes halbes Jahr später, ist das ne völlig absurde Idee;)

Hasi wir labern nicht sondern spekulieren. Und Dual Link auf HBM1 ist machbar, HBM2 ist aber erst 2016 Produktionstauglich (Aussage Hynix) na merkst du was? Keiner Sprach von HBM2 bezüglich Fiji (nicht Futschi wie du sagtest) Als PCGH Member solltest du zumindest die Codenamen Fehlerfrei schreiben Können ;) zuviel grüne ideologie gefuttert heute morgen oder wie ;)
Achja und nun darfst du mich flamen..
 
na ihr "labert" doch auch über einen 8GB Futschi im HBM2 Ausbau für August , oder ist das da eher nicht so tragisch, weil die Hoffnung stirbt ja zuletzt

Da scheint plötzlich alles Rahmen zu sein und Wunder werden war , und bei Pascal ne ganzes halbes Jahr später, ist das ne völlig absurde Idee;)
Das klingt ja so als wären das eine Masse an Leuten---ich entdecke aber nur zwei!
Ganz nebenbei: Nvidia hat doch selber (oder nicht? Gerade keine Quelle zur Hand) von HBM 2 gesprochen, wenn Nvidia das also genau das haben will, dann müssen sie warten, bis genau das draußen ist. :D
Dass AMD im August schon HBM II haben soll, davon hab ich noch nichts gehört...
 
Unrockstar85
Futschi gefällt mir aber jetzt schon besser , gleicht dem was andere Thermi nannten, und die Analogie dürfte sich wohl am 16. mehr denn je dem annähern Hasi :D
 
Unrockstar85
Futschi gefällt mir aber jetzt schon besser , gleicht dem was andere Thermi nannten, und die Analogie dürfte sich wohl am 16. mehr denn je dem annähern Hasi :D
Abwarten, aber der Konter gefällt mir :D Ich denke Fiji wird nicht der Titan X Killer aber der wegweiser für HBM.. Quasi der Benchmark das HBM kann. Dass GCN Effektiver ist als Nvidias Technologie beweist ja schon, dass ein GCN mit nur 1/16DP Performance (rechnerisch) weit unter der Maxwell ist.. Ich sage dazu nur Lastverbrauch einer 290X: 210W.. Mit ein paar Optimierungen steht bei einem Refresh die 175W
Abwarten und grünen Tee trinken ;) ich bleibe beim Früchtetee
 
Zurück