Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Vor der physischen Herstellung eines Chips wird dieser in einem Großrechner emuliert. Bei diesem mehrere Monate dauernden Schritt finden und beseitigen die Chipdesigner Bugs, die beim fertigen Produkt katastrophale Folgen haben könnten. PC Games Hardware war vor Ort in Nvidias Hauptquartier.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Sabber. Das nenne ich mal geilstes Forschungsequipment.
Krass, was die für einen Aufwand betreiben.
Noch Krasser: Das ist natürlich immernoch billiger als einen Schrottchip in Serie zu produzieren.
 
Zuletzt bearbeitet:
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

:pcghrockt:
Ein Video habt ihr nicht zufällig noch gemacht?
Das Handy in die Hemdtasche gesteckt und einfach Aufnehmen lassen? :ugly:
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Beeindruckend, finde ich auch!
Aber ein Satz macht mich dann doch etwas stutzig!
"Ihre Ergebnisse geben die Forscher auch an die Marketing- und Vertriebsabteilungen weiter, die ihren Kunden sagen können, wie schnell die nächste Chip-Generation werden wird."
Kann ja gar nicht sein!
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Beeindruckend, finde ich auch!
Aber ein Satz macht mich dann doch etwas stutzig!
"Ihre Ergebnisse geben die Forscher auch an die Marketing- und Vertriebsabteilungen weiter, die ihren Kunden sagen können, wie schnell die nächste Chip-Generation werden wird."
Kann ja gar nicht sein!
Warum denn nicht? Die Kunden müssen doch auch entsprechend ihre Hardware daran anpassen beziehungsweise ihrerseits Marketingmaterial vorbereiten.
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Solche Einblicke in die Hallen der Hersteller sind immer Toll :daumen: So etwas dürft ihr ruhig regelmäßig bringen :P

Was mich da btw. echt wundert, ist, das nVidia da wohl schon seit 2011 die gleichen Kisten stehen hat :what:

Wer sich für die Kisten interessiert. Das sind Cadence Palladium Systeme. Klick 1 und klick 2

Ich befürchte allerdings, das es ein "lost in translation" gegeben hat. Denn wenn ich mir die Daten zu den Cadence Palladium Kisten anschaue, dann ist da an sich "nur" von RTL usw die Rede. Also auf Gatter ebene, bzw Netzlisten. Das sollte dann aber eben simulationen von digitalen Schaltungen sein, und nicht das analoge Verhalten der Selbigen. Man hat also unendlich schnelle Signalübergänge usw. Deswegen war der Satz für mich wohl auch komisch mit dem verändern der Transistoren. Es verändern sich halt die Outputs der Gatter.

Ihr dürft mich aber gern korrigieren, falls ich etwas übersehen habe. Gern mit link dazu, denn wenn das wirklich sooo viel schneller ist, als mit nem normalen Rechner, dann will ich auch so nen Ding haben für meine Simulationen :D Tage/Wochen auf Ergebnisse warten ist nämlich ziemlich doof :(
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Gute alte GF 6800 / 6800LE .... das waren noch die Zeiten wo man die Auflösung von 1280x1024 auf 1024x768 runterstellen musste damit aktuelle Spiele irgendwie mit 20FPS über die Röhre flimmern. Es gab aber auch gute seiten...wer sich erinnert man konnte damals noch schön mit dem Riva Tuner die PixelPipelines freischalten und so aus einer 6800LE eine 6800GT machen. :devil:
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Warum denn nicht? Die Kunden müssen doch auch entsprechend ihre Hardware daran anpassen beziehungsweise ihrerseits Marketingmaterial vorbereiten.
Na warum wohl? GTX970 ... ich hab´s noch nicht vergessen, wird auch so schnell nicht passieren. Da hieß es sinngemäß; Kommunikationsfehler mit der Marketing-Abteilung.
Ich wüßte jetzt aber nicht wie man den rechtfertigen will, wenn schon in so einem frühen Stadium das Marketing Bescheid weiß. :devil:
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Na warum wohl? GTX970 ... ich hab´s noch nicht vergessen, wird auch so schnell nicht passieren. Da hieß es sinngemäß; Kommunikationsfehler mit der Marketing-Abteilung.
Ich wüßte jetzt aber nicht wie man den rechtfertigen will, wenn schon in so einem frühen Stadium das Marketing Bescheid weiß. :devil:

Nur die GTX980 getestet und den Rest "runtergerechnet". Du solltest bedenken, dass immer nur der volle Chip getestet wird und nicht die "beschnittenen" Varianten. Im Prinzip sind das volle Chips, auf dem ein Teil nicht so funktioniert wie er soll. Dieser Teil wird dann lahmgelegt und als kleinere Version verkauft.
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Super, Danke für den Artikel, schön das ihr in die heiligen Hallen der Nvidia-Entwickler durftet :daumen:
Schön irre wie viel Aufwand man betreiben muss, bis ein fertiges Produkt entstehen kann, hätte ich nicht gedacht, wieder was gelernt.
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Solche Einblicke in die Hallen der Hersteller sind immer Toll :daumen: So etwas dürft ihr ruhig regelmäßig bringen :P

Was mich da btw. echt wundert, ist, das nVidia da wohl schon seit 2011 die gleichen Kisten stehen hat :what:

Wer sich für die Kisten interessiert. Das sind Cadence Palladium Systeme. Klick 1 und klick 2

Ich befürchte allerdings, das es ein "lost in translation" gegeben hat. Denn wenn ich mir die Daten zu den Cadence Palladium Kisten anschaue, dann ist da an sich "nur" von RTL usw die Rede. Also auf Gatter ebene, bzw Netzlisten. Das sollte dann aber eben simulationen von digitalen Schaltungen sein, und nicht das analoge Verhalten der Selbigen. Man hat also unendlich schnelle Signalübergänge usw. Deswegen war der Satz für mich wohl auch komisch mit dem verändern der Transistoren. Es verändern sich halt die Outputs der Gatter.

Ihr dürft mich aber gern korrigieren, falls ich etwas übersehen habe. Gern mit link dazu, denn wenn das wirklich sooo viel schneller ist, als mit nem normalen Rechner, dann will ich auch so nen Ding haben für meine Simulationen :D Tage/Wochen auf Ergebnisse warten ist nämlich ziemlich doof :(
Nvidia hat neben den Palladium XPs noch etliche andere Systeme von Cadence im Labor stehen. Die durften wir nicht fotografieren beziehungsweise konnten wir sie nicht so deutlich abbilden, weil sie weiter weg beziehungsweise stärker verteilt dort standen..

Auf den Palladiums laufen *keine* Simulationen der fertigen Chips, sondern Emulationen. Signalübergänge sind auch nie unendlich schnell, man ist ja schon an die Lichtgeschwindigkeit gebunden. Von daher glaube ich dem Laborchef schon, wenn er sagt, dass sie mit dem System eine Chip und dessen Transistoren emulieren und das eben 1000 Mal langsamer als der reale Chip abläuft.
 
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Auf den Palladiums laufen *keine* Simulationen der fertigen Chips, sondern Emulationen.

Interessanter Einblick in die Entwicklung, sowas liest man selten und mit umso mehr Freude. Der Unterschied zwischen Simulation und Emulation ist mir aber nicht ganz klar. Was bedeutet das in diesem Zusammenhang? Sind die Palladium XPs sowas wie gigantische FPGA(-Cluster)?
 
Zuletzt bearbeitet:
AW: Sechs Monate im Großrechner: So emuliert Nvidia 8 Milliarden Transistoren

Nvidia hat neben den Palladium XPs noch etliche andere Systeme von Cadence im Labor stehen. Die durften wir nicht fotografieren beziehungsweise konnten wir sie nicht so deutlich abbilden, weil sie weiter weg beziehungsweise stärker verteilt dort standen..
Wäre interessant gewesen zu wissen, was die da noch so haben. Die Tools sind nämlich ziemlich schnell einfach VIEL zu langsam, um damit wirklich produktiv arbeiten zu können. Ich habe z.B. je nachdem für gerade mal ~2µs schnell simulations Zeiten von >10h Und das nicht mal post layout :klatsch: Da sind es dann etwa eine Woche :ugly::wall:

Auf den Palladiums laufen *keine* Simulationen der fertigen Chips, sondern Emulationen. Signalübergänge sind auch nie unendlich schnell, man ist ja schon an die Lichtgeschwindigkeit gebunden.
Real natürlich, aber wenn du Digitalcode, also VHDL/RTL Code simulierst, dann haste unendlich schnelle Übergänge zwischen 0 und 1. Btw. wo wir auch beim Thema sind. Man hat nur noch Nullen und Einsen bei den Simulationen. Deswegen lassen sich so extrem große Systeme ja überhaupt noch simulieren/emulieren. Emulation wird ja in der Regel dadurch erreicht, das man den VHDL/RTL Code für einen FPGA compiliert, der zich mal schneller die Operationen ausführt, als wenn man das in Software nachbaut. Ist halt ziemlich aufwändig, aber lohnt sich.

Von daher glaube ich dem Laborchef schon, wenn er sagt, dass sie mit dem System eine Chip und dessen Transistoren emulieren und das eben 1000 Mal langsamer als der reale Chip abläuft.
Ja, die Leute die mit sowas arbeiten haben aber auch teils einen etwas eigenwilligen Slang drauf. Das kann man sehr schnell missverstehen, und davon gehe ich hier auch aus. Die Beschreibung inkl der Palladiums passt einfach wie die Faust aufs Auge. Die Argumente bzgl Verifikation usw durfte/musste ich mir nämlich auch schon oft genug anhören. Wenn man aber wirklich Transistoren an sich simuliert, also deren analoges Schaltverhalten, dann bringt dir das alles nichts. Da biste gekniffen, wenn die auch noch mit GHz laufen sollen. Da sind schon µs mit wenigen dutzend/hundert Transistoren ein riesen Akt.

EDIT @SimonG:
Ich denke ja, habe aber dazu auch auf die Schnelle nichts gefunden. Anders wird es auch wirklich schwer, derartige Beschleunigungsfaktoren zu erreichen. Das ist ja auch etwa die Größenordnung, die man mit FPGAs erreicht.
 
Zurück