Skysnake
Lötkolbengott/-göttin
AW: Nvidia beschneidet Tesla
NA ich glaub du hast mich mit den Druckern falsch verstanden Damals, als es noch keine Computer gab, saßen in bischen größeren Firmen mal schnell 20, 30 oder auch 100 (zumeist) Frauen vor Schreibmaschienen und haben Briefe getippt. Da die Briefe öfter mit gleichem Inhalt nur an unterschiedliche Leute rausgingen, hatte man, damit es schneller geht und damit kosten gespart werden Schreibmaschienen erfunden, die dir gleich Durchschläge machen, so konnte ne Frau halt nicht "nur" 150 Anschläge pro Minute machen sondern halt 150*Anzahl der Durschläge. Das war halt schon ne krasse Kostenersparnis (btw daher kommt auch noch das Anschläge pro Minute Gedönz für Sekretärinnen )
Als dann aber der PC so langsam einzug gehalten hat, kamen irgendwann auch mal die ersten Drucker, die halt z.B. nen Blatt in einer min oder so gedruckt haben (Nadeldrucker waren das glaub damals). Die Chefs haben aber damals garnicht gerafft, welches Potenzial in so nem Drucker steckt, weil du ja keine Tipse mehr brauchst, die den ganzen Tag nur Briefe abtippt (btw diese tolle Technik mit den Matrizenabzügen, die ihr aus der Schule als übelst stinkende Blätter in Erinnerung habt kommt auch aus der Zeit ^^). Die Chefs waren aber so in ihrem wieviel Druschläge (also wievielfach wird die Schreibleistung meiner Sekretärinnen vervielfacht), das ses einfach net begriffen haben und dem Drucker ne Abfuhr erteilt haben. Fragt mich bitte grad nicht welchem Konzern/-Gründer das in seinen Anfangszeiten passiert ist.
Mit der Röhre ist das wieder was ganz anderes. Die sind einfach nur verdammt groß, schwer und fressen Strom wie noch was. Dafür haben se halt verdammt hohe Bildwiederholungsraten und das Bild ist von den Farben her auch bei nem relativ billigen schon recht gut. Nen guter Röhrenmonitor kostet aber auch richtig Geld, wenn auch weniger als nen richtig guter LCD oder Plasma. Für den zahlste aber auch mal dann schnell tausend Euro und mehr. Ist halt nen anderes Panels als z.B. in meinen SyncMaster 2494HM, der hat aber auch nur 240 Euro rum gekostet! und Schlieren hab ich da auch keine, wie allgemein eigentlich bei allen neuen Monitoren das garkein Thema mehr ist. Die Reaktionszeiten sind so gering, da is nix mehr mit Schlieren. Einzigstes Manko ist vielleicht die Farbechtheit, wobei man da mit Softwarekalibrierung schon einiges tun kann, wobei man sagen muss das brauch man auch nur, wenn man professionel Drucke machen will/muss und dann holt man sich halt nen Monitor für tausend Euro+
So nu noch kurz nen Abriss zu LHC. Die machen Proton-Proton, Blei-Blei Kollisionen gemacht. Das Ausgangsmaterial, also Protonen oder Blei ist dabei garnet sooo entscheidend, weil die Dinger dich ja nicht interessieren, du willst ja eigentlich in ihre innere Struktur schauen, bzw halt neue Teilchen erzeugen und dann nachweisen. Das Proton eignet sich da recht gut, weil es geladen, also leicht beschleunigbar ist, ne große Masse hat, damit relativ wenig Betatronstrahlung im Vergleich zum Elektron entsteht. Schwachpunkt ist halt leider, dass das Proton selbst ne innere Strucktur hat im Gegensatz zum Elekron (zumindest bisher keine bekannt). Proton besteht wies Neutron halt aus 3 Quarks (welche müsst ich grad nochmal nachschauen war glaub 2 up 1 down). Für Bleiatome gilt ähnliches, nur halt noch mehr Struktur.
So und nu back to Topic bischen.
Das mit dem Leistungsverbrauch ist den Leuten schon mehr oder weniger klar. ABER die haben z.B. extrem optimierte Fortran programme, die se in Bibliotheken haben, die tausendfach getestet sind und laufen. Dumm nur, das des Zeug halt nicht auf ner GPU läuft. So nun mach mal bitte nem Forscher klar, das er seinen Code wegschmeisen soll und am besten noch ne andere Programmiersprache lernen soll/muss (das sind keine Programmierer!) nur um ne andere Technik zu nutzen. Das bekommste sehr schwer an die Leute ran, zumal es doch auch öfter Leute sind die schon etwas gesetzteren Alters sind die die Entscheidungen über Gelder treffen. Das halt viel Politik mit im Spiel... leider -.-
Dazu kommt dann noch, das man die Programme erst noch auf GPU portieren/optimieren muss, wofür meist keine Zeit/Geld da ist. Viele der Programme laufen ja schon seit x Jahren. Und dann ist halt noch nen bischen Angst mit im Spiel, ob die Systeme auch das machen was sie sollen, sprich richtig rechnen (also in der gewünschten/erhofften genauigkeit). Da verlässt man sich auch mal gern auf altbekanntes.. leider.
Tja und dann is wie gesagt noch ECC so ne Sache. Für viele ist fehlender ECC Support nen K.O. Kriterium für nen Produkt, weil sonst kann ich ja Bitfehler nicht erkennen und korregieren (ok die vergessen jetzt, das ich auch einfach alles doppelt oder dreifach rechnen lassen kann zum prüfen, und ich bei genug Leistung immer noch besser fahr...). Das aber halt so ne Sache wie mit den Durchschlägen der Schreibmaschienen früher. Das war halt immer so bisher...
Naja und nen letzter Knackpunkt ist halt, das manche Anwendungen riesen groß sind und mal schnell 100 GB Ram brauchen um vernünftig zu laufen. Mit nem Server ist das in Maximalausbau machbar oft (ok, wir vergessen jetzt einfach mal kurz die Probleme dies oft bei Maximalausbau des RAMS gibt, die aber oft nur Wissenschaftler miterleben, weil sonst kaum wer den RAM wirklich vollknallt bis zur Oberkante Unterlippe).
BTW: sorry für die WOT -.-
Naja, die leute von cern haben ja ihren Schwerpunkt auf den Protonenaufprall. Siehe LHC.
jetzt zu den druckern: ist eigentlich so ziemlich das gleiche, wie bei dem Röhrenfernseher. Die haben immernoch das beste Schwarz und die Computerröhren sind immernoch am schnellsten und zeigen keine Schlieren. Aber hey, so einen bombastischen Leistungsverbrauch im Serverbereich... warum ist das den Leuten nicht klar? zu teuer? pff neee! Hybridfahrzeuge werden auch gekauft. Die heizen nicht die Umwelt mit bremsscheiben, sondern nutzen die energie effizient. Die Umwelt zu heizen braucht man nicht und die Stromversorgung von server darf man ja nicht mit personal computern vergleichen
NA ich glaub du hast mich mit den Druckern falsch verstanden Damals, als es noch keine Computer gab, saßen in bischen größeren Firmen mal schnell 20, 30 oder auch 100 (zumeist) Frauen vor Schreibmaschienen und haben Briefe getippt. Da die Briefe öfter mit gleichem Inhalt nur an unterschiedliche Leute rausgingen, hatte man, damit es schneller geht und damit kosten gespart werden Schreibmaschienen erfunden, die dir gleich Durchschläge machen, so konnte ne Frau halt nicht "nur" 150 Anschläge pro Minute machen sondern halt 150*Anzahl der Durschläge. Das war halt schon ne krasse Kostenersparnis (btw daher kommt auch noch das Anschläge pro Minute Gedönz für Sekretärinnen )
Als dann aber der PC so langsam einzug gehalten hat, kamen irgendwann auch mal die ersten Drucker, die halt z.B. nen Blatt in einer min oder so gedruckt haben (Nadeldrucker waren das glaub damals). Die Chefs haben aber damals garnicht gerafft, welches Potenzial in so nem Drucker steckt, weil du ja keine Tipse mehr brauchst, die den ganzen Tag nur Briefe abtippt (btw diese tolle Technik mit den Matrizenabzügen, die ihr aus der Schule als übelst stinkende Blätter in Erinnerung habt kommt auch aus der Zeit ^^). Die Chefs waren aber so in ihrem wieviel Druschläge (also wievielfach wird die Schreibleistung meiner Sekretärinnen vervielfacht), das ses einfach net begriffen haben und dem Drucker ne Abfuhr erteilt haben. Fragt mich bitte grad nicht welchem Konzern/-Gründer das in seinen Anfangszeiten passiert ist.
Mit der Röhre ist das wieder was ganz anderes. Die sind einfach nur verdammt groß, schwer und fressen Strom wie noch was. Dafür haben se halt verdammt hohe Bildwiederholungsraten und das Bild ist von den Farben her auch bei nem relativ billigen schon recht gut. Nen guter Röhrenmonitor kostet aber auch richtig Geld, wenn auch weniger als nen richtig guter LCD oder Plasma. Für den zahlste aber auch mal dann schnell tausend Euro und mehr. Ist halt nen anderes Panels als z.B. in meinen SyncMaster 2494HM, der hat aber auch nur 240 Euro rum gekostet! und Schlieren hab ich da auch keine, wie allgemein eigentlich bei allen neuen Monitoren das garkein Thema mehr ist. Die Reaktionszeiten sind so gering, da is nix mehr mit Schlieren. Einzigstes Manko ist vielleicht die Farbechtheit, wobei man da mit Softwarekalibrierung schon einiges tun kann, wobei man sagen muss das brauch man auch nur, wenn man professionel Drucke machen will/muss und dann holt man sich halt nen Monitor für tausend Euro+
So nu noch kurz nen Abriss zu LHC. Die machen Proton-Proton, Blei-Blei Kollisionen gemacht. Das Ausgangsmaterial, also Protonen oder Blei ist dabei garnet sooo entscheidend, weil die Dinger dich ja nicht interessieren, du willst ja eigentlich in ihre innere Struktur schauen, bzw halt neue Teilchen erzeugen und dann nachweisen. Das Proton eignet sich da recht gut, weil es geladen, also leicht beschleunigbar ist, ne große Masse hat, damit relativ wenig Betatronstrahlung im Vergleich zum Elektron entsteht. Schwachpunkt ist halt leider, dass das Proton selbst ne innere Strucktur hat im Gegensatz zum Elekron (zumindest bisher keine bekannt). Proton besteht wies Neutron halt aus 3 Quarks (welche müsst ich grad nochmal nachschauen war glaub 2 up 1 down). Für Bleiatome gilt ähnliches, nur halt noch mehr Struktur.
So und nu back to Topic bischen.
Das mit dem Leistungsverbrauch ist den Leuten schon mehr oder weniger klar. ABER die haben z.B. extrem optimierte Fortran programme, die se in Bibliotheken haben, die tausendfach getestet sind und laufen. Dumm nur, das des Zeug halt nicht auf ner GPU läuft. So nun mach mal bitte nem Forscher klar, das er seinen Code wegschmeisen soll und am besten noch ne andere Programmiersprache lernen soll/muss (das sind keine Programmierer!) nur um ne andere Technik zu nutzen. Das bekommste sehr schwer an die Leute ran, zumal es doch auch öfter Leute sind die schon etwas gesetzteren Alters sind die die Entscheidungen über Gelder treffen. Das halt viel Politik mit im Spiel... leider -.-
Dazu kommt dann noch, das man die Programme erst noch auf GPU portieren/optimieren muss, wofür meist keine Zeit/Geld da ist. Viele der Programme laufen ja schon seit x Jahren. Und dann ist halt noch nen bischen Angst mit im Spiel, ob die Systeme auch das machen was sie sollen, sprich richtig rechnen (also in der gewünschten/erhofften genauigkeit). Da verlässt man sich auch mal gern auf altbekanntes.. leider.
Tja und dann is wie gesagt noch ECC so ne Sache. Für viele ist fehlender ECC Support nen K.O. Kriterium für nen Produkt, weil sonst kann ich ja Bitfehler nicht erkennen und korregieren (ok die vergessen jetzt, das ich auch einfach alles doppelt oder dreifach rechnen lassen kann zum prüfen, und ich bei genug Leistung immer noch besser fahr...). Das aber halt so ne Sache wie mit den Durchschlägen der Schreibmaschienen früher. Das war halt immer so bisher...
Naja und nen letzter Knackpunkt ist halt, das manche Anwendungen riesen groß sind und mal schnell 100 GB Ram brauchen um vernünftig zu laufen. Mit nem Server ist das in Maximalausbau machbar oft (ok, wir vergessen jetzt einfach mal kurz die Probleme dies oft bei Maximalausbau des RAMS gibt, die aber oft nur Wissenschaftler miterleben, weil sonst kaum wer den RAM wirklich vollknallt bis zur Oberkante Unterlippe).
BTW: sorry für die WOT -.-
Zuletzt bearbeitet: