Wegen Ryzen Threadripper: Linux-Erfinder Torvalds steigt nach 15 Jahren Intel auf AMD um

Mag solche Schleichwerbung nicht, nur weil irgend ein Promi ein Chanel bzw. hier Amd irgendwas hat muss ich nicht das gleiche haben.

Ich kaufe nach Bedarf

ich glaube nicht, dass sich leute wie linus einen pc kaufen müssen...

er holt sich doch auch nach bedarf. wenn man den ganzen tag nur kernel kompilieren muss, dann sind 32kerne etwas schneller, als 8

kein 0815 user würde sich eine CPU holen, die 280watt TDP hat
 
ich glaube nicht, dass sich leute wie linus einen pc kaufen müssen...

er holt sich doch auch nach bedarf. wenn man den ganzen tag nur kernel kompilieren muss, dann sind 32kerne etwas schneller, als 8

kein 0815 user würde sich eine CPU holen, die 280watt TDP hat

Hast eigentlich Recht, verstehe ohnehin nicht, warum er einen 9900K hatte, selbst ein Threadripper ist doch eigentlich für ihn unsinnig. Ein EPYC DualBoard wäre da doch wesentlich sinnvoller, wäre ja nochmal mehr als doppelt so schnell und ob der Rechner jetzt 5000 oder 25000 Dollar kostet sollte so einem Kerl doch auch egal sein. Je weniger Zeit er mit dem Kompilieren warten muss, je besser.
 
Warum ist das so eine große News, dass Person X sich nun CPU Y gekauft hat?
Nur nebenbei: Compile-Jobs sind sehr schlecht parallelisiert bar. Man kann nicht einfach den Code auseinanderreißen und Stück für Stück in separaten Threads in einen Lexer oder gar Parser geben. Code ist sehr stark kontextabhängig. Selbst file per file ist das nur bedingt machbar, da der Kontext prinzipiell immer auch über mehrere Dateien besteht.
Ein ganzes Betriebssystem mag man vielleicht halbwegs gut parallelisieren, weil es gut abgeschlossene Compilation Units gibt. Aber einzelne Teile wohl kaum, zumindest nicht in dem Maße, dass ein Threadripper notwendig wäre.

Ich sehe den Plattformwechsel eher politisch. Man weiß ja, was für einen Hate Torvalds gegen Intel hat.
 
Zuletzt bearbeitet:
Warum ist das so eine große News, dass Person X sich nun CPU Y gekauft hat?
Nur nebenbei: Compile-Jobs sind sehr schlecht parallelisiert bar. Man kann nicht einfach den Code auseinanderreißen und Stück für Stück in separaten Threads in einen Lexer oder gar Parser geben. Code ist sehr stark kontextabhängig. Selbst file per file ist das nur bedingt machbar, da der Kontext prinzipiell immer auch über mehrere Dateien besteht.
Ein ganzes Betriebssystem mag man vielleicht halbwegs gut parallelisieren, weil es gut abgeschlossene Compilation Units gibt. Aber einzelne Teile wohl kaum, zumindest nicht in dem Maße, dass ein Threadripper notwendig wäre.

Ich sehe den Plattformwechsel eher politisch. Man weiß ja, was für einen Hate Torvalds gegen Intel hat.

Den Kernel von unbeudentender Person X schon mal sebst kompiliert? Mit allen Modulen? Schon mal mehr als 32 Threads dafür benutzt? Schon mal mit DISTCC gearbeitet? Eigene Erfahrungswerte über die parallelisierbarkeit beim kompilieren dieses unbedeutenden, stark konextabhängigen, Haufen Code gemacht? Verschiedene Compiler genutzt und verglichen? Oder wirklich schon mal ein komplettes Betriebssystem kompiliert? Dann lass ma hören...

MfG, ein passionierter Gentoo User.

PS: Ich sehe diesen Post eher politisch, man weiß ja, wie manche an "Ihrer" Marke hängen... ;)
 
Zuletzt bearbeitet:
Nur nebenbei: Compile-Jobs sind sehr schlecht parallelisiert bar. Man kann nicht einfach den Code auseinanderreißen und Stück für Stück in separaten Threads in einen Lexer oder gar Parser geben. Code ist sehr stark kontextabhängig. Selbst file per file ist das nur bedingt machbar, da der Kontext prinzipiell immer auch über mehrere Dateien besteht.
Da spricht mit Sicherheit die eigene Erfahrung mit dem Linux-Kernel und Seiten wie Phoronix zeigen auch nur von (ja wem auch immer) gekaufte Benchmarkwerte.
 
Hast eigentlich Recht, verstehe ohnehin nicht, warum er einen 9900K hatte, selbst ein Threadripper ist doch eigentlich für ihn unsinnig. Ein EPYC DualBoard wäre da doch wesentlich sinnvoller, wäre ja nochmal mehr als doppelt so schnell und ob der Rechner jetzt 5000 oder 25000 Dollar kostet sollte so einem Kerl doch auch egal sein. Je weniger Zeit er mit dem Kompilieren warten muss, je besser.

Naja, wenn man nur am durchballern ist die ganze Zeit, sicherlich. Aber mit Pausen machen bzw. zwischendurch die Zeit totschlagen mit etwas anderem, da lohnt dann nicht der erhöhte Energieaufwand, für Mensch und Maschine.

Wenn ich Videos enkodiere, wähle ich mehrere Instanzen aus, 1 Thread darf verwendet werden (wenn ein Programm das zulässt) und dann wird nach und nach das eigentliche Berechnen abgearbeitet. Der Rest ist Leerlauf, im Internet stöbern etc.

Für diese Arbeit ist man mit einem 32 Kerner sicherlich gut bedient. Eine gute Entscheidung, wie ich finde.
Ich will damit sagen, es gibt viele Strategien von PC Benutzern, gerade dringend benötigte Rechenleistung auszulagern: Alles eine Frage der Organisaiton und wie entspannt man an das Thema heran geht.
 
Zuletzt bearbeitet:
Zurück