Intel Denverton: Atom-CPUs mit bis zu 16 Goldmont-Kernen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Denverton: Atom-CPUs mit bis zu 16 Goldmont-Kernen

Es gibt neue Informationen zu Intels Einsteiger-Server-Plattform Denverton. Laut der Datenbank von Sisoftware Sandra wurde eines der Topmodelle, der Atom C3955 mit 16 Goldmont-Kernen, validiert. Intel hat laut der offiziellen Ark den Einsteiger-Atom C3338 mit zwei Kernen veröffentlicht. Auf dem Markt erhältlich ist allerdings noch nichts.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Denverton: Atom-CPUs mit bis zu 16 Goldmont-Kernen
 
Eigentlich warte ich seit Stunden drauf dass einer schreibt "wer soll das Ding brauchen, der hat keine SC-Leistung und mehr als 4 Kerne nutzt eh kein Spiel". :ugly:

Wär aber wirklich neugierig, so ein Teil mal live zu erleben. Vor allem wie das Verhältnis zwischen Rechenleistung und Stromverbrauch bzw. Abwärme ist.
 
Hmm für kleine Server vielleicht nett.
Oder für Konsolen. Die stehen ja auf solche "Netbookchips" mit vielen Kernen wie etwa die PS4 und Xbox One.


Wär aber wirklich neugierig, so ein Teil mal live zu erleben. Vor allem wie das Verhältnis zwischen Rechenleistung und Stromverbrauch bzw. Abwärme ist.
Die Frage ist halt: in welchem Bereich.
Einen 8 Kerner "Jaguar" kennen wir ja aus den Konsolen schon. Jaguar ist ja auch nix anderes als AMDs Gegenstück zu Intels Atom

Eigentlich warte ich seit Stunden drauf dass einer schreibt "wer soll das Ding brauchen, der hat keine SC-Leistung und mehr als 4 Kerne nutzt eh kein Spiel". :ugly:
Bevor ich draufgeklickt hab', hab' ich das eigentlich auch erwartet.... schade. Wieder mal ein enttäuschender Tag der PCGH Community
 
Zuletzt bearbeitet:
Da Parallelisierung leider noch nicht so groß geschrieben wird, wird Singelcore-Leistung noch zu stark benötigt. Ist die Parallelisierung irgendwann so weit Fortgeschritten, dass 16-32 Kerne auch bei niedrigem Takt sehr gut ausgelastet werden können, wird die heutige Prozessor-Architektur wohl überflüssig sein.

Ich sehe eine Zukunft vor mir in dem alles nur noch von Grafikkarten berechnet wird, alleine die Vorstellung, dass ein Prozessor heute 100GFlops hat und Grafikkarten 12-7 TFLOPS. Die Geschwindigkeit wäre enorm, oder e gibt CPUs mit 4096 Kernen^^
 
Ist die Parallelisierung irgendwann so weit Fortgeschritten, dass 16-32 Kerne auch bei niedrigem Takt sehr gut ausgelastet werden können, wird die heutige Prozessor-Architektur wohl überflüssig sein.

Ich sehe eine Zukunft vor mir in dem alles nur noch von Grafikkarten berechnet wird
Dazu müssten alle Probleme parallelisierbar sein. Was aber nicht möglich ist und damit bleibt Singlecore-Leistung IMMER ein relevantes Kriterium je nach Anwendungsgebiet.
 
Da Parallelisierung leider noch nicht so groß geschrieben wird, wird Singelcore-Leistung noch zu stark benötigt. Ist die Parallelisierung irgendwann so weit Fortgeschritten, dass 16-32 Kerne auch bei niedrigem Takt sehr gut ausgelastet werden können, wird die heutige Prozessor-Architektur wohl überflüssig sein.
Ich weiß nicht warum heute immer noch Leute glauben, Parallelisierung sei ein Kinderspiel und würde nur genug Zeit brauchen.
NEIN.
Es gibt Dinge (eigentlich: fast alles), die nicht parallelisierbar sind. Auch nach vieler Optimierung nicht. Man verliert mit jeder weiteren Parallelisierung an Effizienz. Amdahl lässt grüßen.
Gut parallelisierbar sind kleine, immergleiche Aufgaben (etwa Rendering). Schlecht bis kaum parallelisierbar sind alle Aufgaben die sich stetig ändern. Also eigentlich jedes Spiel mit interaktiven Elementen.
Auch unterschiedliche Aufgaben parallelisieren ist schwierig: Physik alleine lässt sich vergleichsweise einfach parallelisieren. Den Physik-Thread (bzw die Threads) kann man dann aber nur wieder mit großem Aufwand mit dem "Spielewelt"-Thread syncronisieren. Weil diese nunmal unterschiedlich schnell laufen, je nach Spielsituation. Ganz zu schweigen von Sound, Netzwerk, KI, Drawcalls...

An many core-architekturen und inversem Multithreading wird seit Jahren geforscht. Prozessoren die 1000 minikerne haben und jeden Thread zerlegen und berechnen usw usf. Effizient ist das bislang nicht. Es gibt zwar einige interessante Prozessoren in dieser Richtung (C't hat diesbezüglich einmal berichtet), aber ob dies der richtige Weg ist, ist fraglich. Und diese Prozessoren haben dann mit unserer heute bekannten Multcore-Architektur nix zu tun.
Ich sehe eine Zukunft vor mir in dem alles nur noch von Grafikkarten berechnet wird, alleine die Vorstellung, dass ein Prozessor heute 100GFlops hat und Grafikkarten 12-7 TFLOPS. Die Geschwindigkeit wäre enorm, oder e gibt CPUs mit 4096 Kernen^^
Grafikkarten sind nach wie vor Spezialprozessoren. Deren 4000 Kerne lassen sich nur deshalb ausnutzen, weil sich diese winzigen, einfachen Aufgaben eben hervorragend parallelisieren lassen. Das trifft aber auf 99% der anderen Dinge nicht zu. Sonst würde AMD längst Radeon Desktopprozessoren verkaufen die x86 emulieren. Per software geht das ganze schon längst, Transmeta hatte einen VLIW-Prozessor, welcher teils ähnlich wie eine Grafikkarte funktioniert hat und x86 Code ausgeführt hat.
 
Ich weiß nicht warum heute immer noch Leute glauben, Parallelisierung sei ein Kinderspiel und würde nur genug Zeit brauchen.
NEIN.
Es gibt Dinge (eigentlich: fast alles), die nicht parallelisierbar sind. Auch nach vieler Optimierung nicht. Man verliert mit jeder weiteren Parallelisierung an Effizienz. Amdahl lässt grüßen.
Gut parallelisierbar sind kleine, immergleiche Aufgaben (etwa Rendering). Schlecht bis kaum parallelisierbar sind alle Aufgaben die sich stetig ändern. Also eigentlich jedes Spiel mit interaktiven Elementen.
Auch unterschiedliche Aufgaben parallelisieren ist schwierig: Physik alleine lässt sich vergleichsweise einfach parallelisieren. Den Physik-Thread (bzw die Threads) kann man dann aber nur wieder mit großem Aufwand mit dem "Spielewelt"-Thread syncronisieren. Weil diese nunmal unterschiedlich schnell laufen, je nach Spielsituation. Ganz zu schweigen von Sound, Netzwerk, KI, Drawcalls...

An many core-architekturen und inversem Multithreading wird seit Jahren geforscht. Prozessoren die 1000 minikerne haben und jeden Thread zerlegen und berechnen usw usf. Effizient ist das bislang nicht. Es gibt zwar einige interessante Prozessoren in dieser Richtung (C't hat diesbezüglich einmal berichtet), aber ob dies der richtige Weg ist, ist fraglich. Und diese Prozessoren haben dann mit unserer heute bekannten Multcore-Architektur nix zu tun.
Grafikkarten sind nach wie vor Spezialprozessoren. Deren 4000 Kerne lassen sich nur deshalb ausnutzen, weil sich diese winzigen, einfachen Aufgaben eben hervorragend parallelisieren lassen. Das trifft aber auf 99% der anderen Dinge nicht zu. Sonst würde AMD längst Radeon Desktopprozessoren verkaufen die x86 emulieren. Per software geht das ganze schon längst, Transmeta hatte einen VLIW-Prozessor, welcher teils ähnlich wie eine Grafikkarte funktioniert hat und x86 Code ausgeführt hat.
Arbeite selber in der Softwareentwicklung und man kann viel parallelisieren. Ja es kostet Zeit, aber unsere heutigen Systeme sind auch noch nicht dafür ausgelegt. Wenn die ersten guten Schnittstellen geschaffen sind die einen Prozess sinnvoll auf mehrere Prozesse umlegen können, wird der Schritt dahin gehen. Zumal alles was "echtzeitfähig" sein soll sowieso parallel ablaufen muss.

Gesendet von meinem SM-G900F mit Tapatalk
 
Wer braucht so eine CPU? Der hat überhaupt keine Single Thread Leistung und mehr als 4 Kerne nutzt eh kein Spiel



(Eine Antwort nur für Shootme55)
 
Zurück