Forscher wollen die Leistung von Multi-Core-CPUs um 40 Prozent steigern

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Forscher wollen die Leistung von Multi-Core-CPUs um 40 Prozent steigern gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Forscher wollen die Leistung von Multi-Core-CPUs um 40 Prozent steigern
 
als leie kann ich das mit dem vorhersagen immer nicht wirklich glauben das sowas sinnmacht ... bzw könnte es ja komplett das gegenteil bewirken ...
 
Verstehe ich Prefetching richtig?

Wenn ich Word öffne denkt sich die CPU beim Prefetching "oh der will was schreiben". Tue ich das sollte ich ein Leistungsschwung erleben, abgesehen davon das beim Schreiben in Word nicht viel zu tun ist für ein Prozessor. Öffne ich aber ein Video statt anzufangen zu schreiben, brauch das Video etwas länger mit dem berechnen.

Stimmt meine Denkweise?
 
Prefetching

Als Prefetching (englisch, dt. ‚vorheriges Abrufen (von Befehlen)‘) bezeichnet man in der Informatik das heuristische Laden von Speicherinhalten aufwärts in der Speicherhierarchie, bevor ein Bedarf evident geworden ist, um so im Falle des tatsächlich eintretenden Bedarfs eine höhere Zugriffsgeschwindigkeit zu erzielen.


Und nein, es geht nicht darum das der CPU würfelt welchen Buchstaben du als nächstes tippst. Es geht ja darum das die Daten aus dem Arbeitsspeicher geladen werden. Was du grade eintippst befindet sich aber noch nicht im Ram. Deswegen kann er, so weit ich das beurteilen kann, auch nicht darauf tippen.
 
Allerdings könnte er schonmal die Fonts laden die du wahrscheinlich verwenden wirst...

Aber so richtig kappiere ich das auch nicht. Ist eher Micromanagement.
 
Das währ ja wahnsinn!!! 40 Prozent ist immens u da bin ich gespannt drauf ob das realität wird:wow:
Bitte GENAU LESEN!

Da steht 40% im Vergleich zu Prozessoren OHNE Prefatching. Jede akutelle CPU die man in einem Desktop findet HAT aber Prefatching. Damit wären es vielleicht noch 10%. Wobei halt die Frage ist, ob da mit den neuen Prozessoren von Intel/AMD verglichen wurde. Deren Prefatching-Logik ist schon sehr ausgefeilt.
 
Bitte GENAU LESEN!

Da steht 40% im Vergleich zu Prozessoren OHNE Prefatching. Jede akutelle CPU die man in einem Desktop findet HAT aber Prefatching. Damit wären es vielleicht noch 10%. Wobei halt die Frage ist, ob da mit den neuen Prozessoren von Intel/AMD verglichen wurde. Deren Prefatching-Logik ist schon sehr ausgefeilt.



@ Skysnake es ist aber prefetch, ich habs genau gelesen:D
Ja kleinlich ich weiss:P - bitte trotzdem nichts im Atomkraftwerk anfassen:ugly:, sonst müssen wir alle aaaaaaaaaaa statt e...
Topic:
Wenn die es wollen, sind die vielleicht schon weiter, bleiben wir also heiter:banane:, sonst müssen die irgendwann sollen:devil:

Schönes WE. Habe ich das geschrieben, wer kontrolliert schon wieder meine Gedanken?!:ugly:. Ich nicht!:ugly: & Wer war das bitte?:ugly:

@ Skysnake - Stell Dir vor es wäre gedenken (=RIP) da machts einen riesen Unterschied - ich habe Dich verstanden.
(Lass es so, dann bin ich nicht der einzige mit Fehlern - ich darf ja nicht mal in die nähe von so einem Kraftwerk, schlechte Aura / Karma & alle sind froh):ugly:
 
:P ja mein Gott, passiert halt :P

Und ich will auch gar nicht im AKW arbeiten. Der LHC ist VIEL spannender, oder darf ich das auch nicht, weil ich sonst noch ein Schwarzes Loch entstehen lasse? :lol:
 
Allerdings könnte er schonmal die Fonts laden die du wahrscheinlich verwenden wirst...

Aber so richtig kappiere ich das auch nicht. Ist eher Micromanagement.

Eure Beispiele sind alle viel zu groß. Die könnten bei Precaching HDD->RAM passen. Prefetiching vom RAM in die CPU spielt sich auf viel kleineren Ebenen ab. Wenn du z.B. ein Bild bearbeitest, das im geöffneten Zustand 10 MiB groß ist, dann kann die CPU gar nicht das Bild und das Programm in seine 4-8 MiB Cache prefetchen.
Aber wenn dein Browser zum 30 mal in dieser Minute html-Code rendern will, dann sollten sich die typischerweise benötigten Teile der Engine vorhersagen lassen. Oder wenn ein Spiel 100 durchnummerierte KI-agents nacheinander durch die gleiche Engine schleust.
 
Dieses Verfahren mit der "vorhersage" ist doch nichts neues?!
Das Prefetching findet doch heutzutage schon statt.
Im Cache Speicher. Die Strategie zum Nachladen läuft genau nach diesem Prinzip.
Im Pipelining-Verfahren wird auch mithilfe von "vorhersagen durch den blick in die vergagnenheit" bestimmt,
was in die Pipeline geladen werden muss.
Falls es falsch war, muss die Pipeline auch geflusht und geleert werden...

Das ist doch nichts neues.

Aus dem Artikel bekomme ich wirklich keine neuen Erkenntisse...
 
Das neue ist die Vorverteilung von Speicherbandbreite an Kerne, bei deren Aufgaben Prefetching besonders sinnvoll ist. Bislang müssten die Speicherzugriffe gleichberechtigt vergeben werden, was dann dazu führt, dass einige Prefetcher höchstwahrscheinlich sinnloses Zeug laden, wärend andere ihr Potential nicht entfalten können.

In der Theorie. Vielleicht in Servern.
In der Dekstop-Praxis bleibt festzuhalten, dass Speicherbandbreite so ziemlich das letzte ist, woran es CPUs aktuell mangelt und kommende Quad-Channel-Modelle versprechen noch sinnlosere Reserven.
 
Zurück