Oh je, das tat weh in den Augen.
Amdahl's Law hört nicht bei 4 Threads auf zu skalieren. Zu sagen Intel geht hier den richtigen Weg und AMD den falschen ist doch ******^3.
Mäßige mal deinen Ton.
Wo bitte habe ich gesagt, dass es bei 4 Cores oder Threads aufhört? WO BITTE?
Ich sage nur, dass jede weitere Parallelisierung weniger bringt als die vorige. Ein mittelding aus vielen Kernen und denen dann viel Leistung verpassen ist im Consumerbereich eben intelligenter und besser.
DAS macht Intel richtig, nicht der SMT Ansatz oder sonstwas. Da kannst du noch so viel gegenargumentieren, die rohen Zahlen zeigen einfach: 4 "starke" oder "ganze" Cores bringen mehr als 4 Schwache und 4 weitere halbe schwache. Außer in den gaaaaanz wenigen Fällen wo man rankommt.
Das Argument, dass man halt einfach alles parallelisieren müsste, dann wären Core i7 und Bulldozer gleichauf, was von vielen genannt wird zieht dann eben auch nicht, denn viele Anwendungen sind nicht gut parallelisierbar, etwa bei Spielen wo diverse Threads nunmal mehr Power brauchen als andere (etwa Physik, Weltberechnung, Audio, KI, etc)
Leicht geht das eben nur bei Dingen die gut parallelisierbar sind (Videoencoding, Povray, Audioencoding, evtl Verschlüsseln uvm), das wird aber noch viele viele Jahre eine Minderheit sein - zumindest für die Meisten hier im Forum.
Und warum der Ansatz von Intel für MICH am besseren ist, hat nichts mit blauer Brille zu tun, sondern einfach mit den Anwendungen die ich heute und in den kommenden 5 Jahren nutzen werde. Und da zeigt sich:
Wenn sie nur 1 Core brauchen oder schlecht parallelisierbar sind:deutlicher Win für Intel
Wenn sie bis 4 Cores unterstützen: deutlicher Win für Intel
wenn sie 8 Threads brauchen: knapper Sieg von Intel
Also ist die von Intel gewählte Lösung auf jeden Fall besser - für mich.
Und seien wir ehrlich, wieviele User profitieren wirklich von der Multithreadingtauglichkeit Bulldozers? 5%, vielleicht in 5 Jahren 10-15%?
Dann haben wirs so beim Bulldozer
heute in 95% der Fälle langsamer
in 5 Jahren in 85%.
Wo ist da jetzt der Fehler von Intel? Das hat wenig mit blauer Brille zu tun, das IST nunmal so. Leider. Ich hab selber gehofft Bulldozer haut den i7 weg.
Und wenn jetzt in weiteren Jahren mehr auf Parallelisierung gesetzt wird, wird es aus oben genannten Gründen immer noch Viele Anwendungen geben die viel Power von wenigen Cores brauchen. Völlig Egal ob Intel hier den 8 Core in den Mainstream quetscht, das wird den Markt nicht sonderlich beschleunigen?
Wie lange gibts leistbare 4-Cores und wieviele Programme gibts wirklich dafür?
Wie hieß es einst: als bei vielen Reviews Intel Pentium 4 und AMDs Athlon 64 performancemäßig gleichauf waren hieß es: greifen Sie zum Athlon, der ist dank 64 Bit zukunftssicherer.
Der Markt sprang auch nicht auf als ausnahmsweise Intel von AMD die Technik lizenzierte und heutzutage in jedem Prozessor drin ist.
10 Jahre später ist kaum was passiert, also erzählt mir bitte keiner was davon, dass es besser wäre 8 cores schon jetzt in den Consumerbereich zu drängen denn das wäre so gut für die Softwareentwicklung.
Was ist denn der richtige Weg, wenn ich fragen dürfte? Der Weg der für einen wichtig ist, genau. Zweitens habe ich stark das Gefühl, dass du mit der relativ schlechten Modulrealisierung von AMD deinen Beweis gefunden haben willst, obwohl ich jetzt das Szenario umdrehen könnte und sagen: "Hey Intel hat ein "Moduler" in 22nm mit 8 Kernen, frisst 80 Watt, hat einen Super-Turbo-Modus und macht AMDs fette und langsame 4 Kerne fertig, die saufen wie ein Loch."
Beweis--> Intel geht den richtigen Weg, AMD den falschen.
Nun ich weiß nicht was der richtige Weg ist. Wenn ein weg aber performancestärker, günstiger in der Herstellung, kühler, stromsparender, leiser zu kühlen usw ist, dann ist er in meinen augen kurz und mittelfristig "richtiger" als der andere.
Dass Programme kommen, die mehr als 8 Kerne nutzen ist klar, die Umstellung wird aber Jahre dauern und bis dahin ist die Architektur des Bulldozer ineffizient und die des i7 nunmal passender, weil sie die heutigen Aufgaben "effizienter" erledigt.
Ob in 5 Jahren ein Bulldozeransatz im Heimcomputer der richtige ist, weiß keiner von uns. Der richtige Weg wäre der Bulldozer dann heute aber trotzdem noch nicht gewesen, zumindest nicht vollständig. Man könnte dann sagen, AMD war der Zeit voraus bzw der Bulldozer kam nach all den Jahren Entwicklung immer noch zu früh
Vielleicht arbeitet man gerade so hart an den Fehlern und Verbesserungen des Bulldozers, dass man aber dann wenns drauf ankommt (nehmen wir jetzt mal die Fantasiezahl 5 Jahre, dies ist nur ein Platzhalter), doch vorne ist, wars zumindest zum Teil der richtige Weg - ja.
Aber weißt du es? Ich weiß es nicht.
Ich denke aber für den Many-Core CPU Markt ist der Desktoppc noch ungeeignet.
Es gibt ja schon interessante CPU Projekte (SPARC? Larrabee usw) die in diese Richtung gehen und eventuell geht mal alles in die Richtung, wer weiß.
Vielleicht kommt auch mal eine Mischarchitektur: ein paar "starke" Kerne, viele kleine für Miniaufgaben (etwa eine Kombination aus i7 und Larrabee), wie es bei Handychips ähnlich ist.
So ähnlich liest sich deine Argumentation. Die Betrachtung ist einfach zu einseitig und ich will jetzt darüber keinen Roman schreiben, da Intel so oder so im Vorteil wäre, die können sich immerhin beinahe alles leisten.
Der Vergleich ist zugegeben, fon der Finanz und Forschungsmacht her, unfair. Niemand weiß was man bei AMD draus gemacht hätte, wenn sie mehr Ressourcen gehabt hätten. Ich schätze, zumindest die IPC-C des Vorgängers hätte man dann erreicht bei weniger Verbrauch und somit in einigen Benchmarks doch besser ausgeshen. Vorallem der Rückstand in der Fertigungstechnologie ist enorm Hinderlich. Bulldozer in 22nm sieht vielleicht eine Spur besser aus. Mit der IPC oder gar ein paar Prozent besserer IPC als Phenom (schließlich ist der auch schon "ur"alt) und man hat die Konkurrenz auf Augenhöhe.
Das wäre für den Markt zu hoffen gewesen, ich hätte gehofft, dass man sogar DEUTLICH mehr IPC zusammenbringt.
Laut Intels alten Angaben verbraucht SMT 5% die area und bringt ungefähr 15-30% mehr an Performance, gleichzeitig hat Intel ab Nehalem angegeben die Effizienz stark erhöht zu haben und wie viel Performance Intel jetzt prognostizieren würde und wie viel es bei Sandy/Ivy kostet, ja das ist eine gute Frage.
Dann tuts mir leid, dass ich das völlig falsch im Kopf hatte. Zu deinen nachfolgenden Beispielen: ich meinte eher nicht Spiele, weil diese von Parallelisierung nicht so profitieren. Man sieht bei diversen Anwendungen 50%. 80% sind tatsächlich völlig aus der Luft gegriffen - sorry.
Was ich dir noch ankreiden möchte ist folgendes, in diesem Beispiel nennst du AMDs Performance-Schwäche, welche oft aufgrund von wenig Threads entsteht, beim MT sieht die Welt nicht so düster aus. Intels Lösung lobst du aber bei einem Heavy-MT-Beispiel.
Hmm ja nein so war das nicht gemeint. HT ist für mich ein zuschaltbares "gratis"-Feature im Sinne von: es braucht kaum Diefläche, kaum Strom, tut nicht weh. Bringt auch weniger - schon klar. Aber dafür, dass es scheinbar kaum Aufwand macht ist es doch irgendwie mächtig.
Und der Ansatz von Intel gefällt mir deshalb ja eben besser, weil die ganze Architektur ja darauf nicht ausgelegt sein muss und man somit in Programmen die weniger Threads brauchen deutlich überlegen ist - und jetzt kommts - und dank dieses Minifeatures in Programmen, die eigentlich wie geschaffen für einen Prozessor sind der mehr Kerne hat (Bulldozer) doch immer noch mithalten oder gar davonziehen kann.
Im direkten Vergleich sind diese 20-50 % ja doch brauchbar.
Ein direkter Vergleich wie gut die Architekturen nunmal sind, wird eh ewig schwierig:
Man nutzt ja doch den Compiler von Intel (wohingehend wird der wohl optimiert sein)
Man optimiert ja von Haus aus für die Architektur die80% Marktanteil hat
Vermutlich ist jeder Performancetrick den man anwenden kann bei der Core-Architektur schon irgendwo im Code eingebaut von vielen Anwendungen.
Während hingegen die Architektur des Bulldozer neu ist und noch "unerforscht".Wer weiß was man da noch rauskitzeln kann.
Für den Haswell MCP nutzt Intel einen ULT-Chip mit 15W TDP und der GT3 samt einem nicht näher definierten PCH - einzig LP (low power?) ist hier vermerkt.
Anhang anzeigen 561951 Anhang anzeigen 561952
Ich weiß es wurde schonmal diskutiert aber:
ist da mit den 95 Watt TDP jetzt gemeint, der Haswell -E (vermutlich nicht) oder tatsächlich der Haswell wie er für den Desktop Sockel 1150 kommt? Wenn ja dann
Dachte Intel kann den Verbrauch ihrer Performanceprozessoren weiter niedrig halten (65W) und die Leistung erhöhen. Aber ging ja bei Ivy schon fast schief