Intel Skylake: Bilder und Benchmarks aufgetaucht

Ja eben, ich weiß jetzt nicht genau wer es bereits hier im Thread erwähnt hatte, aber ...
Die Leute/User/Kunden erwarten einfach zu hohe Sprünge von neuen CPU-Generationen, die wird es aber nicht mehr so schnell geben, gibt ja für Intel keinen Grund dafür.

Edit: Hab das Zitat gefunden, das trifft's doch eigentlich ganz Gut.
Die meisten haben eh unrealistische Erwartungen. Die Zeit der großen Leistungssprünge bei x86 CPUs ist längst vorbei, selbst wenn AMD nicht so weit zurückliegen würde. Der einzige Unterschiede wäre, dass wir wahrscheinlich auch 6-Kern-CPUs von Intel im Mainstream hätten und die Preise evtl. niedriger wären.

Grüße
 
Zuletzt bearbeitet:
hmmm wieder nur max.4 Kerne + SMT im Mainstream, wieder ca.10% mehr auf die Vorgängerversion......
laaaaaaannnnnnggggggggwwwwwwweeeeeeiiiiiiiiilllllllliiiiiiiiiiggggggg...

Mein I7 2600K wird wohl meine längste in meinem PC dienende CPU ever werden...:ugly:

Tja , mit Directx 12 , wenn es so funktionieren sollte , wie geplant , wirst du wohl deine Langeweile in der Zeit mit anderen Dingen verbringen müssen , anstatt sich in Zukunft eine neue CPU kaufen zu müssen. Ich persönlich finde das gut , da man weniger Geld für neue Hardware ausgeben muss.
 
Diese Herleitung klingt erstmal logisch, lässt aber zwei wichtige Faktoren außer acht. DDR4-Ram und die Sockel 2011-3-Mainboards wurden neu eingeführt und waren am Anfang deutlich überteuert. Hier ging der Dollar-Preis dieser Teile deutlich runter. Unsere Währung hat das ganz gut ausgeglichen. Zweiter Punkt ist die Entwertung der Technik durch Fortschritt. Im Normalfall wird Hardware immer billiger. Gerade bei Grafikkarten merkt man z.B, dass dies nicht mehr so ist. Eine GTX 970/980 kosten aktuell mehr als zur Markteinführung. SSDs haben sich nicht wie sonst üblich stetig verbilligt sondern sind konstant bis leicht teurer.

Daher hat man eher soetwas wie ein gefühlte Stagnation, da nur sehr wenig Wertverlust zum Einführungspreis gegeben ist. Das ist gut für Verkäufer gebrauchter Hardware. Letztlich reinschlagen werden dann neu eingeführte Modelle. Wenn dann der kleine I7-6xxx nicht mehr 300 sondern 420 Euro kostet, merken dann schlagartig alle, dass unsere Währung erheblich schwächer geworden ist.

Das Warum: Mario Draghi.
In seiner "gefühlten" unendlichen Weisheit hat er in bewährter Rockefeller-Manier (keine Abstimmung in irgendwelchen zuständigen Gremien sondern durch Mitteilung per Pressekonferenz) entschieden, dass es eine gute Idee sei, die Preise steigen zu lassen.

Wie macht man dass? Man wirft so viel Geld auf den Markt, dass das System sich anpassen muss. Aber man druckt nicht einfach Geld, das macht zu viel Arbeit. man "kauft" Staatsanleihen. Die EZB braucht dafür keinen Gegenwert in Geldform. Sie erschafft so neues Buchgeld. Dieses "virtuelle Geld" landet bei den Staaten, die es ausgeben. Damit wird es Realkapital. Die EZB erschafft somit jeden Monat 60 Mrd. Euro an neuem Geld. Das ist nun soviel, dass die gesamte Geldmenge langsam ansteigt. Geld ist nicht mehr so knapp wie früher und folglich weniger Wert.

Warum
Warum macht man sowas? Ganz einfach: Man hat sich mit den Schuldenmachen übernommen und sucht eine angenehme Art der Refinanzierung. Da ist es ganz praktisch, dass Geld lediglich ein Zahlungsmittel ist und sein Wert von seiner Kaufkraft abhängt. Sinkt die Kaufkraft des Geldes, hab ich weniger Schulden. Meine Sicherheiten und mein Anlagevermögen sind dann mehr Geldeinheiten Wert.

Kann ich meine Schulden nicht mehr tilgen, senke ich also den realen Gegenwert meiner Schulden und bin dann fein raus.

Angenommen ich haben 2 Billionen Euro Schulden (Deutschland).
- Entsprechen diese 2 Billionen Euro der jährlichen Wirtschaftsleistung des ganzen Staates, ist das relativ viel.
- Entsprechen dieselben 2 Billionen Euro aber nur noch dem Wert eines Brotes, ist das sehr wenig (Extrembeispiel).

Probleme dabei:
Da die EZB den Zins trotz steigender Geldmenge künstlich niedrig hält - sonst könnten man sich ja schlecht entschulden - sind diejenigen, die keine Schulden sondern Ansprüche haben (Rentenansprüche, Sparer, Lebensversicherungen, Kreditgeber) im Hintertreffen. Sie werden schleichend aber kontinumierlich enteignet. Der Zins wirkt hier nicht als Korrektiv.

Du kannst mir glauben, ich merke den Wechselkurs jeden Tag (siehe Wohnort). Ich kann mir aber nicht vorstellen das das nur vom Wechselkurs kommt, weil wirklich nur CPUs teurer werden und nichts sonst. Klar kann man das über Wertverlust durch Fortschritt erklären, aber auch die CPUs werden theoretisch günstiger. Folglich müsste hier der gleiche Effekt einsetzen und nur der Wertverlust stagnieren, faktisch liegt der aktuelle Preis beim 4790k rund 100€ über dem Tiefpreis Mitte 2014.

Ich hab mal kurz deine These durchgerechnet für 5820k und 4790k und komme tatsächlich exakt auf die Dollarpreise zu denen sie gehandelt werden. Beim 5820k wären der Preis ohne Steuern 405/1,19=384€ -> 368$, was ziemlich genau dem entspricht wie er in den Staten gehandelt wird, beim 4790k stimmt es auch. Also muss die Dollar These stimmen, mein Fehler :fresse: Ich finde es trotzdem extrem komisch.
 
sowie ACDSee es beschrieben hat ist es genau richtig.

Es liegt allein an den miesen Euro Kurs, das Hardware deutlich teurer wird ( CPUs) oder stagniert. ( SSDs) Alle Waren die in Dollar gehandelt und importiert werden sind davon betroffen. Inland oder EU Produkte sollte das nicht betreffen. Falls Griechendland bald aus der Eu ist, könnte der Euro auch wieder stärker werden. Ewig fallen kann der Euro sowieso nicht, kann auch gut sein das andere Staaten ihr Geld auch abwerten und somit würde der Euro wieder steigen.

Es stimmt zwar das die Hardware im laufe der Zeit an Wert verliert, aber das ist schon lange nicht mehr so extrem wie es einmal war. Das liegt auch daran, das erstmal kaum wirklicher Bedarf an neuer Hardware gegeben ist und das Angebot eher unattraktiv ist, kaum Leistungsprünge bei Cpus oder GPUs. Vor 10 Jahren hat man vielleicht alle 2-4 jahre auf gerüstet, nun sind es ebend alle 4-8 Jahre.

Aber das ist alles nur reine Spekulation, am Ende heisst es " Man kauft Hardware dann wann man sie braucht" :)
 
Zuletzt bearbeitet:
Echten 8 Kerner, zwei Kerne des FX teilen sich Komponenten wie z.B. die Floatingpoint ALU und sind deshalb nicht komplett unabhängig bzw. behindern sich beim arbeiten ;)


Aber das ist alles nur reine Spekulation, am Ende heisst es " Man kauft Hardware dann wann man sie braucht" :)

Ich bin halt grad am überlegen ob ich mir die CPU schonmal auf Vorrat bunker, ich will im Sommer bauen. Viel schlechter kann der Preis aber eigentlich nicht mehr werden :ugly:
 
ich kenne den aufbau, deswegen stört es mich ja auch wenn jemand meint die kerne wären nicht "echt"!
es ist einfach technischer unsinn...

FPU ist kein teil des kerns, die ist seit dem K7 bei AMD nicht in den kern integriert!
 
Finde ich gar nicht schlimm, dass es wieder nur 10% mehr Leistung sind.
Ich hätte keine Lust, jedes Jahr oder alle zwei Jahre eine neue CPU samt Bord
evtl. neuen Arbeitsspeicher kaufen zu müssen.
Womöglich alle drei Jahre dann ein neues Betriebssystem, alle zwei Jahre ein neues Smartphone usw.
Da würde ich ja bekloppt werden, man will ja mal in den Urlaub, neues Auto, Rad, was man immer auch tatsächlich benötigt.
Dann würde man ja wirklich nur noch arbeiten für die Marktwirtschaft.
Von daher bin ich beruhigt, dass ich keine neue CPU brauche, stattdessen kann ich mir was kaufen, was ich tatsächlich benötige und das ist kein neues Smartphone.

:ugly:
jaja Intel & Apple zwingen Dich zum Aufrüsten mit Knüppel & Pistole :schief:
Eigenverantwortung? Wozu gibt es Marketing?

Ich wäre mal froh wenn es ne 30%+ Steigerung gäbe; dann KÖNNTE man überlegen ob man die Mehrleistung überhaupt braucht bzw.
ob in der NÄCHSTE Generation die weiteren +30% Leistung bringen sollte eher in Betracht fällt.

@Skylake
Mir gefallen eher die Goodies die dann neue MoBos mitsichbringen (mehr USB3.0 bzw. auch 3.1; mehr SATA III Ports, mehr PCIE usw. usw.)
Wenn es noch ein MoBo geben wird was DDR3 unterstützt würde ich ggf. upgraden.
 
haben sie mit Bulldozer getan, die fertigugn war das problem.
mal sollte da nicht immer die µArch mit der fertigung verwechseln!
Die Fertigung und Architektur war ein Problem.

ich kenne den aufbau, deswegen stört es mich ja auch wenn jemand meint die kerne wären nicht "echt"!
es ist einfach technischer unsinn...
Ah, ein Kern besteht nur aus Integer-Pipes, shared fetch unit, shared decode/dispatch unit, shared FPU, dass ist egal, wenn man über "echte" Kerne reden möchte.
Meiner Meinung nach ist es egal, da es sich sowieso schlecht vergleichen lässt, aber Bulldozer hatte seine Kompromisse.
 
haben sie mit Bulldozer getan, die fertigugn war das problem.
mal sollte da nicht immer die µArch mit der fertigung verwechseln!

Selbst mit konkurrenzfähiger Fertigung sind sie haushoch unterlegen, Intel hat mit 32nm den 980X hergestellt und zwar schon 2010! Daran ist bis heute, 5 Jahre später, kein AMD vorbeigekommen (jedenfalls keiner für Normalverbraucher)

ich kenne den aufbau, deswegen stört es mich ja auch wenn jemand meint die kerne wären nicht "echt"!
es ist einfach technischer unsinn...

FPU ist kein teil des kerns, die ist seit dem K7 bei AMD nicht in den kern integriert!

Darüber läßt sich trefflich streiten, Tatsache ist das Teile des Cache und etliche Recheneinheiten bei AMD geteilt werden die Bei Intel jeweils getrennt vorhanden sind. Die noch wichtigere Tatsache ist das jeder AMD nur etwa halb so stark ist wie einer von Intel und deshalb stinkt AMD leider seit dem Bulldozer einfach nur ab.

Mag sein das du von AMD sehr begeistert bist um es vorsichtig auszudrücken und jeden (incl. mich) als Intelfanboy beschimpft hast der die Dinge ein klein wenig realistischer sieht, schneller werden die Dinger dadurch auch nicht. Im Gegenteil, das ganze bekommt eine unfreiwillige Komik, so wie in der DDR, alles ist ist gut - AMD ist schnell, keiner braucht den i7 usw.. AMD ist zur Zeit einfach nur schlecht und sie kommen nicht davon los, sieh es einfach ein, dann kamm man auch über die Dinge reden bei denen AMD noch brauchbar ist (Rendering beim FX 6/8000 und ihre APUs.
 
Mir gefallen eher die Goodies die dann neue MoBos mitsichbringen (mehr USB3.0 bzw. auch 3.1; mehr SATA III Ports, mehr PCIE usw. usw.)
ist bei den meisten so, die wenigsten rüsten wegen der leistugn auf, die zeiten sind vorbei.

meine alte AM2 kiste mit AM3 CPU (dank beta bios!) und 8GB DDR2-SDRAM reicht mir noch für alles, da kommt jetzt eine billige SSD um <100€ rein und mitte 2016 rüste ich auf Zen auf, falls USB 3.1 Gen 2 in den chipsatz integriert wurde!

ausschlaggebend für den kauf ist also rein USB 3.1 Gen 2 und andere sachen, aber NICHT die APU.
und wenn es nicht integriert wird warte ich halt, ein zusatzchip am mainboard geht nicht, nicht wenn ich ein neues system nach vielen jahren kaufe!

bin ja echt gespannt wer zuerst USB 3.1 Gen 2 integriert hat, tippe mal auf AMD, dank der zusammenarbeitet mit ASMedia:}
 
Was ist USB 3.1 Gen 2? :huh: Meinst du USB Typ C?

Und wegen der 8-Kern Geschichte: Ich will das absolut nicht mit dir ausdiskutieren, aber wenn zwei "Kerne" nicht voll parallel z.B. Floatingpoint Operations rechnen können sind das für mich keine vollwertigen Kerne...einer rechnet, einer stallt.
 
USB 3.1 Gen 1 (5Gb/s) ist nur umbenanntes USB 3.0 (5Gb/s) bei dem jetzt höhere spannungen erlaubt sind.
kann 3.0 jetzt zwar auch schon, aber es war noch nicht in der Spec enthalten, also reiner beschiss.
Apple verwendet Gen 1 im macbook.

USB 3.1 Gen 2 = 10Gb/s
cy5amrz7qjoigmg4p.jpg

Type-C darf auch noch USB 2.0 sein, der stecker sagt noch nichts aus!
cy5an6sh819t6x8h5.jpg


einer rechnet, einer stallt.
und das trifft eben NICHT zu.
ich habe eben ahnung von CPUs, deswegen finde ich den blödsinn von den "unechten" kernen auch so schlimm!
die geteile FPU tut nichts zur sache.

1. ist die FPU kein bestandteil des kerns, auch ohne FPU wären es 8 kerne.

2. jeder kern hat 128bit breite der FPU, mehr gibt es bei Silvermont, Core2, K10,... auch nicht.
laut deiner logik wären das dann ja auch keine echten kerne!
 
Zuletzt bearbeitet:
Also von mir aus kann das jeder sehen wie er will mit der Kerndefinition. Persönlich halte ich es gerade für AMD als sehr unklug zu behaupten der 8000er FX wäre ein Achtkerner, weil man dann entgegenen kann "Tja dann ist Intel mit der halben Kernzahl schon schneller" bzw. "der Intel-8-Kerner ist mehr als doppelt so schnell". Da würde ich doch eher sagen es wäre ein 4 Kerner der ein paar Recheneinheiten doppelt hat und mich gegen die 4-Kerner der Konkurrenz hinstellen. Dann sind sie zwar immer noch etwas langsamer und viel ineffizienter aber es sind immerhin keine Welten mehr wie wenn man versucht nen "8-Kern" 8350er gegen nen "8-Kern" 5960X zu stellen. :ugly:


Was das angeht wundere ich mich auch etwas dass über so lange zeit wirklich gar nichts mehr gekommen ist. Klar, Intel macht pro Generation nur 10% Leistungssprünge was mich auch ärgert... aber AMD macht... gar keine?

Ich will schwer hoffen dass ZEN da wieder mithalten kann aber ehrlich gesagt halte ich die Chance leider für ziemlich gering einen so großen Rückstand auch noch mit einer unterlegenen Fertigungstechnik wettmachen zu können. Schade eigentlich.



Achso, was USB3.1 angeht: 10GBit/s kann jeder USB3.1 laut Spec.
 
Gut und wie verhält sich das wenn ein Prozessor keine FPU hat und diese mit Festkommaarithmetik emuliert wird?
Ich meine das mal so in einem Artikel gelesen zu haben bin da aber bestimmt nicht so der Fachmann.
Macht das dies nicht deutlich langsamer?

Grüße
 
Die letzten x86-CPUs ohne integrierte FPU gab es meiner Erinnerung nach als Ablager des 486. Die Frage, wie sich die FPU auf die Kernzählweise von Multi-Core-CPUs auswirkt, musste also nie geklärt werden und es gibt keine Norm dafür.
Da auch die Inhalte eines Kerns nicht genau definiert sind, würde ich mich in der Praxis auf die absolute Rechenleistung und die Anzahl der logischen Kerne beschränken. Solange man nicht die Single-/Low-Threadleistung betrachtet dürfte es für die Software von untergeordneter Bedeutung sein, ob sie zwei logische Prozessoren mit 4 ALUs und zwei FPU-Pipelines in Form eines Haswell-Kerns mit SMT oder in Form eines Bulldozer-Moduls mit CMT nutzt.


USB 3.1 Gen 1 (5Gb/s) ist nur umbenanntes USB 3.0 (5Gb/s) bei dem jetzt höhere spannungen erlaubt sind.
kann 3.0 jetzt zwar auch schon, aber es war noch nicht in der Spec enthalten, also reiner beschiss.
Apple verwendet Gen 1 im macbook.

USB 3.1 Gen 2 = 10Gb/s
Anhang anzeigen 821094

Type-C darf auch noch USB 2.0 sein, der stecker sagt noch nichts aus!
Anhang anzeigen 821095



und das trifft eben NICHT zu.
ich habe eben ahnung von CPUs, deswegen finde ich den blödsinn von den "unechten" kernen auch so schlimm!
die geteile FPU tut nichts zur sache.

1. ist die FPU kein bestandteil des kerns, auch ohne FPU wären es 8 kerne.

2. jeder kern hat 128bit breite der FPU, mehr gibt es bei Silvermont, Core2, K10,... auch nicht.
laut deiner logik wären das dann ja auch keine echten kerne!


Superspeed+ ist Bestandteil der USB 3.1 Spezifikationen, die meines Wissens nach keine weitere Unterteilung kennen. USB.org - Documents Alle derzeit verfügbaren "USB 3.1" Mainboards bieten 10 Gbit/s.

Meines Wissens nach nicht Bestandteil dieser Spezifikation sind die für Typ-C getrennt definierten Stromversorgungsoptionen oberhalb von 5 V / 1,5 A.
 
Zuletzt bearbeitet:
Persönlich halte ich es gerade für AMD als sehr unklug zu behaupten der 8000er FX wäre ein Achtkerner, weil man dann entgegenen kann "Tja dann ist Intel mit der halben Kernzahl schon schneller" bzw. "der Intel-8-Kerner ist mehr als doppelt so schnell".
unklug war es aus marketingsicht sicher, aber aus technischer sicht war es eben zu 100% korrekt!


Macht das dies nicht deutlich langsamer?
natürlich, aber die geschwindigkeit definiert eben nicht was ein kern ist oder was keiner ist!


Superspeed+ ist Bestandteil der USB 3.1 Spezifikationen, die meines Wissens nach keine weitere Unterteilung kennen.
die bilder sind aus der spec!
apple bietet beim neuen macbook definitiv nur 5Gb/s, also Gen 1.


Meines Wissens nach nicht Bestandteil dieser Spezifikation sind die für Typ-C getrennt definierten Stromversorgungsoptionen oberhalb von 5 V / 1,5 A.
der Type-C hat ein seine eigene spec.
man kann halt am stecker selbst nicht erkennen ob ein gerät 2.0, 3.0 oder 3.1 bietet:\
 
Zuletzt bearbeitet:
Sehe ich persönlich nicht so (einfach weil der Kern 1 eines Moduls nicht eigenständig funktioniert wenn man das weglässt was zu Kern 2 und dem drumherum gehört und deswegen auch keine eigenständige Funktionseinheit sein kann - ein "Kern" ohne Fetch/Decode kann eben nix machen) aber wie gesagt das kann jeder für sich selber mit seinem Gewissen vereinbaren.

Wenn man deine Definition anlegt könnte man böse gesagt auch behaupten, dass aktuelle GPUs 2000 Kerne haben. Wenn man sich dann besser fühlt... meinetwegen :ka:
 
Wenn man deine Definition anlegt könnte man böse gesagt auch behaupten, dass aktuelle GPUs 2000 Kerne haben. Wenn man sich dann besser fühlt... meinetwegen :ka:

Mir persönlich ist es jetzt eigentlich Wumpe, ob die CPU nur einen Kern, 8 Kerne oder 100 Kerne hat.
Wichtig ist, dass hinten was Brauchbares in Form von Leistung bei möglichst geringer Leistungsaufnahme raus kommt.
Und aktuell bietet Intel hier einfach mehr. Was natürlich auch daran liegt, dass sie rein von der Entwicklung her gesehen, einige Jahre Vorsprung haben vor AMD.
 
Für mich interessant ist eigentlich nur die Anzahl Threads - und das auch nicht aus irgendwelchen ideologischen Ansichten heraus sondern einfach weil ich mir überlegen kann/muss wie ich die am sinnvollsten benutze/auslaste. :D
 
Zurück