Offizielles von Intel: Tick-Tock-Zyklus nur noch alle 2,5 Jahre, Cannonlake erst H2/2017, Skylake-Refresh

sofern Skylake E keine Desktop 12 Kerner kriegt. :D :ugly:
Ich werde jedenfalls auf skylake E wechseln, und hoffe, dass es dann einen preisbewussten 8 Kerner gibt.

Aber wenn ich mir das hier so anschaue, befürchte ich, dass Skylake E erst 2018 kommt.
 
Anno 2070 bitte mal im Zeitraffer testen :daumen:
Der 1090T wurde bei 230k Einwohnern auf 16Fps gedrückt.
Der i3 4130 macht noch 30-50...
Also meine Cpu reicht mir ,wer mehr ausgibt für Mainstream (BF4,Anno,COD) ist selbst schuld.
Hab selbst in crysis 30 immer +-35minfps,die graka nicht.
Und mein System hat oft Internetexplorer im Hintergrund,worauf er auch noch empfindlich wirkt ...
nochmals,die aussage mit 60fps verlierst du,mein 6 kerner 1090t hatte 4,0 ghz und 3 Nb takt.
Technik steht nicht still.
 
Mehr Kerne ist auch immer so ne Tolle Aussage. Ich frage mich dann immer für was denn? Wie viele Anwendungen gibt es denn die 4 Kerne schon Ordentlich nutzen?
Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.
Das ist jetzt sehr drastisch ausgedrückt, aber es gibt hier genügend Nutzer -- und ich will Dich da gar nicht einbeziehen -- die denken, Rechner wären geil für Zocken und Videobearbeitung und das war's. Angesichts der Möglichkeiten hinsichtlich artifizieller Superintelligenz und deutlich höherer Lebenserwartung -- abhängig davon, ob Moore's Law weiterhin bestand hat -- geht mir dieses Denken hin und wieder auf den Senkel.
 
Moores gesetz kann keinen langfristigen bestand haben,weil die Mechanik zur Herstellung nicht mehr mithalten kann.
Es wird halt zeit dem normalen Schaltkreis das nein zu geben, und Kohlefaser mit LED´s zu schrumpfen.
Dies könnte man flechten wie Kupfer,nur bei deutlich geringerer Komplexität.
Bei +-5 Nanometer ist die kommenden 40jahre eh erstmal schluß.
Weitere erfolgreiche Prototypen beruhen auf simplen Bakterien,aber die sterben noch zu schnell ab.
Heutige CPU´s sind für Folding übrigens eher ungeeignet ,da liefert die Effizienz und Parralelkernzahl von GPU´s mitderweile die bessere lösung.
(Kleine aber spezialisierte rechensummen,weiß nicht wie ich das einfach erklären soll)
 
Du spielst ihm gerade zu in die Hand mehr kerne bringen gar nichts wen sie nicht genutzt werden was sich in den letzten Jahren verändert aber ein 16 Kerner hat nicht 4x mehr leistung als ein 4 Kerner wen die Software nicht drauf abgestimmt ist und das ist sie mommentan nicht! Oder kannst du mir eine Quelle nennen die das wiederlegt.
 
Es kommt auf die Anwendung,und die Spezialisierung der einheiten an.
Suche beim Schiffsbau des niederländischen Militärs ,unter anderem.
In Krankenhäusern die Gpu´s für tomographen verwenden.
An der Börse,wo der Xeon wohl eher die minderwertige Version darstellt.
In Spielen,die deine Shader wirklich brauchen.(oder ein paar tausend reine CPU x86 kerne für 30 fps)
Eine normale X86/64 Cpu kann alles,aber nichts kann sie richtig gut.
 
Ich weiß nicht, was ihr alle mit euren 8 Kernern habt. Nennt mir mal eine Software die nicht auf nem i3 oder i5 läuft? Warum sollte Intel also die 6 und 8 Kernern für 300€ raushauen, wenn sie eh nur von Entusiasten und für Workstations/Server interessant sind. Das ist nur ein kleiner Teil der Kundschaft und die zahlen dann aber auch gut dafür.

Hey Kollege,

das ist eben das Ei-Henne Problem. Gäbe es bezahlbare 6-8 Kerner für den Normalo, würde auch darauf optimiert werden, bzw würden sich ganz neue Möglichkeiten eröffnen. Nur weil von Intel seit gefühlt 10 Jahren nix Neues im Mainstream als ein Quad kommt, heißt das nicht, dass das gut so wäre. Mehr Leistung (zB deutlich mehr CPU-Kerne) wird nur dann umgesetzt, wenn sich diese auch auf dem Markt durchgesetzt haben. Daher ist die momentane Situation für niemanden gut. Außer für AMD natürlich, da sie so weniger Rückstand aufzuholen haben und hoffentlich mit Zen und 8 (schnellen!!!!!!) Kernen im Mainstream dann einen neuen Standard setzen, für den sich Intel als Monopolist zu schade für ist. Die ziehen sich lieber hohe Margen rein und werden dafür noch überall befürwortet :rollen:

Grüße

Micha

PS: Wenn alle so denken würden, würden wir noch im Anfang des 3D-Zeitalters feststecken, und uns jahrzentelang Half-Life 1 Grafik reinziehen, weil es ja AUSREICHT :schief:
 
Du spielst ihm gerade zu in die Hand mehr kerne bringen gar nichts wen sie nicht genutzt werden was sich in den letzten Jahren verändert aber ein 16 Kerner hat nicht 4x mehr leistung als ein 4 Kerner wen die Software nicht drauf abgestimmt ist und das ist sie mommentan nicht! Oder kannst du mir eine Quelle nennen die das wiederlegt.
Das gilt für Spiele! Folding at Home skaliert ganz wunderbar auf 100.000 Kernen, Schachsoftware geht mittlerweile sehr gut mit 16 Kernen um. Ich weiß, diese Seite ist in erster Linie für Gamer, aber Moore's Law betrifft mittelbar unsere Lebenserwartung. Da darf man auch schon mal über den Tellerrand schauen, statt zu sagen, "mir doch egal, dass es keinen Fortschritt gibt, The Witcher kann ich mit nem i5 gut zocken!"
 
So wie es dem Entwicklungsstand entsprechend aussieht werden AMD und Nvidia graka´s die nächsten Jahre auch einen richtigen tritt erfahren,leider :(.
Die Iris hat halt schon jetzt die effizienznase ,irgendwo,im nirgendwo.(Vergrößer die Anzahl der Einheiten und gib dedizierten Speicher,blub)
Intel solls egal sein ,lieber Monopol als tot.
So denkt die gesamte Wirtschaft.
 
Heutige CPU´s sind für Folding übrigens eher ungeeignet ,da liefert die Effizienz und Parralelkernzahl von GPU´s mitderweile die bessere lösung.
(Kleine aber spezialisierte rechensummen,weiß nicht wie ich das einfach erklären soll)
Beides ist notwendig, CPUs aber noch eher als GPUs. GPUs sind für einige Dinge die mit Abstand beste Wahl, aber im Gegensatz zu CPUs können sie prinzipiell nicht alle Typen von Berechnungen ausführen.
 
Angesichts mangelnder Konkurrenz im Desktop- sowie Server-Segment (keine Ahnung welche Rolle IBM da gerade noch spielt) und immer feineren und aufwändigeren Fertigungsverfahren ist es kein Wunder, dass der Fortschritt in den kommenden Jahren etwas langsamer von statten gehen wird.
AMD's Zen klingt zwar spannend, jedoch mache ich mir in keinster Weise Hoffnungen, dass sich damit etwas an der jetzigen Situation groß etwas ändern wird. Ich schätze mal, dass die Situation Parallelen zu der Zeit aufweisen wird, in der AMD mit den Phenom-II-CPUs ganz gut punkten konnte. Alles darüber hinaus wäre fast schon sensationell. Wobei ich da generell lieber skeptisch bin und mich dann um so mehr freue, wenn meine Erwartungen übertroffen wurden.
Das Thema EUV-Lithografie wird in den nächsten Jahren auch noch interessant. Gerade werden ja Laser entwickelt, die den Energieaufwand für die EUV-Lithografie um den Faktor 3 bis 5 reduzieren könnten, was die Produktionskosten senken und die Rentabilität steigern würde. Die Erzeugung von EUV-Laserstrahlung ist nicht gerade ein einfacher Prozess und das Verhältnis von EUV-Leistung zur Leistungsaufnahme eines solchen Lasers dürfte sich ja auch bei 1:1000 bewegen. Dazu noch die ganzen Probleme, die EUV-Strahlung mit sich bringt, welche z.B. ein Vakuum zwingend erforderlich machen und einen extremen Reinheitsgrad erfordern.
 
Mehr Kerne ist auch immer so ne Tolle Aussage. Ich frage mich dann immer für was denn? Wie viele Anwendungen gibt es denn die 4 Kerne schon Ordentlich nutzen? Geschweige denn Games? Programme und Spiele sind leider kaum für Multi-Core Prozessoren Optimiert. Zeigen auch alle anderen Tests ganz toll. Neuer Prozessor mit 5 oder 8 Kernen und Trotzdem kaum Bonus zum 4 Kern i74790k? Woher das wohl kommen mag?

Ich kann deine Argumente gut nachvollziehen, nur beim Thema 8 Kerner, sehe ich das aus (meiner) Spielersicht etwas anders.

Schau Dir doch einfach mal an, wie es mit den Quad-Cores war. Da hat so manch einer vorher das gleiche erzählt wie du, und fands überflüssig. Dann hat sich das Blatt allerdings ziemlich schnell gedreht, als 4-Kerner im Mainstream waren.
Die Zeit für Mainstream 8-Kerner ist einfach reif. Die aktuellen Konsolen haben eine solche Architektur, folglich würden Spielehersteller das auch ziemlich schnell auf den PC übertragen. Abgesehen davon, kann man mit mehreren Kernen bequemer noch mehr Dinge im Hintergrund tun. Also bspw, wenn ein Spiel die 4 Kerne für die es optimiert wurde auslastet, habe ich noch Leistung über, um auf dem 2ten Monitor zu Surfen/ne Serie zu schauen, Dateien entpacken,...

Muss ja nicht alles nur für aktuelle Spiele sein. Nen 8 Kerner würde ich jedenfalls gerne kaufen, wenn die nicht so abartig teuer wären. Bin damals mit dem frühen einstieg auf Quad-Core ziemlich gut gefahren.
 
Nunja, wen es technisch nicht mehr möglich ist mit silizium besseres zu liefern, wird AMD langsam aber sicher wieder aufholen können, zwar werden sie wohl weiterhin hinter Intel liegen, aber ich hoffe, dass Zen wenigstens einiges der Großen lücke schließt die zurzeit zwischen den CPUs von amd und Intel herscht.
Gab es nicht damals überlegungen mit einer auf Kohlenstoff basierten Cpu, die durch das Material auf ca 50-100 ghz takten konnte (Dafür war aber der fertigungsprozess noch riesig) ?
Oder wie wäre es mit 3 dimensionalen Cpu's anfangen zu arbeiten? (Wo wahrscheinlich bisher der aufwand zu extrem wäre und man bisher den fertigungsprozess noch nicht kennt)
Das mit den mehreren Hundert Gigahertz wird wohl eher Wunschdenken werden. Die jetzigen Si-Transistoren können ja auch schon so schnell, aber die Metallisierung lässt das nicht zu, da sie wie eine parasitäre Kapazität wirkt. Und je größer die Taktfrequenz, desto mehr Leistung geht über dieser parasitären Kapazität verloren. Es ist einfach immer unwirtschaftlicher, eine CPU bei mehr als 3-4 GHz zu betreiben. Einen einzelnen Transistor kann man aber problemlos so schnell ansteuern. Das hat IBM schon mehrfach gezeigt.
Eine Idee, die wirklich im Gespräch ist, ist die Rückkehr zu Germanium oder zu Si:Ge, da der einzige Grund, Si zu verwenden (das thermische Oxid hoher Qualität) heute keine Rolle mehr spielt, da eh großflächig Hafniumoxid verwendet wird.
Das riesige Problem an 3D-Prozessoren ist wohl die immense Wärmeabgabe. Schon jetzt haben wir in "2D"-Chips eine Energiedichte, die größer ist, als in einem Atomkraftwerk. Das als "Chipturm"? Schwer vorstellbar.
gRU?; cAPS
 
Das riesige Problem an 3D-Prozessoren ist wohl die immense Wärmeabgabe. Schon jetzt haben wir in "2D"-Chips eine Energiedichte, die größer ist, als in einem Atomkraftwerk. Das als "Chipturm"? Schwer vorstellbar.
Dürfte möglich sein zu kühlen, auch wenn es ganz neue Kühlmethoden erfordert oder mindestens eine Wasserkühlung zwingend notwendig macht, wenn man auf hohe Taktraten abzielt. Das Problem mit der Wärmeübertragung durch die Stacks dürfte sich mit Kohlenstoffnanoröhrchen lösen lassen. Die aber erst mal in den Chip zu bekommen, dürfte das Hauptproblem darstellen ;)
 
Dürfte möglich sein zu kühlen, auch wenn es ganz neue Kühlmethoden erfordert oder mindestens eine Wasserkühlung zwingend notwendig macht, wenn man auf hohe Taktraten abzielt. Das Problem mit der Wärmeübertragung durch die Stacks dürfte sich mit Kohlenstoffnanoröhrchen lösen lassen. Die aber erst mal in den Chip zu bekommen, dürfte das Hauptproblem darstellen ;)
Dass es möglich ist, kann ich mir gut vorstellen - aber wahrscheinlich auch um ein vielfaches teurer :D
Bei einem jetzigen Chip sind es ja schon mehrere Hundert Einzelschritte zur Bearbeitung - das wird sicher nicht günstiger^^
Was ich mich auch frage - wird mir dieser News das Moore'sche Gesetz entgültig zu Grabe getragen?
gRU?; cAPS
 
Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.

Dann stellt man sich eben, wie an den meisten Unis üblich einen Hochleistungsrechner im Teraflopsbereich hin. Neuer Petaflops-Rechner an der TU Dresden | c't

Da hat man dann 30000 CPU-Kerne, 76,5 TiB RAM und 160 TB SSD-Speicher. Und das schon im Jahr 2015.
 
Das mit den mehreren Hundert Gigahertz wird wohl eher Wunschdenken werden.

Mit Graphen kann das durchaus möglich werden. Die Energie die nötig ist um ein Elektron im Graphen zu bewegen, liegt bei etwa einem hunderstel, der bei Silizium nötigen. Liegt an der Bandlücke, die bei Graphen praktisch nicht vorhanden ist.

Man könnte also (vorausgesetzt die Fertigungstechnologien für Graphentransistoren wäre soweit) aktuelle CPUs bei gleicher Leistung mit 1/100 der aktuell nötigen Elektrischen Energie versorgen.
Oder man baut eine CPU die genauso viel Strom verbraucht und Wärme erzeugt, die aber dann mit 10-20 GHz taktet. (Verlustleistung steigt linear mit dem Takt und quadratisch mit der Spannung).
 
Mit Graphen kann das durchaus möglich werden. Die Energie die nötig ist um ein Elektron im Graphen zu bewegen, liegt bei etwa einem hunderstel, der bei Silizium nötigen. Liegt an der Bandlücke, die bei Graphen praktisch nicht vorhanden ist.
Und genau wegen dieser nicht vorhandenen Bandlücke ist Graphen leider ungeeignet als Nanotransistor. Man müsste es dotieren, was gleichzeitig den elektrischen Widerstand wieder erhöht und somit die nötige Energie um ein Elektron zu bewegen. Phosphoren (Phosphor-Pendant zu Graphen) wäre Vielversprechend wenn man einen Weg findet zu verhindern, dass dieses sich an der Luft innerhalb von Stunden zersetzt :ugly:
Möglich wären auch andere "Zweidimensionale" Materialien, bei denen müsste man allerdings erst Wege finden diese zu erzeugen ;)
 
Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.
Das ist jetzt sehr drastisch ausgedrückt, aber es gibt hier genügend Nutzer -- und ich will Dich da gar nicht einbeziehen -- die denken, Rechner wären geil für Zocken und Videobearbeitung und das war's. Angesichts der Möglichkeiten hinsichtlich artifizieller Superintelligenz und deutlich höherer Lebenserwartung -- abhängig davon, ob Moore's Law weiterhin bestand hat -- geht mir dieses Denken hin und wieder auf den Senkel.

Stimmt für Solche bereiche machen solche Prozessoren sinn, allerdings werden die auch ganz anders Verwendet und sind nicht für den Consumer Markt. Außerdem wird bei der Berechnung von solchen Datenmengen auch kein Normaler PC Mehr benutzt sondern ein Entsprechender Server, für die es Mehrkernprozessoren gibt. Hier bewegen wir uns aber schon bei sehr Speziellen, wenn auch wichtigen, Anwendungen. Und ich denke nicht, dass es in diesem Bereich Firmen gibt, die sich darüber ärgern das es keinen 16 Kern i7 gibt, den für diese Bereiche gibts die Xenon Prozessoren die es bereits mit 18 Kernen gibt.

Außerdem werden bei solchen Programmen bei denen Entsprechend viel berechnet werden muss die GFLOPS wichtig und da hat sich in den letzten Jahren ja herausgestellt das die Grafikkartenchips meist wesentlich bessere ergebnisse hervorbringen wie die reinen CPUS. Deshalb gibt es auch sehr häfig für diese Anwendungen entweder Spezielle Grafikchips für Server oder CPU GPU Kombinationen. Wenn du dazu mehr wissen wilst, kannst du ja gerne hier mal Nachschauen. Da wird das ganz gut erklärt:

Why GPUs?
 
Zurück