Offizielles von Intel: Tick-Tock-Zyklus nur noch alle 2,5 Jahre, Cannonlake erst H2/2017, Skylake-Refresh

Mit Graphen kann das durchaus möglich werden. Die Energie die nötig ist um ein Elektron im Graphen zu bewegen, liegt bei etwa einem hunderstel, der bei Silizium nötigen. Liegt an der Bandlücke, die bei Graphen praktisch nicht vorhanden ist.

Man könnte also (vorausgesetzt die Fertigungstechnologien für Graphentransistoren wäre soweit) aktuelle CPUs bei gleicher Leistung mit 1/100 der aktuell nötigen Elektrischen Energie versorgen.
Oder man baut eine CPU die genauso viel Strom verbraucht und Wärme erzeugt, die aber dann mit 10-20 GHz taktet. (Verlustleistung steigt linear mit dem Takt und quadratisch mit der Spannung).
Das Problem ist aber wie gesagt, dass die Taktfrequenz schon seit 10 Jahren nicht mehr durch die Transistoren selbst beschränkt wird, sondern durch die Verdrahtung. Es wurden auch schon deutlich höher taktende Transistoren auf Basis von Silizium gebaut (ich finde nur nichts genaueres, da Graphen-Transistoren scheinbar viel cooler sind :/ - ein paar Infos findet man dennoch in dieser Veröffentlichung http://www.iwailab.ep.titech.ac.jp/pdf/201103dthesisshimomura.pdf). Nur kann man diese Frequenzen unmöglich fahren, solange die Vedrdrahtung alles schluckt.
IBM forscht ja schon seit Jahren an Graphen-Chips, davon haben sie aber meines Wissens nach wieder Abstand genommen, da die Silizium-Chips von Intel einfach mindestens genauso gut waren - trotz des vermeintlichen Technologienachteils. Tolle Transistoren kann man mit Graphen natürlich dennoch bauen - aber der Transistor alleine ist halt nicht alles.
gRU?; cAPS
 
Wenn man die ganzen Leiterbahnen innerhalb einer CPU auf Graphenbasis herstellen würde, wäre das schon allein ein guter Schritt nach vorne was die Effizienz und Geschwindigkeit angeht, da die Spannung für Übertragungen minimiert werden kann ;)
 
Das Problem der ganzen Alternativen ist das sie gegen die extrem optimierten Siliziumchips antreten müssen. Die Transistoren hatten von Anfang an gigantische Vorteile gegenüber Röhren weshalb sie sich auch schnell durchgesetzt haben, die ganzen Alternativen wie Quantencompuer usw. benötigen mit Pech hunderte Milliarden und es ist die Frage ob irgendjemand sie bereitstellen wird.


Deine Vergleichsbeispiele sind jetzt aber auch nicht das Gelbe vom Ei.

Warum?
Sie zeigen wunderbar das Problem, der Trabi ist sogar noch günstiger als die ganzen Westkisten und ein Sponsorvertrag bekommt man bei mir auch deutlich günstiger als beim Bolt...

Da Intel zu ähnlichen Kosten schonmal nichts anbietet, geht der Punkt klar an AMD ;)

Ich habe geschrieben zu ähnlichen Kosten, also ist der i5 mit dabei, der Xeon 1230 ist wirklich etwas teuer geworden. Bei der Mehrheit steckt der i3 übrigens alle FX CPUs in die Tasche, von daher ist er günstiger. Leider geht der Punkt zu 80% an Intel und zu 20% an AMD.

Okay zugegeben, es mag sicherlich die ein oder andere Ausnahme (Ausnahmen bestätigen die Regel) geben, aber im Großen und Ganzen fallen die Unterschiede eher gering aus. Zumindest würde ich dafür nicht den Aufpreis für Intel zahlen. Wenn ich das richtig sehe gibt es aktuell nur zwei Vierkerner unterhalb von 200€. Des Weiteren lese ich so oft Kommentare wie diesen und sehe mich dann jedes Mal in meiner Meinung bestätigt:

Ich habe damals bei meinem i7 3770 den Unterschied zu meinem alten Phenom II X4 940 in etlichen Spielen deutlich gemerkt und das obwohl der i7 auf 50W gedrosselt ist.
 
Zuletzt bearbeitet:
So wie es dem Entwicklungsstand entsprechend aussieht werden AMD und Nvidia graka´s die nächsten Jahre auch einen richtigen tritt erfahren,leider :(.
Die Iris hat halt schon jetzt die effizienznase ,irgendwo,im nirgendwo.(Vergrößer die Anzahl der Einheiten und gib dedizierten Speicher,blub)
Intel solls egal sein ,lieber Monopol als tot.
So denkt die gesamte Wirtschaft.
Bist du hier, um deine primitive Art und Weise des Intel-Marketings an uns zu bringen?
Wenn ja dann:
Verabscheuend! Allein deine Aussagen sind süß wie das tote Meer. :lol:
 
Ich habe damals bei meinem i7 3770 den Unterschied zu meinem alten Phenom II X4 940 in etlichen Spielen deutlich gemerkt und das obwohl der i7 auf 50W gedrosselt ist.

Dann machst du irgendetwas anders als ich. Ich habe den Wechsel vom FX-8120 zum I7-3820 nur in starcraft 2 bemerkt. Sonst nirgends, in Spielen.

Beim arbeiten war der FX dem I7 sogar überlegen, sofern mehrere fordernde Anwendungen gleichzeitig liefen. Dabei haben beide acht threads und der I7 die deutlich höhere IPC...
 
@DKK007 und SlapJack: qualifizierte Kommentare. Aber die heutigen CPUs, egal wie groß und teuer, reichen leider immer noch nicht aus, um die großen Probleme der Menschheit zu lösen. Wollen wir Krebs generell heilbar machen, so sind wir auf exponentielles Wachstum bei Rechenleistung angewiesen, was leider gerade einen Rückschlag erhalten hat. Und dass der consumer market dort keine Rolle spielt... sollte niemand aus unserem Folding@Home-Team lesen ;)

Beim arbeiten war der FX dem I7 sogar überlegen, sofern mehrere fordernde Anwendungen gleichzeitig liefen. Dabei haben beide acht threads und der I7 die deutlich höhere IPC...
Naja, Bulldozer sind ja keine prinzipiell schlechten CPUs, die Architektur ist nur für Spieler wenig interessant. Wenn Du irgendeine Entität, die irgendwo zwischen aufgemotztem Vierkerner und abgespecktem Achtkerner zu klassifizieren ist, gegen einen Vierkerner mit etwas Schischi (Hyperthreading) antreten lässt, ist es nicht verwunderlich, dass sich die erstgenannte CPU tapfer schlägt ;)

Zu den Alternativen zu Silizium: Graphen hat fantastisch großes Potenzial für viele Geräte bzw. Anwendungen; nach aktuellen Erkenntnissen gehören CPUs aber nicht dazu. Und bedenkt, dass bei Silizium keinerlei Knappheit herrscht, sprich: es ist sehr billig. Man findet fast überall Silizium, wenn auch nicht in Silikonbrüsten suizidaler sizilianischer Soziologinnen (kleiner Seitenhieb auf diejenigen, die da immer noch Probleme mit der Orthographie haben ;) ).
 
Zuletzt bearbeitet:
Das Problem der ganzen Alternativen ist das sie gegen die extrem optimierten Siliziumchips antreten müssen. Die Transistoren hatten von Anfang an gigantische Vorteile gegenüber Röhren weshalb sie sich auch schnell durchgesetzt haben, die ganzen Alternativen wie Quantencompuer usw. benötigen mit Pech hunderte Milliarden und es ist die Frage ob irgendjemand sie bereitstellen wird.

Allerdings ist die Fertigung auch schon jetzt immer teurer. Chips in der Größenordnung <30nm können sich nur noch Firmen wie Intel, IBM, Glofo, TCSM und Samsung leisten.
Und das wird mit 7nm allein durch die EULV-Belichtung nochmal deutlich aufwendiger. Obwohl das ja eigentlich schon gar keine UV-Strahlung mehr ist, son dern bei der Wellenlänge schon im Bereich der Röntgenstrahlung liegt.
Wenn man also bei 5 oder 7nm nicht mehr weiterkommt muss man sich zwangsläufig nach Alternativen umsehen.
 
Naja, Bulldozer sind ja keine prinzipiell schlechten CPUs, die Architektur ist nur für Spieler wenig interessant. Wenn Du irgendeine Entität, die irgendwo zwischen aufgemotztem Vierkerner und abgespecktem Achtkerner zu klassifizieren ist, gegen einen Vierkerner mit etwas Schischi (Hyperthreading) antreten lässt, ist es nicht verwunderlich, dass sich die erstgenannte CPU tapfer schlägt ;)

Wenn eine Architektur die darauf ausgelegt war doppelte Kernzahl bei 10-20% mehr Chipfläche zu ermöglichen am Ende im Mulithreading gleichschnell ist, im Singlethreading gnadenlos versagt und dabei auch noch extrem viel Chipfläche verbrät (Phenom II X6 1100T: 346 mm² @45nm ohne IGP, i7 2600K: 270mm² @32nm ->MIT<- IGP, FX 8150: 315 mm² @32nm ohne IGP) dann ist der ganze Ansatz gescheitert. Seit 5 Jahren dokorn sie daran rum und versuchen etwas zu retten, bisher mit mäßigen Erfolg. Tatsache ist die Idee war gut, die Ausführung war leider Mist. Eventuell können AMD oder Intel den Ansatz ja wieder 2025 aufwärts verfolgen, wenn die Möglichkeiten zur Strukturverkleinerung erschöpft sind und man innovative Lösungen braucht (eventuell kramen sie ja auch wieder das Cell Design aus).

Zu den Alternativen zu Silizium: Graphen hat fantastisch großes Potenzial für viele Geräte bzw. Anwendungen; nach aktuellen Erkenntnissen gehören CPUs aber nicht dazu. Und bedenkt, dass bei Silizium keinerlei Knappheit herrscht, sprich: es ist sehr billig. Man findet fast überall Silizium, wenn auch nicht in Silikonbrüsten suizidaler sizilianischer Soziologinnen (kleiner Seitenhieb auf diejenigen, die da immer noch Probleme mit der Orthographie haben ;) ).

Kohlenstoff ist auch reichlich vorhanden, das Problem ist bei beiden eher die Energie um das ganze in ein reines Endprodukt zu bringen, da gibt es allerdings beim Graphen ordentlich Optimierungsmöglichkeiten.

Allerdings ist die Fertigung auch schon jetzt immer teurer. Chips in der Größenordnung <30nm können sich nur noch Firmen wie Intel, IBM, Glofo, TCSM und Samsung leisten.
Und das wird mit 7nm allein durch die EULV-Belichtung nochmal deutlich aufwendiger. Obwohl das ja eigentlich schon gar keine UV-Strahlung mehr ist, son dern bei der Wellenlänge schon im Bereich der Röntgenstrahlung liegt.
Wenn man also bei 5 oder 7nm nicht mehr weiterkommt muss man sich zwangsläufig nach Alternativen umsehen.

Das Problem ist mit diesen alternativen Möglichkeiten überhaupt in die Nähe moderner Computer zu kommen. Bei Quantencomputern werden die Zeiträume in denen man sie betreiben kann in µsec angegeben (ja ich weis, nach UPAC sind es µs) und selbst wenn man die aktuellen Computer stabil zu laufen bekäme bist du, wenn du mit deinen Fingern rechnest, schneller als der aktuelle Stand der Forschung. Etwas zusammenzubrauen das so schnell ist wie ein Z80 (der 15000 Transistoren hat und ua. im Gameboy [als Klon[ verbaut ist, die erfolgreichste CPU überhaupt) wäre schon ein gigantischer Erfolg. Das ist eben das Problem, kaum jemand hat lust etwas mit zig Milliarden zu fördern das erst in Jahrzehnten, wenn überhaupt, Geld abwirft. Hier muß der Staat dann mit Forschungsprojekten helfen und wie gut das funktioniert sieht man schon an der Kernfusion, die dümpelt seit über 60 Jahren vor sich hin und da ist ein Erfolg verhältnismäßig sicher (vermutlich wird das erste Kraftwerk irgendwann nach 2050 online gehen), bei Quantencomputern ua. wird es wohl noch schlimmer sein.
 
Ich denke eher nicht, das sich an den CPU-Architekturen dann noch so viel passieren wird. Der Großteil wird dann eher über spezielle Befelssätze wie AVX, AES-ni, Hardware Videodecodierung gemacht. Oder man baut eben gleich Beschleunigerkarten wie Tesla oder XeonPhi ein.

Die sind für den vorgesehenen Aufgabenbereich deutlich schneller und effizienter als jede CPU.
 
Mit zwei 7970ern @ 1,2GHz? Ich denke eigentlich nicht. Die 7970 kam ja nur kurz vor dem FX auf den Markt und stellte das High End Produkt dar. Sollte das aber dennoch so sein, wäre der I7 dem FX ja trotzdem nichts voraus. Jedenfalls nicht genug um mit guten Karten mehr Leistung zu erbringen.

Ich finde es auch immer toll wenn hier momentan in den Beratungen gefragt wird, ob jemand mit einem 2500K/2600K aufrüsten soll. Dann kommt als Antwort, dass er damit doch gut dasteht und ruhig noch etwas warten kann. Die FX sind aber nach anheben der NB in 30 Sekunden Aufwand und ohne weitere Kosten (erhöhter Verbrauch, Wärme, Kühler) auf dem Niveau eines 3570K. Mit weiterem oc dann wie etliche Tests zeigen zwischen 4670K und 4770K. Trotzdem wird da immer gesagt, dass der wahrscheinlich schon eine Midrangekarte ausbremst und das man damit eigentlich überhaupt nichts spielen kann.
Der Verbrauch ist eine Sache, aber wie kann es sein dass ein 2500K noch ausreichend empfunden wird und ein FX auf 3570K Niveau als zu schwach?
Das verstehe ich echt nicht.
 
Zuletzt bearbeitet:
Ich wage jetzt einfach mal die Aussage, das AMD auch jetzt schon ein Konkurrent ist und schlechter geredet wird als sie sind. Die Fachpresse schreibt es, die Fanboys beschwören es immer wieder und die meisten glauben es auch noch.

AMD Prozessoren eigenen sich für Gaming und Alltagsaufgaben ebenso gut wie die von Intel. Ich kenne zumindest kein Spiel, dass mit AMD Prozessoren unspielbar ist, da ohnehin doch eher die Grafikkarte limitiert.

Ich wette wenn man zwei identische Rechner aufbauen würde und den einen mit einem AMD und den anderen mit einem Intel ausstattet, würde niemand von uns den Unterschied merken und sagen können, in welchem Rechner welche CPU verbaut ist.

Der einzige Grund meiner Meinung nach der für Intel spricht ist die höhere Energieeffizienz.

Leider nein.
Hatte ein FX8350 welchen gegen ein i5 2500 ! eingetauscht wurde; von 8"Kerne" auf 4 und deutlich weniger Mhz aber denoch läuft z.B. BF deutlich runder (min. FPS)
 
Mit zwei 7970ern @ 1,2GHz? Ich denke eigentlich nicht. Die 7970 kam ja nur kurz vor dem FX AIF den Markt und stellte das High End Produkt dar. Sollte das aber dennoch so sein, wäre der I7 dem FX ja trotzdem nichts voraus. Jedenfalls nicht genug um mit guten Karten mehr Leistung zu erbringen.

Das ist wiederum abhängig von der Auflösung. Je geringer die Auflösung, desto weniger wichtig ist die CPU.
Das merke ich bei einem Bekannten, der mit einem 22 Zoll HD Monitor spielt -- was haben die noch mal, 1680x1050 oder so? -- der hat einen Phenom 2 940 und spielt mit einer GTX 780.
Bei dem läuft alles in Ultra Details und absolut flüssig. Der würde es gar nicht merken, wenn du da einen i7 einbaust.

Ich finde es auch immer toll wenn hier momentan in den Beratungen gefragt wird, ob jemand mit einem 2500K/2600K aufrüsten soll. Dann kommt als Antwort, dass er damit doch gut dasteht und ruhig noch etwas warten kann. Die FX sind aber nach anheben der NB in 30 Sekunden Aufwand und ohne weitere Kosten (erhöhter Verbrauch, Wärme, Kühler) auf dem Niveau eines 3570K. Mit weiterem oc dann wie etliche Tests zeigen zwischen 4670K und 4770K. Trotzdem wird da immer gesagt, dass der wahrscheinlich schon eine Midrangekarte ausbremst und das man damit eigentlich überhaupt nichts spielen kann.
Der Verbrauch ist eine Sache, aber wie kann es sein dass ein 2500K noch ausreichend empfunden wird und ein FX auf 3570K Niveau als zu schwach?
Das verstehe ich echt nicht.

Nicht jeder will übertakten. Und beim AMd steigt da die Abwärme stark an, wenn du den hochprügelst.
Ich bin ja sowieso der Meinung, dass die Grafikkarte das wichtigste beim Spielen ist.
Klar kannst du immer mal Games wie Anno haben, wo AMD einfasch mies abschneidet, aber das ist dann auch der Game Engine geschuldet, die einfach nur beschissen programmiert ist.
Wer sowas halt spielt, muss eben Intel kaufen, logisch. Aber die allermeisten Games laufen auf beiden Herstellern gut und stehen und fallen mit der Leistungsfähigkeit der Grafikkarte.

Und so ein FX 8350 sollte problemlos bis zum Release von Zen reichen und mal schauen, was AMD dann aus dem Boden stampft. Jedenfalls gönne ich es ihnen, dass sie den Anschluss wieder finden.
 
Wenn man die ganzen Leiterbahnen innerhalb einer CPU auf Graphenbasis herstellen würde, wäre das schon allein ein guter Schritt nach vorne was die Effizienz und Geschwindigkeit angeht, da die Spannung für Übertragungen minimiert werden kann ;)
Also die ganze Verdrahtung der CPU auf Graphen-Basis? Gut, darüber weiß ich jetzt nichts, es wird aber wohl zumindest eines sein - schweineteuer. Bei eines Industrie, die so konservativ ist, wie die Halbleiterindustrie, wird das wohl einige Zeit brauchen - selbst wenn es große Fortschritte bringen würde. Die Technologie ist noch nicht weit genug erforscht und eine Halbleiter-Fab hinzustellen, braucht mehrere Milliarden USD (nur das Hinstellen, ohne auch nur einen Wafer produziert und einen Arbeiter bezahlt zu haben). Bei neuen Si-Prozessen können bestehende Fabs an der richtigen Stelle erneuert werden, was deutlich günstiger ist. Letzten Endes ist es eben immer eine Frage der Wirtschaftlichkeit, nicht der Machbarkeit. Wir könnten theoretisch auch schon lange nicht-flüchtige magnetische RAMs verwenden - aber die DRAM-Technologie kann man in den selben Fabs mit der selben Technologie fertigen, wie die Chips selber, was die Sache deutlich einfacher macht.
Mein Prof hat heute außerdem noch gemeint, dass Graphen selbst zwar unglaubliche Beweglichkeiten ausweist, diese bei fertigen Transistoren aber auf das Niveau eines Si-Transistors zurückfallen.
Letzten Endes hat IBM lange Zeit dran geforscht, aber sie haben meines Wissens nach größtenteils aufgehört, denn sie konnten nicht wie geplant technologisch an Intel vorbeiziehen.

gRU?; cAPS
 
Der Verbrauch ist eine Sache, aber wie kann es sein dass ein 2500K noch ausreichend empfunden wird und ein FX auf 3570K Niveau als zu schwach?
Das verstehe ich echt nicht.
Ich hab mal Benchmarks rausgekramt. In den meisten Spielen erreicht der FX 8350 (mit immerhin 4 GHz Takt) keinen Ivy-Bridge-i5, es kommt auch vor, dass der FX langsamer ist als ein sportlicher Pentium G2120.
 
Mein Prof hat heute außerdem noch gemeint, dass Graphen selbst zwar unglaubliche Beweglichkeiten ausweist, diese bei fertigen Transistoren aber auf das Niveau eines Si-Transistors zurückfallen.
Letzten Endes hat IBM lange Zeit dran geforscht, aber sie haben meines Wissens nach größtenteils aufgehört, denn sie konnten nicht wie geplant technologisch an Intel vorbeiziehen.

Bei fertigen Transistoren muss Graphen eben auch mit anderen Materialien dotiert werden um die nötige Bandlücke zu erhalten, weshalb der Widerstand natürlich ansteigt. Das Helmholtzzentrum in Frankfurt Oder hat ein Patent auf einen Mikroprozessor auf Graphenbasis, allerdings dient Graphen dort nur als Gate und die Drain und Source bilden andere Materialien. Wirklich Schneller oder Effizienter ist es aufgrund der anderen zusätzlich eingesetzten Materialien aber nicht.
Hätte IBM mal vorbeiziehen sollen und weiter die Forschung vorangetrieben, dann hätten wir langsam mal wieder Bewegung im Halbleitermarkt :D
 
Ich hab mal Benchmarks rausgekramt. In den meisten Spielen erreicht der FX 8350 (mit immerhin 4 GHz Takt) keinen Ivy-Bridge-i5, es kommt auch vor, dass der FX langsamer ist als ein sportlicher Pentium G2120.
Du hast nicht zufällig einfach überlesen, dass ich von FX mit angepasstem CPU/NB Takt geschrieben habe, oder? Ich habe damals meinen FX-8120 direkt mit dem 2500K eines ex-Redakteurs hier verglichen und wir sind zu dem Schluss gekommen, dass sie quasi gleich schnell waren. Es gab Abweichungen nur im einstelligen fps-Bereich. Übertaktet hat der 2500K zwar mehr zugelegt, aber da waren dann beide wieder im GPU-Limit.

Lies einfach die PCGH 06/15. Da sieht man, dass mit nur einer Grafikkarte (die übertaktete 980 aus dem Testsystem) selbst zwischen einem 5960X und dem stock 8350 so gut wie kaum Unterschiede sind. Da aber selbst in einem so Technik-affinem Forum wie hier die meisten nur mit einer Karte unterwegs sind, sollte das für sich sprechen.
 
Bei manchen Spielen macht die CPU sehr viel aus. Ich habe mal zum Test meine GTX 980 in mein Zweitrechner eingebaut wo ein AMD Athlon 860k schlummert und Battlefield 3 Multiplayer 64 Spieler gespielt.
Die FPS sind meistens bei 60-70. Bei meinem Hauptrechner mit einem i5 IvyBridge habe ich durchschnittlich über 100fps bei den exakt gleichen Grafiksettings.
Dein 60€ AMD Prozessor macht weniger FPS als der 200€ i5. Super Vergleich.
Ich hab seit 2012 einen FX6300 und hatte nie irgendwelche Probleme. Für den Mainstream Casual Gamer merkt man kaum einen Unterschied da man mit einer 200€ Graka eh bei FHD im Limit hängt.
 
Zurück