Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.Mehr Kerne ist auch immer so ne Tolle Aussage. Ich frage mich dann immer für was denn? Wie viele Anwendungen gibt es denn die 4 Kerne schon Ordentlich nutzen?
Ich weiß nicht, was ihr alle mit euren 8 Kernern habt. Nennt mir mal eine Software die nicht auf nem i3 oder i5 läuft? Warum sollte Intel also die 6 und 8 Kernern für 300€ raushauen, wenn sie eh nur von Entusiasten und für Workstations/Server interessant sind. Das ist nur ein kleiner Teil der Kundschaft und die zahlen dann aber auch gut dafür.
Das gilt für Spiele! Folding at Home skaliert ganz wunderbar auf 100.000 Kernen, Schachsoftware geht mittlerweile sehr gut mit 16 Kernen um. Ich weiß, diese Seite ist in erster Linie für Gamer, aber Moore's Law betrifft mittelbar unsere Lebenserwartung. Da darf man auch schon mal über den Tellerrand schauen, statt zu sagen, "mir doch egal, dass es keinen Fortschritt gibt, The Witcher kann ich mit nem i5 gut zocken!"Du spielst ihm gerade zu in die Hand mehr kerne bringen gar nichts wen sie nicht genutzt werden was sich in den letzten Jahren verändert aber ein 16 Kerner hat nicht 4x mehr leistung als ein 4 Kerner wen die Software nicht drauf abgestimmt ist und das ist sie mommentan nicht! Oder kannst du mir eine Quelle nennen die das wiederlegt.
Beides ist notwendig, CPUs aber noch eher als GPUs. GPUs sind für einige Dinge die mit Abstand beste Wahl, aber im Gegensatz zu CPUs können sie prinzipiell nicht alle Typen von Berechnungen ausführen.Heutige CPU´s sind für Folding übrigens eher ungeeignet ,da liefert die Effizienz und Parralelkernzahl von GPU´s mitderweile die bessere lösung.
(Kleine aber spezialisierte rechensummen,weiß nicht wie ich das einfach erklären soll)
Mehr Kerne ist auch immer so ne Tolle Aussage. Ich frage mich dann immer für was denn? Wie viele Anwendungen gibt es denn die 4 Kerne schon Ordentlich nutzen? Geschweige denn Games? Programme und Spiele sind leider kaum für Multi-Core Prozessoren Optimiert. Zeigen auch alle anderen Tests ganz toll. Neuer Prozessor mit 5 oder 8 Kernen und Trotzdem kaum Bonus zum 4 Kern i74790k? Woher das wohl kommen mag?
Das mit den mehreren Hundert Gigahertz wird wohl eher Wunschdenken werden. Die jetzigen Si-Transistoren können ja auch schon so schnell, aber die Metallisierung lässt das nicht zu, da sie wie eine parasitäre Kapazität wirkt. Und je größer die Taktfrequenz, desto mehr Leistung geht über dieser parasitären Kapazität verloren. Es ist einfach immer unwirtschaftlicher, eine CPU bei mehr als 3-4 GHz zu betreiben. Einen einzelnen Transistor kann man aber problemlos so schnell ansteuern. Das hat IBM schon mehrfach gezeigt.Nunja, wen es technisch nicht mehr möglich ist mit silizium besseres zu liefern, wird AMD langsam aber sicher wieder aufholen können, zwar werden sie wohl weiterhin hinter Intel liegen, aber ich hoffe, dass Zen wenigstens einiges der Großen lücke schließt die zurzeit zwischen den CPUs von amd und Intel herscht.
Gab es nicht damals überlegungen mit einer auf Kohlenstoff basierten Cpu, die durch das Material auf ca 50-100 ghz takten konnte (Dafür war aber der fertigungsprozess noch riesig) ?
Oder wie wäre es mit 3 dimensionalen Cpu's anfangen zu arbeiten? (Wo wahrscheinlich bisher der aufwand zu extrem wäre und man bisher den fertigungsprozess noch nicht kennt)
Dürfte möglich sein zu kühlen, auch wenn es ganz neue Kühlmethoden erfordert oder mindestens eine Wasserkühlung zwingend notwendig macht, wenn man auf hohe Taktraten abzielt. Das Problem mit der Wärmeübertragung durch die Stacks dürfte sich mit Kohlenstoffnanoröhrchen lösen lassen. Die aber erst mal in den Chip zu bekommen, dürfte das Hauptproblem darstellenDas riesige Problem an 3D-Prozessoren ist wohl die immense Wärmeabgabe. Schon jetzt haben wir in "2D"-Chips eine Energiedichte, die größer ist, als in einem Atomkraftwerk. Das als "Chipturm"? Schwer vorstellbar.
Dass es möglich ist, kann ich mir gut vorstellen - aber wahrscheinlich auch um ein vielfaches teurerDürfte möglich sein zu kühlen, auch wenn es ganz neue Kühlmethoden erfordert oder mindestens eine Wasserkühlung zwingend notwendig macht, wenn man auf hohe Taktraten abzielt. Das Problem mit der Wärmeübertragung durch die Stacks dürfte sich mit Kohlenstoffnanoröhrchen lösen lassen. Die aber erst mal in den Chip zu bekommen, dürfte das Hauptproblem darstellen
Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.
Das mit den mehreren Hundert Gigahertz wird wohl eher Wunschdenken werden.
Und genau wegen dieser nicht vorhandenen Bandlücke ist Graphen leider ungeeignet als Nanotransistor. Man müsste es dotieren, was gleichzeitig den elektrischen Widerstand wieder erhöht und somit die nötige Energie um ein Elektron zu bewegen. Phosphoren (Phosphor-Pendant zu Graphen) wäre Vielversprechend wenn man einen Weg findet zu verhindern, dass dieses sich an der Luft innerhalb von Stunden zersetztMit Graphen kann das durchaus möglich werden. Die Energie die nötig ist um ein Elektron im Graphen zu bewegen, liegt bei etwa einem hunderstel, der bei Silizium nötigen. Liegt an der Bandlücke, die bei Graphen praktisch nicht vorhanden ist.
Schau doch mal über den Tellerrand. Medizinische Forschung zum Beispiel profitiert immens von Rechnern. Die sind aber, gelinde gesagt, noch sehr schwachbrüstig, wenn wir z.B. durch Simulationen zur Proteinfaltung Medikamente und Behandlungsmethoden für Dinge wie Krebs oder Demenz finden wollen. Ich fänd's also schon ganz schnieke, wenn die Einführung bezahlbarer 8-,16- oder besser noch 256-Kern-Prozessoren mich in 30 Jahren vor einem elenden Todeskampf bewahrt.
Das ist jetzt sehr drastisch ausgedrückt, aber es gibt hier genügend Nutzer -- und ich will Dich da gar nicht einbeziehen -- die denken, Rechner wären geil für Zocken und Videobearbeitung und das war's. Angesichts der Möglichkeiten hinsichtlich artifizieller Superintelligenz und deutlich höherer Lebenserwartung -- abhängig davon, ob Moore's Law weiterhin bestand hat -- geht mir dieses Denken hin und wieder auf den Senkel.