"Der Prozzi braucht nur x86 compatibel zu sein"@Bucklew, ich bin mit dir da nicht einverstanden bzw. dein Vergleich mit Linux hinkt.Die Betriebssysteme funktionieren anders und deshalb müsste jedes Programm neugeschrieben werden. Der Prozzi braucht nur x86 compatibel zu sein und schon funzt alles. Nochmals die kurze Fassung, die CPUs können absolut unterschiedlich aufgebaut sein, aber trotzdem das Laufen jedes Programms mit x86 ermöglichen, bei verschiedenen OS muss man alles neuschreiben
Ok, mit den finanziellen Marktsituationen der Firmen kenne ich mich nicht wirklich aus. Ich kann mir natürlich schon vorstellen, dass Intel die Lizenz nur für ein hohen Preis (bei aktueller Spannung) rausgeben würde. Wobei das dann eigentlich wettbewerbsschädigend wäre und vielleicht doch zu einer Lizenzierung führen könnte. Aber wie gesagt, davon hab ich nicht so viel Ahnung...
dabei wäre es mit heutiger virtualisierung eigentlich kein probleme eine ausreichend performante x86-umgebung aufzubauen und darunter was vernünftiges laufen zu haben. schade drum...
20 Jahre wird x86 nicht mehr halten. 7 Jahre noch, würde ich schätzen,das kommt mit der Virtualisierung noch. Momentan gibt es ein viel größeres Problem als CPUs. Ein PC ist so schnell wie der langsamste Bestandteil und das ist die Festplatte. Eine extrem schnelle CPU würde mir sehr wenig bringen ohne die HDD zu beschleunigen. Ich hoffe, dass sie da was tun. Sogar heute sind die Prozessoren für die Festplatten zu schnell, mit den Instruktionen im Cache versucht man das zu umgehen= so wenig Zugriffe wie möglich auf RAM oder Festplatte.Wenn wir soweit sind, dann wird x86 nur noch emuliert und ich bin mir so ziemlich sicher, dass Intel oder AMD mit 20% mehr Leistung nicht 20 Jahre lang auf dem IT-Markt "neue Produkte" verkaufen können, da muss dann die Architektur geändert werden."Der Prozzi braucht nur x86 compatibel zu sein"
eben: "nur" - daher werden wir x86 auch noch in 20 jahren nutzen, außer ein anderes betriebssystem schafft es windows vom thron zu stoßen. MS wird es niemals schaffen, den alten x86-unterbau abzustoßen und was neues zu bauen.
der wegfall von x86 würde einen großen sprung in der cpu-leistung bedeuten, nur leider ist keiner bereit das ganze zu wagen. dabei wäre es mit heutiger virtualisierung eigentlich kein probleme eine ausreichend performante x86-umgebung aufzubauen und darunter was vernünftiges laufen zu haben. schade drum...
Schlechter Vergleich...Siehe Itanium?
Das wird nun schon seit 30 jahren erzählt - die x86 struktur hat inzwischen 31 jahre auf dem buckel....20 Jahre wird x86 nicht mehr alten. 7 Jahre noch, würde ich schätzen,das kommt mit der Virtualisierung noch.
Nicht jeder Anwendungsfall (sogar eher die wenigsten) hängen am Bottleneck HDD fest. Die ist biem Laden des Programms wichtig, sobald die Daten im Ram sind, kann die sich schlafen legen. Es gibt nicht DIE belastung bei einem PC, es gibt extrem I/O und HDD intensive Belastungen (Fileserver z.B.) aber auch extrem Rechenintensiven - das sind z.B. die Belastungen, die von einer GPU auf einmal um den Faktor 10 bis 1000 beschleunigt werden. Weil die GPUs nicht in dem x86-korsett stecken.Momentan gibt es ein viel größeres Problem als CPUs. Ein PC ist so schnell wie der langsamste Bestandteil und das ist die Festplatte. Eine extrem schnelle CPU würde mir sehr wenig bringen ohne die HDD zu beschleunigen.
Paradebeispiel, da haufenweise Energie in eine hardware-nahe x86-emulation gesteckt wurde. eben genau was ich sage...Siehe Itanium?
Wenn wir soweit sind, dann wird x86 nur noch emuliert
Schlechter Vergleich...
Man könnte es doch hardwaremäßig lösen, also die Emulation.Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.Softwaremäßig wird es natürlich schwer sein, ein passendes Betriebssystem zu entwickeln, aber dann fällt ein großer Teil der langsamen Emulation weg.Das wird nun schon seit 30 jahren erzählt - die x86 struktur hat inzwischen 31 jahre auf dem buckel....
Nicht jeder Anwendungsfall (sogar eher die wenigsten) hängen am Bottleneck HDD fest. Die ist biem Laden des Programms wichtig, sobald die Daten im Ram sind, kann die sich schlafen legen. Es gibt nicht DIE belastung bei einem PC, es gibt extrem I/O und HDD intensive Belastungen (Fileserver z.B.) aber auch extrem Rechenintensiven - das sind z.B. die Belastungen, die von einer GPU auf einmal um den Faktor 10 bis 1000 beschleunigt werden. Weil die GPUs nicht in dem x86-korsett stecken.
Paradebeispiel, da haufenweise Energie in eine hardware-nahe x86-emulation gesteckt wurde. eben genau was ich sage...
Man könnte es doch hardwaremäßig lösen, also die Emulation.Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.Softwaremäßig wird es natürlich schwer sein, ein passendes Betriebssystem zu entwickeln, aber dann fällt ein großer Teil der langsamen Emulation weg.
Das hab ich schon, auch wenn die neue Architektur im PCIE-Slot stecktDazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.
Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.
ne, meine GTX285 ist ja auch nichts anderes als eine völlig neue architektur mit der zigfachen rechenleistung aktueller x86-cpusopteron dem cells unterstellt sind, oder meintest du das @Bucklew?
Zum Zeitpunkt der ATI-Übernahme wurde der Marktwert von Nvidia auf 12 Milliarden geschätzt, seitdem sind die Gewinn und in Folge die Aktienkurse massiv gesunken. (letztere liegen bei ~1/4 ihres Höchstandes vor 1,5 bis 2 Jahren, statt gewinn macht nvidia verluste)
Intel hat 2008 knapp über 37 Milliarden Umsatz und über 5 Milliarden Reingewinn gemacht.
D.h. Intel sollte in der Lage sein, Nvidia aufzukaufen, wenn sie mal ein Jahr auf Dividenden verzichten.
Umgekehrt müsste Nvidia rund ein Zehntel des Firmenwertes jährlich zahlen, damit Intel nenneswert mehr Gewinn macht.
Hahaha, wieder der Fanboy-Anteil Mir ist es freilich egal, woher das kommt, hauptsache man hat irgendwo ein x86-Kern für den "alten" Kramm.Das hab ich schon, auch wenn die neue Architektur im PCIE-Slot steckt
Das hat man bei den Chipsätzen auch gesagt, dennoch waren die nForce-Chipsätze mit das beste, was es zu kaufen gab und gibt. AMD hat dank der Chipsätze den Servermarkt aktuell faktisch verloren...3. Ich glaube nicht, dass Nvidia genug Kapazitäten hat, um sich erfolgreich gegen Intel zu behaupten bzw. im "normalen" Prozessormarkt Fuß zu fassen.
Drückt halt gut aus, was dieser Firma entgegenschlägtLustige Nebeninfo für diejenigen, die kein Latein hatten:Nvidia heißt Neid auf lateinisch
Hahaha, wieder der Fanboy-Anteil
Das hat man bei den Chipsätzen auch gesagt, dennoch waren die nForce-Chipsätze mit das beste, was es zu kaufen gab und gibt. AMD hat dank der Chipsätze den Servermarkt aktuell faktisch verloren...
Drückt halt gut aus, was dieser Firma entgegenschlägt
Woran man wieder mal sieht, dass die bessere Technik oftmals durch irgendwelche juristischen Streitigkeiten zunichte gemacht werden. Ist ja aktuell auch wieder der Fall. Und AMD hat imho auch das PCI Prefetch abschalten müssen.Und was war? Patentstreit als Folge (zwar nicht mit intel) und PCI Prefetch abschalten müssen...
Woran man wieder mal sieht, dass die bessere Technik oftmals durch irgendwelche juristischen Streitigkeiten zunichte gemacht werden. Ist ja aktuell auch wieder der Fall. Und AMD hat imho auch das PCI Prefetch abschalten müssen.
Wenn's dem Esel zu wohl ist geht er auf's Eis oder wie war das???