Nvidia: x86-CPU weiterhin ein Ziel

@Bucklew, ich bin mit dir da nicht einverstanden bzw. dein Vergleich mit Linux hinkt.Die Betriebssysteme funktionieren anders und deshalb müsste jedes Programm neugeschrieben werden. Der Prozzi braucht nur x86 compatibel zu sein und schon funzt alles. Nochmals die kurze Fassung, die CPUs können absolut unterschiedlich aufgebaut sein, aber trotzdem das Laufen jedes Programms mit x86 ermöglichen, bei verschiedenen OS muss man alles neuschreiben :D
"Der Prozzi braucht nur x86 compatibel zu sein"

eben: "nur" - daher werden wir x86 auch noch in 20 jahren nutzen, außer ein anderes betriebssystem schafft es windows vom thron zu stoßen. MS wird es niemals schaffen, den alten x86-unterbau abzustoßen und was neues zu bauen.

der wegfall von x86 würde einen großen sprung in der cpu-leistung bedeuten, nur leider ist keiner bereit das ganze zu wagen. dabei wäre es mit heutiger virtualisierung eigentlich kein probleme eine ausreichend performante x86-umgebung aufzubauen und darunter was vernünftiges laufen zu haben. schade drum...
 
Ok, mit den finanziellen Marktsituationen der Firmen kenne ich mich nicht wirklich aus. Ich kann mir natürlich schon vorstellen, dass Intel die Lizenz nur für ein hohen Preis (bei aktueller Spannung) rausgeben würde. Wobei das dann eigentlich wettbewerbsschädigend wäre und vielleicht doch zu einer Lizenzierung führen könnte. Aber wie gesagt, davon hab ich nicht so viel Ahnung...

Zum Zeitpunkt der ATI-Übernahme wurde der Marktwert von Nvidia auf 12 Milliarden geschätzt, seitdem sind die Gewinn und in Folge die Aktienkurse massiv gesunken. (letztere liegen bei ~1/4 ihres Höchstandes vor 1,5 bis 2 Jahren, statt gewinn macht nvidia verluste)
Intel hat 2008 knapp über 37 Milliarden Umsatz und über 5 Milliarden Reingewinn gemacht.
D.h. Intel sollte in der Lage sein, Nvidia aufzukaufen, wenn sie mal ein Jahr auf Dividenden verzichten.
Umgekehrt müsste Nvidia rund ein Zehntel des Firmenwertes jährlich zahlen, damit Intel nenneswert mehr Gewinn macht.


dabei wäre es mit heutiger virtualisierung eigentlich kein probleme eine ausreichend performante x86-umgebung aufzubauen und darunter was vernünftiges laufen zu haben. schade drum...

Siehe Itanium?
 
"Der Prozzi braucht nur x86 compatibel zu sein"

eben: "nur" - daher werden wir x86 auch noch in 20 jahren nutzen, außer ein anderes betriebssystem schafft es windows vom thron zu stoßen. MS wird es niemals schaffen, den alten x86-unterbau abzustoßen und was neues zu bauen.

der wegfall von x86 würde einen großen sprung in der cpu-leistung bedeuten, nur leider ist keiner bereit das ganze zu wagen. dabei wäre es mit heutiger virtualisierung eigentlich kein probleme eine ausreichend performante x86-umgebung aufzubauen und darunter was vernünftiges laufen zu haben. schade drum...
20 Jahre wird x86 nicht mehr halten. 7 Jahre noch, würde ich schätzen,das kommt mit der Virtualisierung noch. Momentan gibt es ein viel größeres Problem als CPUs. Ein PC ist so schnell wie der langsamste Bestandteil und das ist die Festplatte. Eine extrem schnelle CPU würde mir sehr wenig bringen ohne die HDD zu beschleunigen. Ich hoffe, dass sie da was tun. Sogar heute sind die Prozessoren für die Festplatten zu schnell, mit den Instruktionen im Cache versucht man das zu umgehen= so wenig Zugriffe wie möglich auf RAM oder Festplatte.Wenn wir soweit sind, dann wird x86 nur noch emuliert und ich bin mir so ziemlich sicher, dass Intel oder AMD mit 20% mehr Leistung nicht 20 Jahre lang auf dem IT-Markt "neue Produkte" verkaufen können, da muss dann die Architektur geändert werden.
Mit anderen Worten, die heutige Leistung reicht nicht für ein Betriebssystem und die Emulation von x86.
 
Zuletzt bearbeitet:
20 Jahre wird x86 nicht mehr alten. 7 Jahre noch, würde ich schätzen,das kommt mit der Virtualisierung noch.
Das wird nun schon seit 30 jahren erzählt - die x86 struktur hat inzwischen 31 jahre auf dem buckel....

Momentan gibt es ein viel größeres Problem als CPUs. Ein PC ist so schnell wie der langsamste Bestandteil und das ist die Festplatte. Eine extrem schnelle CPU würde mir sehr wenig bringen ohne die HDD zu beschleunigen.
Nicht jeder Anwendungsfall (sogar eher die wenigsten) hängen am Bottleneck HDD fest. Die ist biem Laden des Programms wichtig, sobald die Daten im Ram sind, kann die sich schlafen legen. Es gibt nicht DIE belastung bei einem PC, es gibt extrem I/O und HDD intensive Belastungen (Fileserver z.B.) aber auch extrem Rechenintensiven - das sind z.B. die Belastungen, die von einer GPU auf einmal um den Faktor 10 bis 1000 beschleunigt werden. Weil die GPUs nicht in dem x86-korsett stecken.

Paradebeispiel, da haufenweise Energie in eine hardware-nahe x86-emulation gesteckt wurde. eben genau was ich sage...
 
Das wird nun schon seit 30 jahren erzählt - die x86 struktur hat inzwischen 31 jahre auf dem buckel....


Nicht jeder Anwendungsfall (sogar eher die wenigsten) hängen am Bottleneck HDD fest. Die ist biem Laden des Programms wichtig, sobald die Daten im Ram sind, kann die sich schlafen legen. Es gibt nicht DIE belastung bei einem PC, es gibt extrem I/O und HDD intensive Belastungen (Fileserver z.B.) aber auch extrem Rechenintensiven - das sind z.B. die Belastungen, die von einer GPU auf einmal um den Faktor 10 bis 1000 beschleunigt werden. Weil die GPUs nicht in dem x86-korsett stecken.


Paradebeispiel, da haufenweise Energie in eine hardware-nahe x86-emulation gesteckt wurde. eben genau was ich sage...
Man könnte es doch hardwaremäßig lösen, also die Emulation.Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.Softwaremäßig wird es natürlich schwer sein, ein passendes Betriebssystem zu entwickeln, aber dann fällt ein großer Teil der langsamen Emulation weg.
 
Man könnte es doch hardwaremäßig lösen, also die Emulation.Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.Softwaremäßig wird es natürlich schwer sein, ein passendes Betriebssystem zu entwickeln, aber dann fällt ein großer Teil der langsamen Emulation weg.

das nennt man Hetorogener-Mehrkernprozessor. Nur kann ich mir bei der heutigen Entwicklung vorstellen, dass da ein einziger x86 kern reicht. Und zusätzlich würde noch ein Verteiler-Kern gebraucht werden, der die Aufgaben zu den richtigen Prozessoren aufteilt.
 
Dazu packt man bei Mehrkern-CPUs einfach eine x86 CPU und den Rest mit der neuen Architektur, welche auch immer sein darf.

quasi ein alter hut

IBM Roadrunner ? Wikipedia

opteron dem cells unterstellt sind, oder meintest du das @Bucklew?

edit: bzw ist das wohl das schnellste aktuelle beispiel dazu ;)

ok, bissel ausm kontext gerissen, da es ja um die emulation ging, aber letztenendes wurde hier x86 mit speed gepaart
 
Zuletzt bearbeitet:
Zum Zeitpunkt der ATI-Übernahme wurde der Marktwert von Nvidia auf 12 Milliarden geschätzt, seitdem sind die Gewinn und in Folge die Aktienkurse massiv gesunken. (letztere liegen bei ~1/4 ihres Höchstandes vor 1,5 bis 2 Jahren, statt gewinn macht nvidia verluste)
Intel hat 2008 knapp über 37 Milliarden Umsatz und über 5 Milliarden Reingewinn gemacht.
D.h. Intel sollte in der Lage sein, Nvidia aufzukaufen, wenn sie mal ein Jahr auf Dividenden verzichten.
Umgekehrt müsste Nvidia rund ein Zehntel des Firmenwertes jährlich zahlen, damit Intel nenneswert mehr Gewinn macht.

Besten Dank :-)
Jetzt leuchtet mir auch ein, wie der Hase läuft...
Könnte auch quasi heißen, dass jetzt ein guter Zeitpunkt wäre Aktien von Nvidia zu kaufen. Dann aber vllt. nur Verlust damit macht, wenn Intel tatsächlich Nvidia aufkauft und man nichts mehr von den Aktien hat...
Hm, klingt für mich ein wenig wie Lotto spielen :D
 
Meine Sicht der Dinge:
1. x86 abschaffen und ersetzen ist vorerst nicht drin. Das letzte Windows mit Multiplattformunterstützung war, glaub ich, NT 4.0. Also neue Architektur würde als erstes in der Linux/Unix-Welt Verwendung finden, da die schon jetzt viel unterstützen. Daher muss es ja nicht unbedingt eine komplett neue sein, könnte ja auch von IBM die Cell-Kiste sein, oder SUN's openSPARC (www.opensparc.net; der einzige opensource-Prozessor, 64 Bit, 64 Threads, kein x86 ^^).

2. Emulieren ist nicht. Wenn man bedenkt, welche Hardware nötig ist um Konsolen zu emulieren, kannste deinen x86 in die Tonne treten. Itanium hat es ja glorreich vorgemacht, wobei die gesamte Architektur nich so der Brüller ist. Intel ist auch schon seit Jahren im Rückstand mit der neuen Version, sollte wohl schon 2007 erscheinen (?).

3. Ich glaube nicht, dass Nvidia genug Kapazitäten hat, um sich erfolgreich gegen Intel zu behaupten bzw. im "normalen" Prozessormarkt Fuß zu fassen.
Sie fangen ja quasi bei Null an, haben keinerlei Erfahrungen auf dem Gebiet. Die müssten schon nen Killerteil rausbringen um überhaupt Leute von den etablierten Anbietern (Intel, AMD) wegzubekommen. Und im OEM-Markt wird das eh nichts, da ist Intel unangefochten Nummer 1, ebenso wie bei den Grafikkarten. Man darf ja nicht vergessen, dass der Spielesektor ein recht kleines Stück vom Kuchen ist.

Nochwas:
Hier ein sehr guter Artikel bezüglich CUDA. Man sollte im Hinterkopf halten, dass CPUs und GPUs unterschiedliche Aufgabenbereiche besitzen. CUDA ist sehr gut geeignet für parallels Rechnen von gleichartigen Daten, z.B. bei der Videokodierung. Man muss allerdings beachten, GPUs haben z.B. quasi keinen Cache, da sie nicht für allgemeine Aufgaben ausgelegt sind. Die Daten liegen immer schön "geordnet" im VRAM und auch die Anbindung an diesen ist deutlich flotter als der normale RAM im PC.
Zumindest ist dies bei Texturdaten so. Wenn du jetzt aber ein Betriebssystem laufen lassen möchtest, da hast du keine hintereinanderliegende Speicherbereiche mehr. Da hast du mehrere Prozesse mit eigenen Speicherbereichen, welche willkürlich belegt sein können. Außerdem fällt der Anteil an parallel berechenbaren Daten eher gering aus, so dass der Große Vorteil der GPUs hier verpufft. Was nützts es dir wenn der Chip 20 parallele Datenströme verarbeiten kann, es aber nur 3 gibt?
Das ist jetzt sicherlich vereinfacht dargestellt und bestimmt auch nicht 100% richtig (^^), aber im Ganzen betrachtet geht es halt darum, dass eine CPU als Universalrechenwerk ausgelegt ist und eine GPU auf eine parallele Verarbeitung ganz bestimmter Datentypen. Und eine GPU auf einen Universalprozessor umzubasteln ist würde auch nur mäßig Erfolg haben, denn mn benötigt jede Menge Platz den man nicht hat.
 
Zuletzt bearbeitet:
Das hab ich schon, auch wenn die neue Architektur im PCIE-Slot steckt :ugly:
Hahaha, wieder der Fanboy-Anteil:D Mir ist es freilich egal, woher das kommt, hauptsache man hat irgendwo ein x86-Kern für den "alten" Kramm.
Lustige Nebeninfo für diejenigen, die kein Latein hatten:Nvidia heißt Neid auf lateinisch:D
 
3. Ich glaube nicht, dass Nvidia genug Kapazitäten hat, um sich erfolgreich gegen Intel zu behaupten bzw. im "normalen" Prozessormarkt Fuß zu fassen.
Das hat man bei den Chipsätzen auch gesagt, dennoch waren die nForce-Chipsätze mit das beste, was es zu kaufen gab und gibt. AMD hat dank der Chipsätze den Servermarkt aktuell faktisch verloren...

Lustige Nebeninfo für diejenigen, die kein Latein hatten:Nvidia heißt Neid auf lateinisch:D
Drückt halt gut aus, was dieser Firma entgegenschlägt :P

Hahaha, wieder der Fanboy-Anteil:D
:daumen2::daumen2::daumen2::daumen2::daumen2:
 
Das hat man bei den Chipsätzen auch gesagt, dennoch waren die nForce-Chipsätze mit das beste, was es zu kaufen gab und gibt. AMD hat dank der Chipsätze den Servermarkt aktuell faktisch verloren...


Drückt halt gut aus, was dieser Firma entgegenschlägt :P


:daumen2::daumen2::daumen2::daumen2::daumen2:

Und was war? Patentstreit als Folge (zwar nicht mit intel) und PCI Prefetch abschalten müssen...
Ich hab selber nen nForce4 Ultra in meinem PC und bin damit zufrieden. Man sollte allerdings im Hinterkopf behalten dass es sich um einen CHIPSATZ handlet und keine CPU. Die Aufgabengebiete liegen da ganz anders. Und selbst AMD hatte/hat mit dem C2D zu kämpfen (gehabt) und die sind schon lange im Geschäft...
 
Und was war? Patentstreit als Folge (zwar nicht mit intel) und PCI Prefetch abschalten müssen...
Woran man wieder mal sieht, dass die bessere Technik oftmals durch irgendwelche juristischen Streitigkeiten zunichte gemacht werden. Ist ja aktuell auch wieder der Fall. Und AMD hat imho auch das PCI Prefetch abschalten müssen.
 
Woran man wieder mal sieht, dass die bessere Technik oftmals durch irgendwelche juristischen Streitigkeiten zunichte gemacht werden. Ist ja aktuell auch wieder der Fall. Und AMD hat imho auch das PCI Prefetch abschalten müssen.

Ahh... wie hießen die Lümmels noch? OPTi oder so? Ich glaub ich hatte mal nen 386/486-Board von denen...

Das ist dann wieder so ne schlimme Geschichte. Der Hersteller ist schon seit Jahrzehnten nich mehr aktiv, versucht aber den Leuten, bei denen es gut läuft, das Stück vom Kuchen zu entreißen.

Ich will ja auch nix gegen Nvidia's Chipsätze sagen, bin mit meinem nforce4 zufrieden, aber man muss nicht alles haben (kann man auch nicht). Wenn's dem Esel zu wohl ist geht er auf's Eis oder wie war das??? :ugly:
 
Wenn's dem Esel zu wohl ist geht er auf's Eis oder wie war das??? :ugly:

Ich kenne nur:
Ohne Heu, kann das beste Pferd nicht furzen :D

Aber im Ernst. Nvidia ist doch in keinster Weise als Konkurrent von Intel oder AMD zu betrachten. Egal in welchem Marktsegment. Nvidia geht halt langsam die Puste aus. Sobald ein Rechner nicht zum Spielen oder in der Medizin benutzt wird, steht Nvidia schon gar nicht mehr auf der Liste. Die müssen sich auf kurz oder lang auch mit diesem Gebiet beschäftigen. Wie das Ergebnis dazu aussieht bleibt halt wie immer abzuwarten...
 
Zurück