Nvidia: x86-CPU weiterhin ein Ziel

Besten Dank :-)
Jetzt leuchtet mir auch ein, wie der Hase läuft...
Könnte auch quasi heißen, dass jetzt ein guter Zeitpunkt wäre Aktien von Nvidia zu kaufen. Dann aber vllt. nur Verlust damit macht, wenn Intel tatsächlich Nvidia aufkauft und man nichts mehr von den Aktien hat...
Hm, klingt für mich ein wenig wie Lotto spielen :D

Börse halt :)
Ich versteh den Laden auch nicht so ganz, aber ich glaube die Aktien würden sogar steigen, wenn es dem Laden so schlecht geht, dass ein Aufkauf durch Intel wahrscheinlich erscheint.

Praktisch könnte dem aber auch noch die Kartellaufsicht gegenüberstehen - Intel hat einen Marktanteil von deutlich über 50% für Grafiklösungen, bei Notebooks noch mehr. Da können die nicht einfach einen großen Konkurrenten übernehmen.

Meine Sicht der Dinge:
1. x86 abschaffen und ersetzen ist vorerst nicht drin. Das letzte Windows mit Multiplattformunterstützung war, glaub ich, NT 4.0.

Hmm - Windows CE gibts auch für viele Geräte.
Interessanter wäre in dem Zusammenhang MacOS, das es in recht ähnlicher Form für PowerPC, x86 und ARM gibt und dass -im Gegensatz zu verschiedenen Unix-Varianten- jedesmal ähnliche Schnittstellen und Bedienmöglichkeiten bieten möchte.

Intel ist auch schon seit Jahren im Rückstand mit der neuen Version, sollte wohl schon 2007 erscheinen (?).

Das ist doch noch keine Verspätung für nen Itanic :ugly:

quasi ein alter hut

IBM Roadrunner ? Wikipedia

opteron dem cells unterstellt sind

Mit was für einem Befehlssatz wird der Roadrunner eigentlich angesprochen - x86 oder PowerPC?
 
Hahaha, wieder der Fanboy-Anteil:D Mir ist es freilich egal, woher das kommt, hauptsache man hat irgendwo ein x86-Kern für den "alten" Kramm.
Lustige Nebeninfo für diejenigen, die kein Latein hatten:Nvidia heißt Neid auf lateinisch:D
Wieso??
Hast du keine 'neuartige Rechenarchitektur' im PCIe stecken?!
Was nutzt du denn für 'ne Grafikkarte?

'ne Mach 64?!
Oder S3 Trio??
Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie? ;)
Ganz genau, Apple hatte wohl die Schnauze voll vom Intel Zeugs, der nichtmal in der Lage war, unter OSX ein Fehlerfreies Bild darzustellen.

Und da AMD keine Intel IGPs mehr herstellt, muss man halt was von nVidia nehmen...
 
Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie? ;)

Na wo wird denn der Tegra hauptsächlich benutzt? In der Medizin. Hatte ich gesagt gehabt. Ion? Soll das ein Scherz sein? Mit dem allein können die sich wohl kaum über Wasser halten. Der Markt kommt jetzt erst richtig in Fahrt. Aber nur weil es ein gutes Produkt ist, wird es nicht gleich für jeden Zweck eingesetzt, geschweige denn vom Kunden gekauft. Außerdem bleibt mit dem Ion und dem Klinsch mit Nvidia noch abzuwarten was da so noch kommt. Beim Mac Ok. Apple ist aber gewiss nicht auf Nvidia angewiesen. Wenn die wollten, könnten die auch problemlos zu Intel oder AMD wechseln. Ich wollte darauf hinaus, dass Nvidia nur die Grafikkarten als Hauptgeschäft hat. Dieses auf Dauer aber zu wenig ist. Da helfen auch keine tollen Mainboards mehr. Fehlte noch, dass die Soundkarten und Festplatten entwickeln wollen...

EDIT: Tegra wird auch zum Rendern bei Filmen benutzt, ok. Macht aber auch keine Masse aus...
 
Na wo wird denn der Tegra hauptsächlich benutzt? In der Medizin. Hatte ich gesagt gehabt.
Ähm, nein?!?!

Mobile

Ion? Soll das ein Scherz sein? Mit dem allein können die sich wohl kaum über Wasser halten.
Nein, aber es ist eine Erweiterung des Marktes in die preisgünstigeren Regionen. Da ist zwar nicht viel Marge, aber dafür hohe Stückzahlen möglich.

Beim Mac Ok. Apple ist aber gewiss nicht auf Nvidia angewiesen. Wenn die wollten, könnten die auch problemlos zu Intel oder AMD wechseln.
Genau, die wechseln morgen zu AMD ;)

Ich wollte darauf hinaus, dass Nvidia nur die Grafikkarten als Hauptgeschäft hat. Dieses auf Dauer aber zu wenig ist.
Deshalb erweitern sie es ja mit Ion auf Lowbudget-Rechner. Mit Tegra auf Handhelds/Handys. Mit Tesla auf Supercomputer und und und.

Wenn ich mir deine Unwissenheit über Tegra anschaue, scheinst du einfach nur keine Ahnung zu haben und die letzten 2 Jahre verschlafne zu haben. Dann wundert es mich natürlich nicht, dass du glaubst, dass sie nur Grafikkarten haben....
 
Zumal man im Supercomputer Bereich durchaus öfter mal von GP-CPUs auf Massiv Parallele Recheneinheiten setzt, der IBM Rechner mit AMD Opteron und dem Cell Prozessor ist so ein Beispiel.
Eine Grafikkarte ist auch nicht mehr so viel anders als ein Cell, nur das die Anbindung an den Speicher wesentlich breiter ist und dafür weniger zur Verfügung steht.

Übrigens könnte nVidia auch ihre Geforce GPUs auf den Sockel F umbrechen, wenn sie es wollen würden, der Sockel steht nämlich jedem Offen!
Torrenza - Wikipedia, the free encyclopedia
 
Wieso??
Hast du keine 'neuartige Rechenarchitektur' im PCIe stecken?!
Was nutzt du denn für 'ne Grafikkarte?

'ne Mach 64?!
Oder S3 Trio??
Der war gut:D Mir ging es darum, wie man es überhaupt ermöglichen kann, dass neue Architektur auch noch die Altlasten unterstützen kann. Der eine Vorschlag war, dass man einen heterogenen Prozessor benutzt. Jetzt kommt der Punkt : Bucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.
Falls du meinen Post nicht verstanden hast, meine ich, dass es mir vollkommen egal ist, wie es realisiert wird! D.h. EGAL OB IN DER CPU ODER GPU. Ich habe nichts ausgeschlossen! Du kommst jetzt angreifend mit deiner komischen Unterstellung, dass ich GPUs als eine solche Quelle nicht wahrnehme:D
Meine Anmerkung zu diesem Sachverhalt: Bitte den Ton mäßigen oder erstmals lesen und verstehen, was der Gegenüber meint.
 
Bucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.
Nein, ich habe das extra betont, weil ich tagtäglich in meinem Job sehe, was mit diesen Grafikkarten möglich ist und auch schon längst seiten einigen Jahren gemacht wird :)

Die Zeiten, wo selbst ein poppeliger PC zum Röntgenbilder betrachten mit der dicksten erhältlichen CPU von Intel bestückt word, sind vorbei - warum klagt wohl Intel gegen Nvidia? Nicht ohne Grund...
 
Der war gut:D Mir ging es darum, wie man es überhaupt ermöglichen kann, dass neue Architektur auch noch die Altlasten unterstützen kann. Der eine Vorschlag war, dass man einen heterogenen Prozessor benutzt. Jetzt kommt der Punkt : Bucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.
Nein, das hat weder was mit nVidia noch sonstwas zu tun, was glaubst du, warum AMD es so eilig hatte, einen GraKa Hersteller zu übernehmen?
Was glaubst, warums sofort nach der Übernahme Gerüchte über die Integration einer GPU in die CPU?
Eben, die GPU wird der CPU den Rang ablaufen!

Deswegen arbeitet Intel auch ziemlich verzweifelt an einer "GraKa"...
GPUs sind schon lange keine Graphics Processing Units mehr, es sind Massiv Parallele In-Order Streamprozessoren...
Falls du meinen Post nicht verstanden hast, meine ich, dass es mir vollkommen egal ist, wie es realisiert wird! D.h. EGAL OB IN DER CPU ODER GPU. Ich habe nichts ausgeschlossen! Du kommst jetzt angreifend mit deiner komischen Unterstellung, dass ich GPUs als eine solche Quelle nicht wahrnehme:D
Nein, ich hab nur dargelegt, das GPUs die mit abstand stärkste Recheneinheit im Rechner ist und das mit gewaltigem Abstand.

Wobei Grafikkarten schon immer der CPU Arbeit abgenommen hat, schon vor 20 Jahren hat man das getan ("Windows Beschleuniger"), mittlererweile ist man an dem Punkt angelangt, an dem man den Code von der CPU an die "Grafikkarte" übergeben zu können, Grafikcode ist das erste was man getan hat, man ist aktuell dabei die Physikberechnungen an die Grafikkarte zu übergeben...


Im Wissenschaftlichen Bereich ist man hier schon weiter, hier macht man schon etwas mehr mit "Grafikkarten".
 
Nein, ich habe das extra betont, weil ich tagtäglich in meinem Job sehe, was mit diesen Grafikkarten möglich ist und auch schon längst seiten einigen Jahren gemacht wird :)

Die Zeiten, wo selbst ein poppeliger PC zum Röntgenbilder betrachten mit der dicksten erhältlichen CPU von Intel bestückt word, sind vorbei - warum klagt wohl Intel gegen Nvidia? Nicht ohne Grund...
Du hast absolut recht mit deinem Statement, allerdings hatte das gar nichts mit dem Thema zu tun. Was hat die Grafikkarte mit einer CPU von Nvidia auf x86 Basis zu tun?:D Es ging hier um die CPUs und wir haben darüber diskutiert. Dass die Grafikkarte bestimmte Aufgaben um ein vielfaches schneller erledigen kann stimmt, aber darum ging es hier gar nicht.Vlt verstehst du meine Antwort in diesem Context.Du betonst aus heiterem Himmel die Vorteile von CUDA,ohne dass es einen konkreten Bezug zu diesem Thema gibt.
 
Nein, das hat weder was mit nVidia noch sonstwas zu tun, was glaubst du, warum AMD es so eilig hatte, einen GraKa Hersteller zu übernehmen?
Was glaubst, warums sofort nach der Übernahme Gerüchte über die Integration einer GPU in die CPU?
Eben, die GPU wird der CPU den Rang ablaufen!

Deswegen arbeitet Intel auch ziemlich verzweifelt an einer "GraKa"...
GPUs sind schon lange keine Graphics Processing Units mehr, es sind Massiv Parallele In-Order Streamprozessoren...

Nein, ich hab nur dargelegt, das GPUs die mit abstand stärkste Recheneinheit im Rechner ist und das mit gewaltigem Abstand.

Wobei Grafikkarten schon immer der CPU Arbeit abgenommen hat, schon vor 20 Jahren hat man das getan ("Windows Beschleuniger"), mittlererweile ist man an dem Punkt angelangt, an dem man den Code von der CPU an die "Grafikkarte" übergeben zu können, Grafikcode ist das erste was man getan hat, man ist aktuell dabei die Physikberechnungen an die Grafikkarte zu übergeben...


Im Wissenschaftlichen Bereich ist man hier schon weiter, hier macht man schon etwas mehr mit "Grafikkarten".
Sry, aber hier verdrehst du alle Tatsachen. Du hast mich angegriffen und mir unterstellt, dass ich GPUs als Rechenquelle nicht wahrnehme:D Es macht keinen Sinn aneinander vorbeizureden. Ich beende meine Conversation an dieser Stelle mit dir.
P.S.: Finde irgendwo in einem meiner Posts die Stelle, wo ich sage, dass CPUs besser sind als Grafikkarten.Da stellt sich die Frage, warum du mich in deinen bezugslosen Darlegungen zitierst.Schön, dass du weißt, dass Grafikkarten sehr viele Rechnungen schneller als CPUs machen können und darüber auch noch schreibst. Was hat das mit meinen Posts zu tun?:D
 
Zuletzt bearbeitet:
Du hast absolut recht mit deinem Statement, allerdings hatte das gar nichts mit dem Thema zu tun. Was hat die Grafikkarte mit einer CPU von Nvidia auf x86 Basis zu tun?
Ganz einfach:

Eine CPU von Nvidia müsste nichtmal allzu gut sein - siehe Ion, was man mit einem vernünftigen Grafikkern aus einer extremen Lowcost-CPU mit mieser Rechenleistung rausholen kann. Sie müsste nur ein Windows booten können und dann alles was einigermaßen CPU-Leistung fordert auf die GPU umlegen. Ob das nun immer möglich ist, ist ne andere Frage, aber faktisch sind die GPUs den CPUs bereits heute überlegen und während die CPUs in einer ziemlichen Entwicklungssackgasse stecken (die heutigen Ghz-Zahlen wurden bereits vor 5 Jahren erreicht, heute gibt es nur mehr Cores), ist bei den GPUs irgendwie immer noch Luft vorhanden.

Heute haben wir 240 vs. 4 Cores. Bei dem Entwicklungstempo sind es dieses jahr noch 500 vs. 4 Cores, wnen die CPU-Hersteller gut sind 6.

Was ich damit im Endeffekt sage: x86 ist am ende der fahnenstange angekommen und die gesamte PC-Industrie rennt da vor ne riesen wand, die unbedingt eingerissen werden muss.
 
Zumal man im Supercomputer Bereich durchaus öfter mal von GP-CPUs auf Massiv Parallele Recheneinheiten setzt, der IBM Rechner mit AMD Opteron und dem Cell Prozessor ist so ein Beispiel.

Find mal noch 10 weitere Beispiele :ugly:
Bei Workstations findets man mitlerweile häufiger und Nvidia hat sich bei ein paar Filme machern einbringen können - aber für echte Großrechenanlagen werden vorerst keine CPUs verwendet.
Ein so aufwendiger Rechner muss einfach extrem flexibel sein, weil man jetzt noch nichtmal genau abschätzen kann, mit was für Berechnungen er sich die bessere Hälfte seiner Existenz beschäftigt. Eine hochspezialisierte Architektur wie bei GPUs ist da eher hinderlich.

Eine Grafikkarte ist auch nicht mehr so viel anders als ein Cell, nur das die Anbindung an den Speicher wesentlich breiter ist und dafür weniger zur Verfügung steht.

N Cell ist ne Kombination aus einer vollwertigen PowerPC-CPU und n paar zusätzlichen Fließkommeinheiten. Weder vom Parralellisierungsgrad noch vom (flexiblen) Befehlssatz mit einer GPU zu vergleichen.

Übrigens könnte nVidia auch ihre Geforce GPUs auf den Sockel F umbrechen, wenn sie es wollen würden, der Sockel steht nämlich jedem Offen!
Torrenza - Wikipedia, the free encyclopedia

Stellt sich die Frage, was das bringen soll, außer dramatisch reduzierter Speicherbandbreite, was bei den winzigen Caches einer GPU tödlich wäre.

Eine CPU von Nvidia müsste nichtmal allzu gut sein - siehe Ion, was man mit einem vernünftigen Grafikkern aus einer extremen Lowcost-CPU mit mieser Rechenleistung rausholen kann. Sie müsste nur ein Windows booten können und dann alles was einigermaßen CPU-Leistung fordert auf die GPU umlegen. Ob das nun immer möglich ist, ist ne andere Frage, aber faktisch sind die GPUs den CPUs bereits heute überlegen und während die CPUs in einer ziemlichen Entwicklungssackgasse stecken (die heutigen Ghz-Zahlen wurden bereits vor 5 Jahren erreicht, heute gibt es nur mehr Cores), ist bei den GPUs irgendwie immer noch Luft vorhanden.

Heute haben wir 240 vs. 4 Cores. Bei dem Entwicklungstempo sind es dieses jahr noch 500 vs. 4 Cores, wnen die CPU-Hersteller gut sind 6.

Stellt sich die Frage, was diese 500 Kerne machen, wenn sie auch nur sowas primitives wie eine Fakultät ausrechnen sollen...
Grafik*- und z.T. Physikcode mag hochgradig parallelisierbar sein (naja - bei Effekten wirds schon problematisch, siehe Mutli-GPU Probleme), aber normaler Programmcode hat nunmal sehr oft sehr wenige Aufgaben zu einem Zeitpunkt zu erledigen, dafür aber sehr komplexe aufeinander aufbauende. Und da versagt eine GPU kläglich.
Die Rechenleistung der 240 "Kerne" ist sowieso immer wieder ein witziger Vergleich - wenn dann muss man sich schon die ganze Architektur angucken und die ist bei einer High-End Grafikkarte ungleich aufwendiger, was sich im Preis und auch der Verlustleistung niederschlägt.
Eine knapp 300W GTX295 mag verkaufbar sein, aber bei CPUs hört der Spaß jenseits der 100W auf, wie spätestens Netburst bewiesen hat. Und preistechnisch ist auch eher die <100€ Sparte gefragt.

Interessant wird es an dem Tag, an dem eine GPU ein Multimediataugliches Betriebssystem bootet, online geht, Super-Pi runterlädt und schneller als ne CPU ist.


*:"Grafik" im ganz allgemeinen Sinne - alles, was mit grafischen Berechnungen zu tun hat, also dank "per Pixel"-Prinzip gut parallelisierbar ist. Dazu gehört, je nach Mechanismus auch z.B. der Kopierschutz eines Films.
 
Stellt sich die Frage, was diese 500 Kerne machen, wenn sie auch nur sowas primitives wie eine Fakultät ausrechnen sollen...
Grafik*- und z.T. Physikcode mag hochgradig parallelisierbar sein (naja - bei Effekten wirds schon problematisch, siehe Mutli-GPU Probleme), aber normaler Programmcode hat nunmal sehr oft sehr wenige Aufgaben zu einem Zeitpunkt zu erledigen, dafür aber sehr komplexe aufeinander aufbauende. Und da versagt eine GPU kläglich.
Das ist richtig. Allerdings sind die meisten CPU-auslastenden Programme heutzutage auf GPU portierbar. Bei Excel, nem IE o.ä. langweilt sich ja selbst ein Atom und läuft zu 90% im Idle. Und sobald Vista sein Aero anwirft oder man einen Film schaut oder ihn gar encodiert, kommt sofort die GPU ins Spiel.

Die Rechenleistung der 240 "Kerne" ist sowieso immer wieder ein witziger Vergleich - wenn dann muss man sich schon die ganze Architektur angucken und die ist bei einer High-End Grafikkarte ungleich aufwendiger, was sich im Preis und auch der Verlustleistung niederschlägt.
Angesichts der Leistungsfähigkeit ist die Architektur der x86-CPUs viel aufwendiger - ist ja auch kein Wunder, wenn man 30 jahre altlasten mit sich herumschleppen muss. Und wo du beim Thema Preis bist - schau dir mal an, was man für so einen winzigen Core2Quad bezahlt und was für so einen riesen GT200. Im Endeffekt ist es im Vergleich ein Witz:

http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/gtxvspenryn.jpg

Ist aber noch der 65nm GT200 ;)

Eine knapp 300W GTX295 mag verkaufbar sein, aber bei CPUs hört der Spaß jenseits der 100W auf, wie spätestens Netburst bewiesen hat. Und preistechnisch ist auch eher die <100€ Sparte gefragt.
nun, ein i7 hat imho 130W, die bisherigen Xeons gehen hoch bis 150W (kA wie weit da die Nehalem-Architektur will). Dennoch wären selbst 500W für eine GPU völlig im Rahmen angesichts der Leistung, die sicher herauskitzeln lässt. Und noch dazu sind die Energiesparmechanismen um Klassen besser, wenn man sich z.b. eine GTX285 anguckt, die von 220W unter Volllast auf unter 30W absinkt.

Find mal noch 10 weitere Beispiele :ugly:
Bei Workstations findets man mitlerweile häufiger und Nvidia hat sich bei ein paar Filme machern einbringen können - aber für echte Großrechenanlagen werden vorerst keine CPUs verwendet.
First NVIDIA Tesla-Based Supercomputer in TOP500 - Tokyo Tech builds Tesla GPU-based heterogeneous cluster - placed 29th in the world - Softpedia

Gerade für solche Großrechenanlage eignen sich die Grafikkarten besonders - ein Problem, was ich auf 2000 CPUs verteilen kann, das kann ich dann auch auf 200.000 Thread verteilen....
 
Zuletzt bearbeitet:
Das ist richtig. Allerdings sind die meisten CPU-auslastenden Programme heutzutage auf GPU portierbar. Bei Excel, nem IE o.ä. langweilt sich ja selbst ein Atom und läuft zu 90% im Idle. Und sobald Vista sein Aero anwirft oder man einen Film schaut oder ihn gar encodiert, kommt sofort die GPU ins Spiel.

Also die erste Anwendung, die meinen alten P4EE überlastet hat, war Opera -zugegeben: 40-50 Flashwerbungen ließen sich gut parallelisieren. Die zweite Anwendung, bei der ich dann erstmal nen Tee trinken gehen konnte, war Excel.
Die erste, die meinen aktuellen E5300 ausbremste, war gestern eine miserabel progammierte Webseite (zwei Tabs in Opera haben für über 70% CPU-Belastung und spürbar eingeschränkten Bedienkomfort gesorgt)
Weiß nicht, ob ich da was falsch mache - aber in Crysis oder Assassins Creed ist mir meine CPU bislang genauso wenig negativ aufgefallen, wie beim Filme gucken.

Angesichts der Leistungsfähigkeit ist die Architektur der x86-CPUs viel aufwendiger - ist ja auch kein Wunder, wenn man 30 jahre altlasten mit sich herumschleppen muss. Und wo du beim Thema Preis bist - schau dir mal an, was man für so einen winzigen Core2Quad bezahlt und was für so einen riesen GT200. Im Endeffekt ist es im Vergleich ein Witz:

http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/gtxvspenryn.jpg

Ist aber noch der 65nm GT200 ;)


nun, ein i7 hat imho 130W, die bisherigen Xeons gehen hoch bis 150W (kA wie weit da die Nehalem-Architektur will). Dennoch wären selbst 500W für eine GPU völlig im Rahmen angesichts der Leistung, die sicher herauskitzeln lässt. Und noch dazu sind die Energiesparmechanismen um Klassen besser, wenn man sich z.b. eine GTX285 anguckt, die von 220W unter Volllast auf unter 30W absinkt.

Du sprichst ziemlich viel von "in Angesicht der Leistung" - übergehst aber irgendwie vollkommen den Einwand, dass die kaum jemand haben und bezahlen will und dass sie sich nur für einige Szenariennutzen lässt.
Intel hat im letzten Jahr nicht dem i7 das meiste Geld verdient, sondern mit dem Atom. Da kann deine 500W/1000€ Geforce noch so toll 3D-Renderings von Computertomographenmessungen rendern:
Das interessiert den 08/15 Käufer nicht die Bohne. Der will einen Rechenkern, der für ein paar dutzend € genug Rechenleistung für *was-auch-immer-man-auf-einem-eee-macht-mir-fällt-bis-heute-nichts-ein* bietet und auch zu allen in frage kommenden Anwendungen kompatibel ist. Und das ganze bitte bei minimalem Stromverbrauch.

(Hat Nvidia überhaupt einen Chip, der unter 5W verbraucht? Nvio oder die alt-ehrwürdige NF IE Southbridge vielleicht?)


Ich weiß schon, warum ich nach 10 Beispielen gefragt habe ;)
Aber danke, dass du mir eine Meldung aus dem November zum ersten Projekt dieser Art zeigst.

Gerade für solche Großrechenanlage eignen sich die Grafikkarten besonders - ein Problem, was ich auf 2000 CPUs verteilen kann, das kann ich dann auch auf 200.000 Thread verteilen....

Kannst du? Schön :)
Aber du kannst nicht alle wissenschaftlichen Anwendungen dieser Welt coden und für x86 hat man die Experten ;)
Cuda mag n Ansatz sein, ist im Funktionsumfang afaik aber eingeschränkt und Hardwarenahe Optimierung (die eine große Rolle bei Supercomputern spielt) wird damit auch schwierig - dem gegenüber steht der afaik noch immer deutlich kleinere Leistungsvorsprung bei doppelter Präzision.
 
Also die erste Anwendung, die meinen alten P4EE überlastet hat, war Opera -zugegeben: 40-50 Flashwerbungen ließen sich gut parallelisieren. Die zweite Anwendung, bei der ich dann erstmal nen Tee trinken gehen konnte, war Excel.
Die erste, die meinen aktuellen E5300 ausbremste, war gestern eine miserabel progammierte Webseite (zwei Tabs in Opera haben für über 70% CPU-Belastung und spürbar eingeschränkten Bedienkomfort gesorgt)
Weiß nicht, ob ich da was falsch mache - aber in Crysis oder Assassins Creed ist mir meine CPU bislang genauso wenig negativ aufgefallen, wie beim Filme gucken.
Mit crap-programmierung kriegt man auch nen supercomputer ausgelastet ohne das was hinten bei rum kommt - das is wohl was anderes ;)

Du sprichst ziemlich viel von "in Angesicht der Leistung" - übergehst aber irgendwie vollkommen den Einwand, dass die kaum jemand haben und bezahlen will und dass sie sich nur für einige Szenariennutzen lässt.
Intel hat im letzten Jahr nicht dem i7 das meiste Geld verdient, sondern mit dem Atom. Da kann deine 500W/1000€ Geforce noch so toll 3D-Renderings von Computertomographenmessungen rendern:
Intel hat vom Atom vorallem viel verkauft, Geld haben sie vorallem mit dem C2D/Q verdient, der Atom hat keine ausreichend gute Marge. Und es gibt nicht nur 300W geforce-karte, man denke z.b. an den Ion.

Faktisch fährt man heutzutage schon besser sich die 50€ für größere CPU mit 200Mhz mehr (und praktisch nicht meßbaren mehrleistung) zu sparen und dafür ein GPU einzubauen.

Das interessiert den 08/15 Käufer nicht die Bohne. Der will einen Rechenkern, der für ein paar dutzend € genug Rechenleistung für *was-auch-immer-man-auf-einem-eee-macht-mir-fällt-bis-heute-nichts-ein* bietet und auch zu allen in frage kommenden Anwendungen kompatibel ist. Und das ganze bitte bei minimalem Stromverbrauch.
Eben: Ion. Und einen Atom-Konkurrenz sollte Nvidia schon hinkriegen, bzw der VIA Nano ist ja in ähnlichen Gefilden. Das zeigt aber halt auch genau das, was ich die ganze Zeit sage: Die x86-CPUs stoßen an ihre Grenzen.

(Hat Nvidia überhaupt einen Chip, der unter 5W verbraucht? Nvio oder die alt-ehrwürdige NF IE Southbridge vielleicht?)
Tegra ;)

Cuda mag n Ansatz sein, ist im Funktionsumfang afaik aber eingeschränkt und Hardwarenahe Optimierung (die eine große Rolle bei Supercomputern spielt) wird damit auch schwierig - dem gegenüber steht der afaik noch immer deutlich kleinere Leistungsvorsprung bei doppelter Präzision.
Die wenigstens Supercomputerprogramme machen hardwarenahe Optimierung, man weiß ja nie, ob der nächste Supercomputer immer noch ein x86 ist und nicht plötzlich was anderes. Zumal, was will man unter CUDA mit hardwarenaher Optimierung? Man hat ja schon einen Leistungssprung von 10 bis 1000fach, was will man dann noch mit nen paar prozent mehr leistung?

mit double precision hast du recht, das ist aber auch nur ne frage der zeit, bis dort die GPUs besser werden, wo jetzt der nutzer davon profitieren kann - und das auch x86 cpus bei double precision ganz schön einbrechen, weißt du ja auch ;)
 
Mit crap-programmierung kriegt man auch nen supercomputer ausgelastet ohne das was hinten bei rum kommt - das is wohl was anderes ;)

Nuja - damit müssen sich die meisten x86-CPUs halt den ganzen Tag lang beschäftigen. Und "G"PUs, die diese ersetzen möchten, werden es anfangs noch schwerer haben - zuwenig Programmieraufwand ist eine Sache, zuwenig Programmieraufwand von jemandem, der mit der neuen Architektur nicht vertraut ist, eine ganz andere.

Intel hat vom Atom vorallem viel verkauft, Geld haben sie vorallem mit dem C2D/Q verdient, der Atom hat keine ausreichend gute Marge.

Laut Intel hat der Atom eine mit den Core2 vergleichbare Gewinnspanne, das ist ja gerade der Witz an dem Ding.

Und es gibt nicht nur 300W geforce-karte, man denke z.b. an den Ion.

Es werden aber immer so gerne die 250 "Kerne" Karten als Beweis für die enorme Leistungsteigerungen bei GPU-Einsatz genannt, nicht der ION ;)

Faktisch fährt man heutzutage schon besser sich die 50€ für größere CPU mit 200Mhz mehr (und praktisch nicht meßbaren mehrleistung) zu sparen und dafür ein GPU einzubauen.

In Excel? Für Opera?
Das eine GPU gut für die Berechnung von 3D Grafik optimiert ist, stellt ja keiner in Frage, die Frage ist, welche Leistung sie im Schnitt bei traditionellen CPU-Aufgaben erzielt. (gibt es eigentlich eine rein GPU-basierte x86 Simulation? Direkter Vergleich wird aufgrund unterschiedlich guter Softwareoptimierung ja sicherlich nie möglich sein, da wäre es interessant zu testen, ob eine Software, die GPU und CPU gleichermaßen belastet, auf einer CPU mit GPU-Emulation oder auf einer GPU mit CPU-Emulation besser läuft)

Eben: Ion. Und einen Atom-Konkurrenz sollte Nvidia schon hinkriegen,

sollen sie mal ;)

bzw der VIA Nano ist ja in ähnlichen Gefilden.

Der ist aber weder Nvidia noch nicht-X86.


Touché

Die wenigstens Supercomputerprogramme machen hardwarenahe Optimierung, man weiß ja nie, ob der nächste Supercomputer immer noch ein x86 ist und nicht plötzlich was anderes.

Mag sein, dass ich da aufgrund naturwissenschaftlicher Wurzeln die falschen Vorstellungen von der durchschnittlichen Nutzungsart habe - ich kenn das eher so, dass die Computer über einen vielfach längeren Zeitraum als die Software eingesetzt werden, die im Extremfall extra zur Berechnung eines einzigen Phänomens geschrieben wird.
Abgesehen davon konnte man sich schon recht lange recht sicher sein, dass auch die Zukunft x86 bringt ;)

Zumal, was will man unter CUDA mit hardwarenaher Optimierung? Man hat ja schon einen Leistungssprung von 10 bis 1000fach, was will man dann noch mit nen paar prozent mehr leistung?

z.B.

mit double precision

:ugly:

Ja, zum Beispiel sowas, ansonsten siehe Bucklew, es gibt auch noch einige sehr sparsame AMD Chipsätze, der nForce 61x0/4x0 bzw 405.


Also gerade dieses Ding (die Geißel aller Intel-SLI Nutzer) ist afaik das denkbar schlechteste Beispiel für "kalt", oder hab ich da irgendein extrem schwerwiegendes Update verpennt?
(Wenn ich mir die Kühlung auf 780i/790i Boards so angucke: Definitiv NEIN)
Und die Nvidia IGPs mögen für Leistungsfähigkeit sehr sparsam sein, aber selbst in der ION-Ausführung braucht der 9400m afaik noch über 5W.
 
Also gerade dieses Ding (die Geißel aller Intel-SLI Nutzer) ist afaik das denkbar schlechteste Beispiel für "kalt", oder hab ich da irgendein extrem schwerwiegendes Update verpennt?
Schau nochmal genau hin, das kleine Bild ist übrigens ein Daumennagel für einen Link...
Und wie kommst jetzt wieder auf Intel?!
(Wenn ich mir die Kühlung auf 780i/790i Boards so angucke: Definitiv NEIN)
Du liegst soweit daneben, das glaubst du garnicht...

Kleiner Tip: das da oben ist weder ein C55 noch ein MCP55...
Und die Nvidia IGPs mögen für Leistungsfähigkeit sehr sparsam sein, aber selbst in der ION-Ausführung braucht der 9400m afaik noch über 5W.
Da bist schon etwas dichter dran...
 
Nuja - damit müssen sich die meisten x86-CPUs halt den ganzen Tag lang beschäftigen. Und "G"PUs, die diese ersetzen möchten, werden es anfangs noch schwerer haben - zuwenig Programmieraufwand ist eine Sache, zuwenig Programmieraufwand von jemandem, der mit der neuen Architektur nicht vertraut ist, eine ganz andere.
Was sicherlich kein Grund ist, weiter x86 zu benutzen....

Laut Intel hat der Atom eine mit den Core2 vergleichbare Gewinnspanne, das ist ja gerade der Witz an dem Ding.
Vllt prozentual, aber bei 50$ Verkaufspreis für einen Atom ist das wohl eher hohles gerede von intel, weil man sich durch den atom natürlich auch eigene geschäftfsfelder kanabalisiert.

Es werden aber immer so gerne die 250 "Kerne" Karten als Beweis für die enorme Leistungsteigerungen bei GPU-Einsatz genannt, nicht der ION ;)
nein, das ist absolut nicht der fall. gibt auch genug beispiele von leuten, die ihre auf highend-x86 cpus laufenden programme zum spaß auf cuda portiert haben und dann mit einer normalen geforce dennoch den faktor 10 an performanceboost hatten.

In Excel? Für Opera?
Brauch ich da mehr als einen Atom, außer ich mache 50 youporn-tabs gleichzeitig auf? :ugly:

Das eine GPU gut für die Berechnung von 3D Grafik optimiert ist, stellt ja keiner in Frage, die Frage ist, welche Leistung sie im Schnitt bei traditionellen CPU-Aufgaben erzielt. (gibt es eigentlich eine rein GPU-basierte x86 Simulation? Direkter Vergleich wird aufgrund unterschiedlich guter Softwareoptimierung ja sicherlich nie möglich sein, da wäre es interessant zu testen, ob eine Software, die GPU und CPU gleichermaßen belastet, auf einer CPU mit GPU-Emulation oder auf einer GPU mit CPU-Emulation besser läuft)
Guck dir Badaboom an, Nero, Arcsoft, Photoshop, Premiere....

Der ist aber weder Nvidia noch nicht-X86.
würde sich aber von seiten nvidia eine kooperation oder gar kauf lohnen. der ion2 soll ja bereits mit dem nano funktionieren.

Mag sein, dass ich da aufgrund naturwissenschaftlicher Wurzeln die falschen Vorstellungen von der durchschnittlichen Nutzungsart habe - ich kenn das eher so, dass die Computer über einen vielfach längeren Zeitraum als die Software eingesetzt werden, die im Extremfall extra zur Berechnung eines einzigen Phänomens geschrieben wird.
Abgesehen davon konnte man sich schon recht lange recht sicher sein, dass auch die Zukunft x86 bringt ;)
Supercomputer haben auch viel PowerPC-Architektur:

Processor Family share for 11/2008 | TOP500 Supercomputing Sites

Der Supercomputer in Jülich z.B. basiert auf PowerPC und der Vorgänger lief gerade mal zwei Jahre. bringt nicht viel da hardwarenah zu programmieren, wenn nach nem halben jahr plötzlich ne x64 plattform anstatt powerpc rum steht ;)
 
Zurück