Bucklew
Gesperrt
Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie?Sobald ein Rechner nicht zum Spielen oder in der Medizin benutzt wird, steht Nvidia schon gar nicht mehr auf der Liste.
Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie?Sobald ein Rechner nicht zum Spielen oder in der Medizin benutzt wird, steht Nvidia schon gar nicht mehr auf der Liste.
Besten Dank
Jetzt leuchtet mir auch ein, wie der Hase läuft...
Könnte auch quasi heißen, dass jetzt ein guter Zeitpunkt wäre Aktien von Nvidia zu kaufen. Dann aber vllt. nur Verlust damit macht, wenn Intel tatsächlich Nvidia aufkauft und man nichts mehr von den Aktien hat...
Hm, klingt für mich ein wenig wie Lotto spielen
Meine Sicht der Dinge:
1. x86 abschaffen und ersetzen ist vorerst nicht drin. Das letzte Windows mit Multiplattformunterstützung war, glaub ich, NT 4.0.
Intel ist auch schon seit Jahren im Rückstand mit der neuen Version, sollte wohl schon 2007 erscheinen (?).
Wieso??Hahaha, wieder der Fanboy-Anteil Mir ist es freilich egal, woher das kommt, hauptsache man hat irgendwo ein x86-Kern für den "alten" Kramm.
Lustige Nebeninfo für diejenigen, die kein Latein hatten:Nvidia heißt Neid auf lateinisch
Ganz genau, Apple hatte wohl die Schnauze voll vom Intel Zeugs, der nichtmal in der Lage war, unter OSX ein Fehlerfreies Bild darzustellen.Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie?
Was ist z.B. mit den Macs? Ion? Tegra? Wohl sämtliche aktuellen Entwicklungen verpennt, wie?
Ähm, nein?!?!Na wo wird denn der Tegra hauptsächlich benutzt? In der Medizin. Hatte ich gesagt gehabt.
Nein, aber es ist eine Erweiterung des Marktes in die preisgünstigeren Regionen. Da ist zwar nicht viel Marge, aber dafür hohe Stückzahlen möglich.Ion? Soll das ein Scherz sein? Mit dem allein können die sich wohl kaum über Wasser halten.
Genau, die wechseln morgen zu AMDBeim Mac Ok. Apple ist aber gewiss nicht auf Nvidia angewiesen. Wenn die wollten, könnten die auch problemlos zu Intel oder AMD wechseln.
Deshalb erweitern sie es ja mit Ion auf Lowbudget-Rechner. Mit Tegra auf Handhelds/Handys. Mit Tesla auf Supercomputer und und und.Ich wollte darauf hinaus, dass Nvidia nur die Grafikkarten als Hauptgeschäft hat. Dieses auf Dauer aber zu wenig ist.
Der war gut Mir ging es darum, wie man es überhaupt ermöglichen kann, dass neue Architektur auch noch die Altlasten unterstützen kann. Der eine Vorschlag war, dass man einen heterogenen Prozessor benutzt. Jetzt kommt der Punkt : Bucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.Wieso??
Hast du keine 'neuartige Rechenarchitektur' im PCIe stecken?!
Was nutzt du denn für 'ne Grafikkarte?
'ne Mach 64?!
Oder S3 Trio??
Nein, ich habe das extra betont, weil ich tagtäglich in meinem Job sehe, was mit diesen Grafikkarten möglich ist und auch schon längst seiten einigen Jahren gemacht wirdBucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.
Nein, das hat weder was mit nVidia noch sonstwas zu tun, was glaubst du, warum AMD es so eilig hatte, einen GraKa Hersteller zu übernehmen?Der war gut Mir ging es darum, wie man es überhaupt ermöglichen kann, dass neue Architektur auch noch die Altlasten unterstützen kann. Der eine Vorschlag war, dass man einen heterogenen Prozessor benutzt. Jetzt kommt der Punkt : Bucklew hat extra betont, dass man das auch mit einer Grafikkarte realisieren kann, weil er sich zu Grafikkarten einer bestimmten Firma sehr hingezogen fühlt.
Nein, ich hab nur dargelegt, das GPUs die mit abstand stärkste Recheneinheit im Rechner ist und das mit gewaltigem Abstand.Falls du meinen Post nicht verstanden hast, meine ich, dass es mir vollkommen egal ist, wie es realisiert wird! D.h. EGAL OB IN DER CPU ODER GPU. Ich habe nichts ausgeschlossen! Du kommst jetzt angreifend mit deiner komischen Unterstellung, dass ich GPUs als eine solche Quelle nicht wahrnehme
Du hast absolut recht mit deinem Statement, allerdings hatte das gar nichts mit dem Thema zu tun. Was hat die Grafikkarte mit einer CPU von Nvidia auf x86 Basis zu tun? Es ging hier um die CPUs und wir haben darüber diskutiert. Dass die Grafikkarte bestimmte Aufgaben um ein vielfaches schneller erledigen kann stimmt, aber darum ging es hier gar nicht.Vlt verstehst du meine Antwort in diesem Context.Du betonst aus heiterem Himmel die Vorteile von CUDA,ohne dass es einen konkreten Bezug zu diesem Thema gibt.Nein, ich habe das extra betont, weil ich tagtäglich in meinem Job sehe, was mit diesen Grafikkarten möglich ist und auch schon längst seiten einigen Jahren gemacht wird
Die Zeiten, wo selbst ein poppeliger PC zum Röntgenbilder betrachten mit der dicksten erhältlichen CPU von Intel bestückt word, sind vorbei - warum klagt wohl Intel gegen Nvidia? Nicht ohne Grund...
Sry, aber hier verdrehst du alle Tatsachen. Du hast mich angegriffen und mir unterstellt, dass ich GPUs als Rechenquelle nicht wahrnehme Es macht keinen Sinn aneinander vorbeizureden. Ich beende meine Conversation an dieser Stelle mit dir.Nein, das hat weder was mit nVidia noch sonstwas zu tun, was glaubst du, warum AMD es so eilig hatte, einen GraKa Hersteller zu übernehmen?
Was glaubst, warums sofort nach der Übernahme Gerüchte über die Integration einer GPU in die CPU?
Eben, die GPU wird der CPU den Rang ablaufen!
Deswegen arbeitet Intel auch ziemlich verzweifelt an einer "GraKa"...
GPUs sind schon lange keine Graphics Processing Units mehr, es sind Massiv Parallele In-Order Streamprozessoren...
Nein, ich hab nur dargelegt, das GPUs die mit abstand stärkste Recheneinheit im Rechner ist und das mit gewaltigem Abstand.
Wobei Grafikkarten schon immer der CPU Arbeit abgenommen hat, schon vor 20 Jahren hat man das getan ("Windows Beschleuniger"), mittlererweile ist man an dem Punkt angelangt, an dem man den Code von der CPU an die "Grafikkarte" übergeben zu können, Grafikcode ist das erste was man getan hat, man ist aktuell dabei die Physikberechnungen an die Grafikkarte zu übergeben...
Im Wissenschaftlichen Bereich ist man hier schon weiter, hier macht man schon etwas mehr mit "Grafikkarten".
Ganz einfach:Du hast absolut recht mit deinem Statement, allerdings hatte das gar nichts mit dem Thema zu tun. Was hat die Grafikkarte mit einer CPU von Nvidia auf x86 Basis zu tun?
Zumal man im Supercomputer Bereich durchaus öfter mal von GP-CPUs auf Massiv Parallele Recheneinheiten setzt, der IBM Rechner mit AMD Opteron und dem Cell Prozessor ist so ein Beispiel.
Eine Grafikkarte ist auch nicht mehr so viel anders als ein Cell, nur das die Anbindung an den Speicher wesentlich breiter ist und dafür weniger zur Verfügung steht.
Übrigens könnte nVidia auch ihre Geforce GPUs auf den Sockel F umbrechen, wenn sie es wollen würden, der Sockel steht nämlich jedem Offen!
Torrenza - Wikipedia, the free encyclopedia
Eine CPU von Nvidia müsste nichtmal allzu gut sein - siehe Ion, was man mit einem vernünftigen Grafikkern aus einer extremen Lowcost-CPU mit mieser Rechenleistung rausholen kann. Sie müsste nur ein Windows booten können und dann alles was einigermaßen CPU-Leistung fordert auf die GPU umlegen. Ob das nun immer möglich ist, ist ne andere Frage, aber faktisch sind die GPUs den CPUs bereits heute überlegen und während die CPUs in einer ziemlichen Entwicklungssackgasse stecken (die heutigen Ghz-Zahlen wurden bereits vor 5 Jahren erreicht, heute gibt es nur mehr Cores), ist bei den GPUs irgendwie immer noch Luft vorhanden.
Heute haben wir 240 vs. 4 Cores. Bei dem Entwicklungstempo sind es dieses jahr noch 500 vs. 4 Cores, wnen die CPU-Hersteller gut sind 6.
Das ist richtig. Allerdings sind die meisten CPU-auslastenden Programme heutzutage auf GPU portierbar. Bei Excel, nem IE o.ä. langweilt sich ja selbst ein Atom und läuft zu 90% im Idle. Und sobald Vista sein Aero anwirft oder man einen Film schaut oder ihn gar encodiert, kommt sofort die GPU ins Spiel.Stellt sich die Frage, was diese 500 Kerne machen, wenn sie auch nur sowas primitives wie eine Fakultät ausrechnen sollen...
Grafik*- und z.T. Physikcode mag hochgradig parallelisierbar sein (naja - bei Effekten wirds schon problematisch, siehe Mutli-GPU Probleme), aber normaler Programmcode hat nunmal sehr oft sehr wenige Aufgaben zu einem Zeitpunkt zu erledigen, dafür aber sehr komplexe aufeinander aufbauende. Und da versagt eine GPU kläglich.
Angesichts der Leistungsfähigkeit ist die Architektur der x86-CPUs viel aufwendiger - ist ja auch kein Wunder, wenn man 30 jahre altlasten mit sich herumschleppen muss. Und wo du beim Thema Preis bist - schau dir mal an, was man für so einen winzigen Core2Quad bezahlt und was für so einen riesen GT200. Im Endeffekt ist es im Vergleich ein Witz:Die Rechenleistung der 240 "Kerne" ist sowieso immer wieder ein witziger Vergleich - wenn dann muss man sich schon die ganze Architektur angucken und die ist bei einer High-End Grafikkarte ungleich aufwendiger, was sich im Preis und auch der Verlustleistung niederschlägt.
nun, ein i7 hat imho 130W, die bisherigen Xeons gehen hoch bis 150W (kA wie weit da die Nehalem-Architektur will). Dennoch wären selbst 500W für eine GPU völlig im Rahmen angesichts der Leistung, die sicher herauskitzeln lässt. Und noch dazu sind die Energiesparmechanismen um Klassen besser, wenn man sich z.b. eine GTX285 anguckt, die von 220W unter Volllast auf unter 30W absinkt.Eine knapp 300W GTX295 mag verkaufbar sein, aber bei CPUs hört der Spaß jenseits der 100W auf, wie spätestens Netburst bewiesen hat. Und preistechnisch ist auch eher die <100€ Sparte gefragt.
First NVIDIA Tesla-Based Supercomputer in TOP500 - Tokyo Tech builds Tesla GPU-based heterogeneous cluster - placed 29th in the world - SoftpediaFind mal noch 10 weitere Beispiele
Bei Workstations findets man mitlerweile häufiger und Nvidia hat sich bei ein paar Filme machern einbringen können - aber für echte Großrechenanlagen werden vorerst keine CPUs verwendet.
Das ist richtig. Allerdings sind die meisten CPU-auslastenden Programme heutzutage auf GPU portierbar. Bei Excel, nem IE o.ä. langweilt sich ja selbst ein Atom und läuft zu 90% im Idle. Und sobald Vista sein Aero anwirft oder man einen Film schaut oder ihn gar encodiert, kommt sofort die GPU ins Spiel.
Angesichts der Leistungsfähigkeit ist die Architektur der x86-CPUs viel aufwendiger - ist ja auch kein Wunder, wenn man 30 jahre altlasten mit sich herumschleppen muss. Und wo du beim Thema Preis bist - schau dir mal an, was man für so einen winzigen Core2Quad bezahlt und was für so einen riesen GT200. Im Endeffekt ist es im Vergleich ein Witz:
http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/gtxvspenryn.jpg
Ist aber noch der 65nm GT200
nun, ein i7 hat imho 130W, die bisherigen Xeons gehen hoch bis 150W (kA wie weit da die Nehalem-Architektur will). Dennoch wären selbst 500W für eine GPU völlig im Rahmen angesichts der Leistung, die sicher herauskitzeln lässt. Und noch dazu sind die Energiesparmechanismen um Klassen besser, wenn man sich z.b. eine GTX285 anguckt, die von 220W unter Volllast auf unter 30W absinkt.
Gerade für solche Großrechenanlage eignen sich die Grafikkarten besonders - ein Problem, was ich auf 2000 CPUs verteilen kann, das kann ich dann auch auf 200.000 Thread verteilen....
Mit crap-programmierung kriegt man auch nen supercomputer ausgelastet ohne das was hinten bei rum kommt - das is wohl was anderesAlso die erste Anwendung, die meinen alten P4EE überlastet hat, war Opera -zugegeben: 40-50 Flashwerbungen ließen sich gut parallelisieren. Die zweite Anwendung, bei der ich dann erstmal nen Tee trinken gehen konnte, war Excel.
Die erste, die meinen aktuellen E5300 ausbremste, war gestern eine miserabel progammierte Webseite (zwei Tabs in Opera haben für über 70% CPU-Belastung und spürbar eingeschränkten Bedienkomfort gesorgt)
Weiß nicht, ob ich da was falsch mache - aber in Crysis oder Assassins Creed ist mir meine CPU bislang genauso wenig negativ aufgefallen, wie beim Filme gucken.
Intel hat vom Atom vorallem viel verkauft, Geld haben sie vorallem mit dem C2D/Q verdient, der Atom hat keine ausreichend gute Marge. Und es gibt nicht nur 300W geforce-karte, man denke z.b. an den Ion.Du sprichst ziemlich viel von "in Angesicht der Leistung" - übergehst aber irgendwie vollkommen den Einwand, dass die kaum jemand haben und bezahlen will und dass sie sich nur für einige Szenariennutzen lässt.
Intel hat im letzten Jahr nicht dem i7 das meiste Geld verdient, sondern mit dem Atom. Da kann deine 500W/1000€ Geforce noch so toll 3D-Renderings von Computertomographenmessungen rendern:
Eben: Ion. Und einen Atom-Konkurrenz sollte Nvidia schon hinkriegen, bzw der VIA Nano ist ja in ähnlichen Gefilden. Das zeigt aber halt auch genau das, was ich die ganze Zeit sage: Die x86-CPUs stoßen an ihre Grenzen.Das interessiert den 08/15 Käufer nicht die Bohne. Der will einen Rechenkern, der für ein paar dutzend € genug Rechenleistung für *was-auch-immer-man-auf-einem-eee-macht-mir-fällt-bis-heute-nichts-ein* bietet und auch zu allen in frage kommenden Anwendungen kompatibel ist. Und das ganze bitte bei minimalem Stromverbrauch.
Tegra(Hat Nvidia überhaupt einen Chip, der unter 5W verbraucht? Nvio oder die alt-ehrwürdige NF IE Southbridge vielleicht?)
Die wenigstens Supercomputerprogramme machen hardwarenahe Optimierung, man weiß ja nie, ob der nächste Supercomputer immer noch ein x86 ist und nicht plötzlich was anderes. Zumal, was will man unter CUDA mit hardwarenaher Optimierung? Man hat ja schon einen Leistungssprung von 10 bis 1000fach, was will man dann noch mit nen paar prozent mehr leistung?Cuda mag n Ansatz sein, ist im Funktionsumfang afaik aber eingeschränkt und Hardwarenahe Optimierung (die eine große Rolle bei Supercomputern spielt) wird damit auch schwierig - dem gegenüber steht der afaik noch immer deutlich kleinere Leistungsvorsprung bei doppelter Präzision.
Mit crap-programmierung kriegt man auch nen supercomputer ausgelastet ohne das was hinten bei rum kommt - das is wohl was anderes
Intel hat vom Atom vorallem viel verkauft, Geld haben sie vorallem mit dem C2D/Q verdient, der Atom hat keine ausreichend gute Marge.
Und es gibt nicht nur 300W geforce-karte, man denke z.b. an den Ion.
Faktisch fährt man heutzutage schon besser sich die 50€ für größere CPU mit 200Mhz mehr (und praktisch nicht meßbaren mehrleistung) zu sparen und dafür ein GPU einzubauen.
Eben: Ion. Und einen Atom-Konkurrenz sollte Nvidia schon hinkriegen,
bzw der VIA Nano ist ja in ähnlichen Gefilden.
Die wenigstens Supercomputerprogramme machen hardwarenahe Optimierung, man weiß ja nie, ob der nächste Supercomputer immer noch ein x86 ist und nicht plötzlich was anderes.
Zumal, was will man unter CUDA mit hardwarenaher Optimierung? Man hat ja schon einen Leistungssprung von 10 bis 1000fach, was will man dann noch mit nen paar prozent mehr leistung?
mit double precision
Schau nochmal genau hin, das kleine Bild ist übrigens ein Daumennagel für einen Link...Also gerade dieses Ding (die Geißel aller Intel-SLI Nutzer) ist afaik das denkbar schlechteste Beispiel für "kalt", oder hab ich da irgendein extrem schwerwiegendes Update verpennt?
Du liegst soweit daneben, das glaubst du garnicht...(Wenn ich mir die Kühlung auf 780i/790i Boards so angucke: Definitiv NEIN)
Da bist schon etwas dichter dran...Und die Nvidia IGPs mögen für Leistungsfähigkeit sehr sparsam sein, aber selbst in der ION-Ausführung braucht der 9400m afaik noch über 5W.
Was sicherlich kein Grund ist, weiter x86 zu benutzen....Nuja - damit müssen sich die meisten x86-CPUs halt den ganzen Tag lang beschäftigen. Und "G"PUs, die diese ersetzen möchten, werden es anfangs noch schwerer haben - zuwenig Programmieraufwand ist eine Sache, zuwenig Programmieraufwand von jemandem, der mit der neuen Architektur nicht vertraut ist, eine ganz andere.
Vllt prozentual, aber bei 50$ Verkaufspreis für einen Atom ist das wohl eher hohles gerede von intel, weil man sich durch den atom natürlich auch eigene geschäftfsfelder kanabalisiert.Laut Intel hat der Atom eine mit den Core2 vergleichbare Gewinnspanne, das ist ja gerade der Witz an dem Ding.
nein, das ist absolut nicht der fall. gibt auch genug beispiele von leuten, die ihre auf highend-x86 cpus laufenden programme zum spaß auf cuda portiert haben und dann mit einer normalen geforce dennoch den faktor 10 an performanceboost hatten.Es werden aber immer so gerne die 250 "Kerne" Karten als Beweis für die enorme Leistungsteigerungen bei GPU-Einsatz genannt, nicht der ION
Brauch ich da mehr als einen Atom, außer ich mache 50 youporn-tabs gleichzeitig auf?In Excel? Für Opera?
Guck dir Badaboom an, Nero, Arcsoft, Photoshop, Premiere....Das eine GPU gut für die Berechnung von 3D Grafik optimiert ist, stellt ja keiner in Frage, die Frage ist, welche Leistung sie im Schnitt bei traditionellen CPU-Aufgaben erzielt. (gibt es eigentlich eine rein GPU-basierte x86 Simulation? Direkter Vergleich wird aufgrund unterschiedlich guter Softwareoptimierung ja sicherlich nie möglich sein, da wäre es interessant zu testen, ob eine Software, die GPU und CPU gleichermaßen belastet, auf einer CPU mit GPU-Emulation oder auf einer GPU mit CPU-Emulation besser läuft)
würde sich aber von seiten nvidia eine kooperation oder gar kauf lohnen. der ion2 soll ja bereits mit dem nano funktionieren.Der ist aber weder Nvidia noch nicht-X86.
Supercomputer haben auch viel PowerPC-Architektur:Mag sein, dass ich da aufgrund naturwissenschaftlicher Wurzeln die falschen Vorstellungen von der durchschnittlichen Nutzungsart habe - ich kenn das eher so, dass die Computer über einen vielfach längeren Zeitraum als die Software eingesetzt werden, die im Extremfall extra zur Berechnung eines einzigen Phänomens geschrieben wird.
Abgesehen davon konnte man sich schon recht lange recht sicher sein, dass auch die Zukunft x86 bringt