Hast Recht. Hab mir das nochmal angeschaut. Apple ist "nur" stimmberechtigtest Mitglied, und SGI der Initiator, zumindest was ich auf die Schnelle gefunden hatte. War der felsenfesten Überzeugung, dass das damals von Apple ausging, wie bei OpenCL.
Ich hoffe du verstehst aber worauf ich hinaus wollte.
nVidia wird nichtmehr direkt mit AMD zusammenarbeiten. Das ist der Punkt.
Tun Sie doch bei HSA auch nicht
Zumindest nicht mehr oder weniger als bei DX wz, OpenGL, OpenCL, DirectCompute, D3D usw. nVidia muss da auch einfach mit allen anderen zusammenarbeiten... Ansonsten haben wir wieder die Zeiten vor den Standards, und das will doch hoffentlich wirklich NIEMAND...
Vor allem sägt nVidia damit an dem Ast auf dem Sie im Moment sitzen, und dazu noch an dem Ast, auf den Sie sich als nächstes setzen wollen (Tegra<->SFF). Schau doch mal, wer da alles mit macht. Samsung (SFF+x CPU&GPU), Texas Instruments (SFF CPU), ARM (SFF+x CPU), Imagination (SFF+x CPU[MIPS]&GPU), Mediatek (SFF CPU???) und Qualcomm (SFF GPU, CPU sind glaub keine Customdesigns)
Das sind ALLES direkte Konkurrenten von nVidia, und gegenseitig auch, nur scheinen die kein Problem damit zu haben. Und jetzt reden wir noch gar nicht von Project Denver/Echelon usw. wo man sich dann nochmals mehr fragt, warum man sich da nicht dazu packt. Die Akzeptanz von CUDA wird eher weniger steigen in Zukunft
Warum also so vernachlässigte OpenCL Treiber?
Genau das will nVidia ja erreichen- CUDA soll ein gewichtiges Alleinstellungsmerkmal sein und bleiben; für nVidia ist OpenCL eine Bedrohung im GPGPU Bereich; nVidia unterstützt zwar OpenCL ist aber daran interressiert es im Vergleich zu CUDA schlechter zu halten.
Ja, und im Moment geht die Taktik sogar zumindest noch teilweise auf...
Fragt sich wie lange noch.
Die können ja ruhig beides weiter haben. CUDA ist ja nicht schlecht, sondern manchmal ganz cool, aber die Fukusierung auf einen Hersteller ist halt echt so ne Sache... andere Hersteller haben auch gute Produkte
Dann ist deine Frage um so sinnloser – denk mal drüber nach.
Kommt drauf an, an wen die Frage gestellt ist
PR-Mensch: Ja absolut
Ingenieur: Denen kann man viel aus der Nase ziehen, wenn man vorsichtig ist
AMD hat da eine andere Motivation. Die von Nvidia lässt sich gut in den 10-Q Filings an die US-Börsenaufsicht nachlesen und fängt mit „P“ an - zu einfach wollen wir's ja nicht machen.
Profit/fund meinst du wohl. Mit ECC für den RAM, Treiber, HyperQ, GPUDirect und von mir aus auch noch DynamicParallelism (was für die GeForce aber wohl drin bleibt) hat man doch eigentlich mehr als genug Differenzierung zum Profimarkt
Da muss man doch nicht mehr weiterhin an der arithmetischen Leistung rum feilen. Zumal die Karte ja nicht nur 500$/€ wohl kosten wird
Milkyway@home würde sich sehr freuen
Warum muss das Zeugs so elendig teuer sein, und wann dieses Wettrüsten in so kurzen Abständen aufhört
Na hoffentlich NIE!
Und die Abstände sind viel größer als früher...
mich würde mal interessieren ob man auf die titan warten kann oder es nur eine begrenzte anzahl gibt. gerüchteweise hört man ja das der chip echt schlechte yields hat/hatte, daher ist er zu in einem beschnitten zum anderen bisher nur als k20 aufgetaucht für die schon kräftig selektiert werden musste. wär interessant ob nvidia plant den für mehr stückzahlen weiter zu beschneiden oder die fertigung besser wird, und ob sich am preis noch was tut (so in einem jahr oder so) oder ob es das ding dann einfach nicht mehr gibt und die chips auf halde nur in den tesla support gehen.
(p.s. ich will das teil als sammlerstück, aber dafür das es unötig ist ist es mir zuteuer, von daher hoffen und harren.)
Naja, K20x gibt es bald "zu kaufen", auch wenn man Sie dann erst im April bekommen soll. Das ist aber einpositives Vorzeichen, dass die Yields besser geworden sind, wenn gleich nicht sooo super, wie man zunächst denken könnte. Bis April ist nochmal einiges an Zeit.