Nvidia vergibt Kepler- und GPU-IP-Lizenzen an Dritte

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia vergibt Kepler- und GPU-IP-Lizenzen an Dritte

Nvidia öffnet sich, und fängt mit Kepler an, Lizenzen für GPU-Architekturen an Dritte zu verkaufen. Auch die CUDA-Lizenzen sollen für Dritte angeboten werden. Damit will Nvidia beim nächsten großen Boom gut aufgestellt sein, wenn sich die Smartphone und Tablet-Märkte stabilisiert haben. Dabei geht der Konzern den gegenteiligen Weg, wie ihn direkter Konkurrent AMD beschreitet.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Nvidia vergibt Kepler- und GPU-IP-Lizenzen an Dritte
 
PhysiX für AMD und der Konzern wird wieder zur Jungfrau! Oder Intel nutzt die Gelegenheit und macht endlich mal eine gescheite APU.
 
CUDA auf AMD Hardware, das wäre mal was! OpenCL wird zwar von AMD Karten unterstützt, allerdings haben AMD's Softwareingenieure zur Zeit Probleme beim Kompilieren großer Kernels (Problem liegt höchstwahrscheinlich beim Compiler, Hardware-Limitierungen werden seitens AMD aber nicht ausgeschlossen). Deshalb gibt es zur Zeit Production-Ready, OpenCL-beschleunigte (z.T. inkl. (besserer) CUDA Unterstützung) Renderer ausschließlich für Nvidia's Karten. Siehe z.B. Dev:2.6/Source/Render/Cycles/OpenCL - BlenderWiki, hier What's wrong with this file? | AMD Developer Forums und hier http://devgurus.amd.com/thread/166874. Bei LuxRender sind Radeon Karten flotter mit OpenCL unterwegs, als ihre Nvidia Konkurrenten. Wenn das auch für CUDA bei anderen Applikationen zutreffen würde, wäre das schon ziemlich lustig :)! Aber imho ist so eine Lizenzierung der richtige Weg für Nvidia, CUDA ernsthaft durchzusetzen.
 
Nvidia hat AMD eine Lizens (afaik sogar gratis) für PhysX angeboten.

Allerdings zeitlich begrenzt. Und da liegt das Problem.
Sagen wir mal AMD hätte angenommen und PhysX würde auch von AMD Karten unterstützt.
Folge: PhysX setzt sich durch.

Und bei den nächsten Lizensverhandlungen (z.B. in 10 Jahren) muss AMD praktisch jeden Preis aktzeptieren um nicht einen entscheidenden Nachteil zu haben.

Deshalb hat AMD abgelehnt und setzt auf OpenCL. Dort ist auch ein richtiger Wettbewerb möglich.

Deshalb soll Nvidia nicht so auf ihrem proprietären Kack rumreiten und auf was freies setzen. (zusammen mit anderen Herstellern eine Open Source Lösung entwickeln oder PhysX komplett freigeben)
 
Wie wäre es mal mit einer Physx Lizenz für AMD, dass dies mal spieletechnisch relevant wird?! ;)
Wie wäre es mit einem offenen Standard, wo niemand jemanden etwas diktiert oder am längerem Hebel sitzt?
Eine relativ "herstellerunabhängige" Lösung ist Havok, was seit neustem auch GPU-Compute unterstützt.
Ansonsten gibt es noch Bullet 3.0 bald, aber das ist vom Funktionsumfang, der Performance und der Einbindung in Engines wohl noch bei vielen Stellen rückständig.

PhysiX für AMD und der Konzern wird wieder zur Jungfrau! Oder Intel nutzt die Gelegenheit und macht endlich mal eine gescheite APU.
Würde ich an Stelle von AMD niemals machen, außer die Konditionen haben eine Perspektive.
Und Intel ist schon auf den besten Weg gute APUs zu machen, dafür braucht es keinen Kepler.
 
Also könnte damit frischer Wind durch den allgemeinen Markt kommen und sich so wohl einiges verändern in der Zukunft, interessant.
 
damit wird nvidia langfristig von amd überholt werden.

linzensierung bedeutet mehr produktdiversifikation und damit mehr grafikkarten die eigene treiber brauchen.
für software entwickler wird es damit aufwändiger. ergo wird verstärkt für amd optimiert die mit ps4 und xboxone eh die
gaming welt dominieren werden.

thema ist durch. bye bye nvidia.
 
So was ist eigentlich eine Verzweiflungstat als richtige Hardwarehersteller.

Zudem muss ich PCGH widersprechen, man kann AMDs und nVidias "Varianten" der "Lizenzierung" überhaupt nicht vergleichen.

Bei AMD ist alles unter der eigenen Fuchtel. Man bietet anderen Herstellern "nur" die Möglichkeit, deren IP-Blocks in die eigene Struktur zu integrieren. Also praktisch nichts anderes wie bei einer Anbindung über PCI-E usw, nur eben direkt auf dem DIE, was schon ein sehr großer Vorteil sein kann!

AMD macht hier einen sehr guten und innovativen Schritt nach vorne, mit dem man eigentlich erst in einigen Jahren hat rechnen können. Aktuell sind die externen Interfaces noch ausreichend.

AMD hat hier auch die Verantwortung bzgl der Integration usw. Geben aber eben auch kein Detailwissen über ihre Technologie raus.

Bei nVidia sieht es komplett anders aus. Die lassen praktisch die Hosen runter durch ihre IP-Blocks. Zudem müssen Sie die anderen Hersteller MASSIV dabei unterstützen, die nVidia IP-Cores in ihre eigenen zu integrieren. nVidia wird dabei unterm Strich sehr viel Know-how verkaufen/offenlegen müssen, wenn das nicht ein totales Desaster werden soll...

nVidia sägt da komplett an dem Ast, auf dem Sie selbst sitzen, denn alte IP-Blocks will eigentlich keiner, also müssen die Partner schon in die Entwicklung einbezogen werden. Wer kauft dann aber noch ne nVidia Karte, wenn er auch ein Konkurrenzprodukt haben kann, nur eben besser bzw. mit noch mehr Features.... :-_-:

AMD verkauft definitiv weiterhin ihre Chips, die eben nur noch mehr können. Das ist ein fundamentaler Unterschied.

Auf mittlere Sicht wird sich nVidia wohl aus der Hardwareproduktion zurück ziehen. IP-Blocks verkaufen, und eigene Chips fertigen passt nicht wirklich zusammen.
 
auf gut deutsch, tegra ist gescheitert. arm soc´s sind entweder zu teuer in der entwicklung (sollen sie entsprechende leistung und eigenschaften haben) oder zu durchschnittlich (d.h. der igp teil reißts auch nicht mehr heraus wenn die cpu zu sehr einem 0815 cortex ähnelt). da man auch keine x86 lizenz bekommt (andere architekturen sind zu zersplittert um große mengen abzusetzen), bleibt als markt eh nur mainstream dgpu´s, welche wenig marge haben (oder von apu´s geschluckt werden z.b. a10), oder enthusiasten dgpu´s die zwar marge aber wenig stückzahl haben, - der markt ist zu klein um die kosten für entwicklung und vertrieb zu tragen.

mmn ein verständlicher schritt der das langfristige überleben im sinn hat. ich kann mir zwei möglich entwicklungen vorstellen:
a) nvidias technisches wissen wird genutzt, gefiltert und dann selbstständig weiterentwickelt, während nvidias umsätze immer weiter bis zum exidus fallen, besonders dann wenn nvidia der konkurrenz nicht schnell genug etwas entgegensetzen kann.
b) nvidia wird zur lizenzsierungsinstitution ähnlich wie arm, man braucht ein soc, einmal arm, einmal nvidia, bißchen entwicklungskleber - fertig. würde stabile umsätze schaffen aber die möglichkeiten direkt in den markt einzugreifen sind dann passe.
 
Könnte dieser Schritt etwas damit zutun habe das AMD alle 3 Konsolen Deals bekommen hat?

der schritt hat eher was damit zu tun, das sich alles zu soc´s hin fokussiert, das amd alle 3 konsolendeals bekommen hat ist eher eine auswirkung davon. und im gegensatz zu amd fehlt nvidia einfach die x86 lizenz und bei arm die vetriebsstruktur und ein bißchen know-how (broadcom oder andere wissen einfach besser wie sie den markt bedienen und können damit herrvoragend planen, ala wieviel entwicklungsgeld, wahrscheinlicher absatz, kommen die kosten wieder rein, wieviel kann ich ca gewinn machen, all das fehlt nvidia).
 
Nvidia hat AMD eine Lizens (afaik sogar gratis) für PhysX angeboten.

Allerdings zeitlich begrenzt. Und da liegt das Problem.
Sagen wir mal AMD hätte angenommen und PhysX würde auch von AMD Karten unterstützt.
Folge: PhysX setzt sich durch.

Und bei den nächsten Lizensverhandlungen (z.B. in 10 Jahren) muss AMD praktisch jeden Preis aktzeptieren um nicht einen entscheidenden Nachteil zu haben.

Eine CUDA Implementierung wars, keine PhysX-Lizenz. Und afaik gab es keine zeitliche Beschränkung - nur das Problem, dass die Implementierung in den AMD-Treiber in enger Zusammenarbeit mit Nvidia hätte ablaufen müssen -> Nvidia hätte auch einiges dazugelernt.

Deshalb hat AMD abgelehnt und setzt auf OpenCL. Dort ist auch ein richtiger Wettbewerb möglich.

AMDs erste Implementierung von OpenCL kam verdammt spät...


Wie wäre es mit einem offenen Standard, wo niemand jemanden etwas diktiert oder am längerem Hebel sitzt?

So wie OpenCL?
Gibts schon. Nutzt aber keiner :schief:

Eine relativ "herstellerunabhängige" Lösung ist Havok, was seit neustem auch GPU-Compute unterstützt.

tuts das?

Ansonsten gibt es noch Bullet 3.0 bald, aber das ist vom Funktionsumfang, der Performance und der Einbindung in Engines wohl noch bei vielen Stellen rückständig.

Vor allen Dingen kostet es Geld - genau wie Havok. Im Gegensatz zu PhysX.


Bei nVidia sieht es komplett anders aus. Die lassen praktisch die Hosen runter durch ihre IP-Blocks. Zudem müssen Sie die anderen Hersteller MASSIV dabei unterstützen, die nVidia IP-Cores in ihre eigenen zu integrieren. nVidia wird dabei unterm Strich sehr viel Know-how verkaufen/offenlegen müssen, wenn das nicht ein totales Desaster werden soll...

nVidia sägt da komplett an dem Ast, auf dem Sie selbst sitzen, denn alte IP-Blocks will eigentlich keiner, also müssen die Partner schon in die Entwicklung einbezogen werden. Wer kauft dann aber noch ne nVidia Karte, wenn er auch ein Konkurrenzprodukt haben kann, nur eben besser bzw. mit noch mehr Features.... :-_-:

Schon mal auf die Idee gekommen, dass ein Lizenzgeber ziemlich genau festlegen kann, WOFÜR er eine Lizenz gibt? Z.B. nicht für eigenständige GPUs oder irgendwas, das auf Karten verkauft werden soll?

Auf mittlere Sicht wird sich nVidia wohl aus der Hardwareproduktion zurück ziehen. IP-Blocks verkaufen, und eigene Chips fertigen passt nicht wirklich zusammen.

Nvidia hat iirc bereits das Design der Xbox GPU nur lizensiert und nicht selbst fertigen lassen. Selber fertigen tun sie sowieso genausowenig, wie AMD.


Könnte dieser Schritt etwas damit zutun habe das AMD alle 3 Konsolen Deals bekommen hat?

Eher damit, dass kaum jemand die aktuellen Tegra kauft. Nvidia hat scheinbar eingesehen, dass man nicht von heut auf morgen zu einem Konkurrenzfähigen ARM-SoC-Designer wird. AMD versucht sich da demnächst selbst dran...
 
Eher damit, dass kaum jemand die aktuellen Tegra kauft. Nvidia hat scheinbar eingesehen, dass man nicht von heut auf morgen zu einem Konkurrenzfähigen ARM-SoC-Designer wird. AMD versucht sich da demnächst selbst dran...

kein interesse an ner grundsatzdisskusion. aber generell find ich die tegra-soc´s schon konkurrenzfähig, zumindest was die leistung angeht, mit dem 4+1 prinzip auch im energiehunger, vom hörensagen soll der preis ziemlich happig sein und die kontakte zu den möglichen käufern auch eher im staubsauger-vertreter stil mit an der tür klingeln ablaufen.

amd hat den vorteil das sie x86 und arm verbinden können. temash ist schrott, aber ein soc mit 2 a15 cores und ein zwei jaguar lv cores ist eine interessante mischung, android basiert ja auf linux und x86 support zu integrieren ist zumindest theoretisch machbar. ob das und vor allem bis das gemacht wird wird sich die erde aber noch ein paar mal drehen.

kurzum ich finde amd hat eine vision was arm, x86 und gnc angeht und viele teile davon sind schon realität, es hapert eher an der intergration der verschiedenen systeme bei hardware und software. im gegensatz dazu hat nvidia hauptsächlich die hoffnung gehabt das arm prozessoren möglichst schnell eine leistungsexplosion hinlegen die kepler bzw maxwell in größeren ausbaustufen erlaubt. bei arm-soc´s (und auch x86) wird aber nun fast ausschließlich in richtung perfomance pro watt entwickelt, nvidias produkte können aber auch nicht zaubern und chips die nur 5-10w verbrauchen dürfen sind nun eben nicht so kompliziert wie ein 150w chip, wo nvidia deutlich mehr vorteile hätte.
 
Das 4+1 Konzept war gut, aber als big.Little bekommst du die erweiterte Version halt auch bei anderen Herstellern. Aber kostendeckend arbeiten muss man halt auch können - und die anderen können es offensichtlich wesentlich besser.

AMD hat übrigens afaik nicht vor, ARM und x86 in irgend einer anderen Weise zu verbinden, als in Form von ARM-Kernchen für Codierungsmaßnahmen in x86 CPUs. Aber von direkt ansteuerbaren Einheiten gibt es bislang keine Anzeichen (geschweige denn von einem Betriebssystem, dass diese nutzen könnte). Statt dessen wird AMD reine ARM-CPUs bringen.
 
AMDs erste Implementierung von OpenCL kam verdammt spät...
*Hust* AMD hatte die erste CPU Implementierung *hust*

Und auch bei den GPUs war meines Wissens nach AMD als erstes dran. Sie hatten es nur relativ lange eben als extra Treiberbestandteil laufen lassen, der nicht zwingend installiert werden musste.

Ansonsten einfach mal hier schauen: OpenCL - Wikipedia, the free encyclopedia

Also ich kann da nichts von "verdammt spät" sehen. :schief:

So wie OpenCL?
Gibts schon. Nutzt aber keiner :schief:
Windows Live Video Maker nutzt wohl anscheinend z.B. OpenCL bzw GPU Direct :D

Hab mich neulich gewundert, warum beim rendern eines Videos die GPU etwas lauter wird. Ein Blick auf den Afterburner hat gezeigt, dass das Programm kräftig die GPU genutzt hat.

Auch ansonsten gibt es inzwischen doch eine ganze Reihe von Software, die OpenCL nutzt

Schon mal auf die Idee gekommen, dass ein Lizenzgeber ziemlich genau festlegen kann, WOFÜR er eine Lizenz gibt? Z.B. nicht für eigenständige GPUs oder irgendwas, das auf Karten verkauft werden soll?
Schon mal auf die Idee gekommen, das jemand für einen 0815 Trabi keine Millionen Euro zahlt?
Oder für nen Liter 3,5% Kuhmilch tausend Euro...

nVidia bekommt nicht einfach nur dafür Geld, dass Sie das ankündigen. Sie MÜSSEN! auch etwas verkaufen, sonst läuft es wie bei Tegra auch...

Und genau da kommt eben das Problem. Damit ein IP-Block überhaupt interessant wird, muss er sich gut integrieren lassen, denn als dGPU wird das keine SAU! verwenden wollen. Also muss es in einen SOC. Und wenn das in einen SOC soll, dann muss nVidia eben am Ende doch recht weit die Hosen runter lassen, sonst wird das nichts. nVidia muss hier ja auch IMMER! sich mit PowerVR und deren möglichkeiten bzgl Integration messen lassen. Da musst du echt aufpassen, dass du dich da nicht selbst schnell ins Abseits stellst.

Ich glaub du stellst dir das für nVidia echt VIEL zu einfach vor. IP-Lizenzen verkaufen ist KEIN! Zuckerschlecken und Selbstläufer! Du musst da oft richtig ackern, bis die Sachen beim Kunden wie gewünscht laufen.

Nvidia hat iirc bereits das Design der Xbox GPU nur lizensiert und nicht selbst fertigen lassen. Selber fertigen tun sie sowieso genausowenig, wie AMD.
nVidia hat einen fertigen Chip lizenziert...

Das ist was KOMPLETT! anders, als das was nVidia jetzt machen will. dGPUs sind tot. Das will einfach keiner mehr haben. Wenn muss das in nen SOC oder zumindest in nen MCM rein, und da wollen die "Kunden" eben mit reden, und auch die Entwicklungsausrichtung teilweise mit bestimmen. Wenn du das nicht machst, dann geht der "Kunde" halt zu nem anderen, und gerade nVidia kann es sich einfacht nicht leisten, hier hohe Ansprüche an den Kunden zu stellen, sonst passiert GENAU das gleiche wie mit China.

Die sagen :UND TSCHÜSS!

Und gehen zur Konkurrenz, hier Intel, und bauen mit denen ihr nächstes Ding.



Eher damit, dass kaum jemand die aktuellen Tegra kauft. Nvidia hat scheinbar eingesehen, dass man nicht von heut auf morgen zu einem Konkurrenzfähigen ARM-SoC-Designer wird. AMD versucht sich da demnächst selbst dran...[/QUOTE]

Das 4+1 Konzept war gut, aber als big.Little bekommst du die erweiterte Version halt auch bei anderen Herstellern. Aber kostendeckend arbeiten muss man halt auch können - und die anderen können es offensichtlich wesentlich besser.

AMD hat übrigens afaik nicht vor, ARM und x86 in irgend einer anderen Weise zu verbinden, als in Form von ARM-Kernchen für Codierungsmaßnahmen in x86 CPUs. Aber von direkt ansteuerbaren Einheiten gibt es bislang keine Anzeichen (geschweige denn von einem Betriebssystem, dass diese nutzen könnte). Statt dessen wird AMD reine ARM-CPUs bringen.
 
Und auch bei den GPUs war meines Wissens nach AMD als erstes dran. Sie hatten es nur relativ lange eben als extra Treiberbestandteil laufen lassen, der nicht zwingend installiert werden musste.

Es gab eine optional installierbare Entwickler-/Betaversion. Das ist ein bißchen was anderes, als konsequent auf eine neue Schnittstelle zu setzten und zu versuchen, diese zum Standard aufzubauen, den Softwareentwickler zuverlässig und stabil auf jedem DAU-Rechner vorfinden. Gerade Mr.-SB-E-kann-kein-PCIe3 sollte den feinen Unterschied zwischen "konnte man nutzen" und "war Bestandteil des offiziellen Featuresets" kennen ;)

Auch ansonsten gibt es inzwischen doch eine ganze Reihe von Software, die OpenCL nutzt

Wir reden wir von Spielen und von einem Vergleich mit einer (wenn nicht) der weit verbreitesten Physik-Engines. (An der Stelle seien noch mal alle auf den Unterschied zwischen PhysX-Verwendung und dem wesentlich selteneren Einbau spezieller Effekte für Systeme mit leistungsfähiger GPU-PhysX-Beschleunigung hingewiesen)

Ich glaub du stellst dir das für nVidia echt VIEL zu einfach vor. IP-Lizenzen verkaufen ist KEIN! Zuckerschlecken und Selbstläufer! Du musst da oft richtig ackern, bis die Sachen beim Kunden wie gewünscht laufen.

Lies bitte noch einmal durch, was ich geschrieben habe. Stand da irgend ein Satz zum Implementierungsaufwand?
Nein. (wobei ich persönlich den als gering erachte, solange Nvidia fertig gelayoutete Kerne verkauft bekommt. Schließlich lassen 90% der potentiellen Kunden eh bei TSMC im gleichen Prozess fertigen)
Ich ging auf deine Befürchtung ein, dass niemand mehr eine Nvidia-Grafikkarte kauft, wenn er woanders das Gleiche in besser bekommt. Dieser Fall kann überhaupt nicht eintreten, solange Nvidia keine Lizenzen für komplexe Chips der Leistung einer High-End-GPU vergibt - und das die Pläne soweit gehen, ist bislang nicht bekannt. (ganz abgesehen davon, dass es ziemlich schwer werden wird, in dieser Rubrik an Nvidia vorbeizuziehen. Das wäre in etwas das gleiche Verhältnis, wie es zwischen Intel und AMD Anfang der 90er bestand)

Das ist was KOMPLETT! anders, als das was nVidia jetzt machen will. dGPUs sind tot. Das will einfach keiner mehr haben. Wenn muss das in nen SOC oder zumindest in nen MCM rein, und da wollen die "Kunden" eben mit reden, und auch die Entwicklungsausrichtung teilweise mit bestimmen.

Wollen sie - klar.
Abwarten, ob sie es auch dürfen. Denn lass mich mal überlegen, was man derzeit so als Alternative zu einer GPU der ~gf630 Klasse lizensieren könnte...
...
...
...
...
Ach ja: Nichts. AMD lizensiert nicht, Intel auch nicht, PowerVR ist nicht annähernd in dieser Leistungsklasse. Nimm noch so attraktive Dinge wie CUDA-Kompatibilität (und damit eine extrem leichte Protierung diverser Titel der letzten Konsolengeneration auf z.B. kommende Tablets) hinzu und Nvidia macht SoC-Entwicklern ein Angebot, dass vielleicht keinen riesigen Markt anspricht, in diesem aber konkurrenzlos ist.
Und Nvidia muss mit einem derartigen Nebenverdienst auch keinen riesigen Markt ansprechen und sich z.B. mit PowerVR in einer Leistungsklasse anlegen, von der Nvidia 0 Ahnung hat und für die sie ein zweites Entwicklerteam unterhalten müssten.

Und gehen zur Konkurrenz, hier Intel, und bauen mit denen ihr nächstes Ding.

So wie die anderen ...äh...hmm... NULL Entwicklungspartner, die in den letzten fünfeinhalb Jahrzehnten mit Intel Chips entwickelt haben?

Tut mir ja leid, aber abseits von ARM und PowerVR gibt es keine andere Firma, die Grafikeinheiten lizensiert und die spielen beide in einer anderen Klasse. Die einzige Alternative zur Lizensierung einer Nvidia-Grafikeinheit ist eine Custom-APU von AMD. Und nicht jeder will AMD-CPU-Kerne nutzen müssen oder AMD die Entwicklung des gesamten Chips bezahlen, obwohl er für sämtliche nicht-GPU-Teile davon eigenes Know-How im Hause hat. (Ganz abgesehen davon, dass AMD nicht unbedingt die personellen Reserven hat, um eine nenneswerte Zahl von Anfragen zu bedienen)
 
Es gab eine optional installierbare Entwickler-/Betaversion. Das ist ein bißchen was anderes, als konsequent auf eine neue Schnittstelle zu setzten und zu versuchen, diese zum Standard aufzubauen, den Softwareentwickler zuverlässig und stabil auf jedem DAU-Rechner vorfinden. Gerade Mr.-SB-E-kann-kein-PCIe3 sollte den feinen Unterschied zwischen "konnte man nutzen" und "war Bestandteil des offiziellen Featuresets" kennen ;)
Ich seh da noch immer kein "verdammt spät".

  • On 28 September 2009, Nvidia released its own OpenCL drivers and SDK implementation.
  • On 13 October 2009, AMD released the fourth beta of the ATI Stream SDK 2.0, which provides a complete OpenCL implementation on both R700/R800 GPUs and SSE3 capable CPUs. The SDK is available for both Linux and Windows.
Also nicht mal ein Monat unterschied in der offiziellen frei verfügbaren Implementierung.


Wie gesagt, bei den GPUs war AMD leicht hinter nVidia, bei den CPUs aber Äonen vor Intel. Also knapp nen Jahr.


On 13 September 2010, Intel released details of their first OpenCL implementation for the Sandy Bridge chip architecture. Sandy Bridge will integrate Intel's newest graphics chip technology directly onto the central processing unit


Wenn man bedenkt, das man eben 2 komplett unterschiedliche Produkte fit für OpenCL machen musste geht das doch durchaus in Ordnung.


Dass die Art der Verteilung über ein optionalen Treiberbestandteil, und am Anfang sogar nur über das SDK erfolgte ist da ein ganz anderes Thema. Da gebe ich dir Recht, da haben die am Anfang EXTREM geschlafen, aber darum gings ja gerade nicht oder?


Wir reden wir von Spielen und von einem Vergleich mit einer (wenn nicht) der weit verbreitesten Physik-Engines. (An der Stelle seien noch mal alle auf den Unterschied zwischen PhysX-Verwendung und dem wesentlich selteneren Einbau spezieller Effekte für Systeme mit leistungsfähiger GPU-PhysX-Beschleunigung hingewiesen)
Ok, der Kontext hat sich mir jetzt erst nach dem lesen der beiden Ursprungsposts des Zitats erschlossen.
Ja, bei den Physik-Engines hat sich OpenCL noch nicht durchgesetzt, aber das gilt halt im gleichen Maße für "CUDA"/GPU-PhysX. :ugly: Also GPU-Physik hat sich allgemein noch nicht durchgesetzt.

Daher versteh ich auch nicht, was OpenCL mit PhysX(CPU) zu tun hat. Das sind zwei paar Stiefel :ka:

Lies bitte noch einmal durch, was ich geschrieben habe. Stand da irgend ein Satz zum Implementierungsaufwand?
Nein. (wobei ich persönlich den als gering erachte, solange Nvidia fertig gelayoutete Kerne verkauft bekommt.
Und genau hier liegt der Denkfehler. Das funktioniert nicht. Du kannst keinen fertig gelayouteten IP-Block in ein Full-Custom design packen. Das funktioniert einfach nicht. Selbst bei nem Semi-Custom-Design wirds schwierig, weil du hier ja zwei komplett gleichberechtigte Chipteile hast in einem SOC, nämlich CPU und iGPU.

Bei nem externen Chip, wie ner dGPU, nem NIC funktioniert das. Auch bei SER/DES und sonstigen "kleinen" Chipkomponenten funktioniert das. Aber schon PCI-E Core oder nem RAM-Interface routest du eigentlich selbst, weil das eben durchaus Latenzkritische Sachen sind, die auch noch doch einiges an Platz brauchen, und dann auch noch eben vernünftig angeschlossen werden müssen. Klar, die I/O Pads usw nimmste wirklich als Fixen block, den du halt hinschieben musst, aber bei der ganzen Ansteuerlogik usw wirds schon wieder problematisch.

Und gerade! bei SOCs im SFF Markt, kannst du dir nicht mal die kleinsten Schusseligkeiten erlauben. Du bist da einfach darauf angewiesen effizient zu sein, und wenn du da direkt mal so was großes wie ne iGPU als komplett fixen block hast, dann kannste die Effizienz direkt mal in der Pfeife rauchen...

Schließlich lassen 90% der potentiellen Kunden eh bei TSMC im gleichen Prozess fertigen)
Nur weil man bei TSMC produziert heist das noch LANGE nicht, dass das dann am Ende auch alles genau das Gleiche ist. TSMC erschlägt dich mit Auswahlmöglichkeiten, was du wann wo wie machen kannst. Das musst du immer aufeinander anpassen. Dazu kommt noch, das Kunden wie AMD und nVidia eben nicht 0815 Bibs verwenden, sondern ihre Transistoren auf unterster Ebene teils selbst designen. Da steckt sehr viel Know-How drin. Das ist dann alles nicht mehr so einfach, und kann Seiteneffekte haben.

Ich ging auf deine Befürchtung ein, dass niemand mehr eine Nvidia-Grafikkarte kauft, wenn er woanders das Gleiche in besser bekommt. Dieser Fall kann überhaupt nicht eintreten, solange Nvidia keine Lizenzen für komplexe Chips der Leistung einer High-End-GPU vergibt - und das die Pläne soweit gehen, ist bislang nicht bekannt. (ganz abgesehen davon, dass es ziemlich schwer werden wird, in dieser Rubrik an Nvidia vorbeizuziehen. Das wäre in etwas das gleiche Verhältnis, wie es zwischen Intel und AMD Anfang der 90er bestand)

Wollen sie - klar.
Abwarten, ob sie es auch dürfen. Denn lass mich mal überlegen, was man derzeit so als Alternative zu einer GPU der ~gf630 Klasse lizensieren könnte...
...
...
...
...
Ach ja: Nichts. AMD lizensiert nicht, Intel auch nicht, PowerVR ist nicht annähernd in dieser Leistungsklasse. Nimm noch so attraktive Dinge wie CUDA-Kompatibilität (und damit eine extrem leichte Protierung diverser Titel der letzten Konsolengeneration auf z.B. kommende Tablets) hinzu und Nvidia macht SoC-Entwicklern ein Angebot, dass vielleicht keinen riesigen Markt anspricht, in diesem aber konkurrenzlos ist.
Und Nvidia muss mit einem derartigen Nebenverdienst auch keinen riesigen Markt ansprechen und sich z.B. mit PowerVR in einer Leistungsklasse anlegen, von der Nvidia 0 Ahnung hat und für die sie ein zweites Entwicklerteam unterhalten müssten.



So wie die anderen ...äh...hmm... NULL Entwicklungspartner, die in den letzten fünfeinhalb Jahrzehnten mit Intel Chips entwickelt haben?

Tut mir ja leid, aber abseits von ARM und PowerVR gibt es keine andere Firma, die Grafikeinheiten lizensiert und die spielen beide in einer anderen Klasse. Die einzige Alternative zur Lizensierung einer Nvidia-Grafikeinheit ist eine Custom-APU von AMD. Und nicht jeder will AMD-CPU-Kerne nutzen müssen oder AMD die Entwicklung des gesamten Chips bezahlen, obwohl er für sämtliche nicht-GPU-Teile davon eigenes Know-How im Hause hat. (Ganz abgesehen davon, dass AMD nicht unbedingt die personellen Reserven hat, um eine nenneswerte Zahl von Anfragen zu bedienen)
[/quote]
Das ist aber eben der springende Punkt. Wenn sich nVidia auf da versteift was du hier skizierst, dann werden Sie mit Glück einen Kunden bekommen, der dann am Ende das Handtuch wirft, weil kein konkurrenzfähiger funktionierender Chip bei raus kommt...

Wie gesagt, den Weg den nVidia hier bestreiten will mit der Lizensierung von IP-Blöcken, und nicht der Öffnung der Chips für Anpassungen wie AMD, ist weit mehr, als ein Design fertig zu machen, und das dann an den Kunden weiter zu geben, der das dann schon irgendwie verwurschtelt. Der Betreuungsaufwand ist immens, und genau da liegt für nVidia eben der Hacken. Wenn Sie es richtig machen, also wirklich realistische Chancen haben wollen in Deals rein zu kommen, müssen Sie relativ weit die Hosen runter lassen. Tun Sie es nicht, können Sie die SAche eigentlich gleich bleiben lassen, weil mehr als aktuell bei Tegra, also ein Minusgeschäft, kommt dabei kaum rüber.
 
Zurück