Vega, Navi und Next Gen: AMD detailliert die Zukunft der GPU-Chips

Es gibt spezielle Mining-GPUs

Nein, gibt es nicht.
GPU ist der Chip. Du meinst die Karte.

Mit beiden zugedrückten Augen könnte man eventuell einen Bitcoin ASIC als "Mining-GPU" bezeichnen. Allerdings ist das auch wirklich das Äußerste in dem Zusammenhang.

-----

Nvidias GPU IP bietet eine wesentlich bessere Effizienz und beim Intel-Deal bietet AMD technisch nichts an, was Nvidia nicht auch anbieten könnte.
Es ist schließlich nur eine GPU die AMD bereitstellt und kein Komplettpaket.
Das Packaging für EMIB übernimmt Intel und Nvidia hat ebenso HBM-Memorycontroller im Portfolio.
Entsprechend läuft es nur auf den Preis und Nvidias Kooperationslust hinaus.

Stimmt, Nvidia bietet von der Technik her das Gleiche, wie AMD.
Leider hast Du einen Aspekt vergessen:
Nvidia baut keine Custom GPUs

Nvidia hat zwar eine Lizenzabteilung für deren Patente, allerdings wurde die passend zu allen Klagen eröffnet, die Nvidia in den letzten Jahren startete.
Seitdem sie Intel als Kunden verloren haben (Pünktlich mit dem Auslaufen des Lizenzabkommens, dass bei der Beilegung der Klage ausgehandelt wurde) , gibt es keinen einzigen Lizenznehmer mehr.

Nvidias Klage gegen Qualcomm war ja von Anfang an zum Scheitern verurteilt. Da muss ein Trump Anwalt involviert gewesen sein.
Vor allem haben die wohl vergessen, dass Qualcomm damals ATI Technik gekauft hat und alle Adreno GPUs darauf basieren. Das ist nicht umsonst ein Anagramm von Radeon.

Nvidia hat es sich inzwischen auch noch sehr übel mit Apple und Intel verscherzt.
Früher hat Apple alle 1-2 Generationen den GPU Hersteller gewechselt. Das hat vor einigen Jahren aufgehört. Seitdem gibt es nur noch AMD Karten in den Macs und iMacs.
Intel ist nach dem erzwungenen Lizenzabkommen mit Nvidia offensichtlich auch nicht sonderlich positiv auf die Firma zu sprechen.
Da hat sich Intel eben an AMD gewendet und deren Patente Lizenziert.

Alles in allem hat Nvidia es geschafft 3 der größten Hardware Firmen der Welt gegen sich aufzubringen.
Well played.

Nebenbei wurde auch Nvidias Behauptung, die erste GPU erfunden zu haben, auseinandergenommen:

WCCFtech ist zwar eine schlechte Quelle, haben es diesmal aber gut zusammengefasst:

Nvidia Did Not Invent The (Modern) GPU - ITC Court Rules In Samsung's Favor, All Three Patents Tossed


Charlie von Semiaccurate hat das ganze wohl am intensivsten verfolgt - und er mag Nvidia nicht sonderlich.
Aber die Story lässt sich gut lesen:
Nvidia patent licensing program devastated by ITC ruling - SemiAccurate


@APU Wachstumsmarkt:

Nicht immer an Gamer denken.
Aktuell wiegt eine Mobile Workstation zwischen 3 und 5 kg.
Mit einer halbwegs vernünftigen APU kann man CAD, CAE und Bildbearbeitung (inklusive Filme) auf Notebooks erledigen, die nur noch 1-3 kg wiegen.
Viele meiner Kollegen in der Konstruktion wären unendlich dankbar dafür.

Dieser Markt ist auch sehr viel größer, als ein eventueller Markt für casual Gamer - obwohl mir eine gute APU im Laptop auch reichen würde.
Gern mit 8 Kern Zen.

Edit: Ich bin übrigens gespannt, wie die Klage von Ziilabs (Creative) gegen Nvidia ausgeht.
Da sind 4 Patente von 3DLabs involviert, die inzwischen Ziilabs gehören:

Fresh suit shows RPX settlement deal hasn’t taken Creative out of the assertion game entirely - Blog - IAM - Informing IP value

Edit2:
Denn Gaming und fortschrittliche VR-Anwendungen kann man eben nicht ohne entsprechende Hardware ausführen, weswegen der Markt auch nicht völlig wegbricht und sich ein Kern bezüglich der PC-Verkäufe hält.
Statt Cloud-Computing wäre eine mögliche Alternative eine Hardwarebox zu verkaufen, welche die nötige Leistung bereitstellt und man einfach an sein Arbeitsgerät anschließt, sei es ein Bildschirm, Smartphone, VR-Gerät etc.

Gibt es schon.
Das nennt sich "Konsole" - oder PC (je nach gewünschter Leistung und passendem Empfangsgerät)
;-)
 
Zuletzt bearbeitet:
Letztendlich hat man auch viel mehr geschafft, was jetzt auch keine Meisterleistung war, angesichts von dem minimalen Zeug was man anfangs verbaut hat:
https://cdn.makeuseof.com/wp-content/uploads/2015/04/intel-graphics-stats.png
Ah 75mal gleich. Ich dachte auch etwas höheres als 20x aber das erschien mir dann unrealistisch ;)
Bei Intel ist im Management auch irgendetwas ab Skylake passiert.
Ein R&D-Team wurde entlassen, eine wichtige Person hat gekündigt und ist zu EA übergelaufen und Intel hat Pläne bezüglich der GT4-Lösung ziemlich schwach am Markt umgesetzt und nicht weiterverfolgt.
Gen9 war ein großer Sprung bezüglich ihrer GPU IP, aber dann ist Sand ins Getriebe gelangt, bis man jetzt scheinbar wieder Teams aufbaut und neues Personal eingestellt hat.
Cannon Lake erscheint mit Gen10 und Ice Lake mit Gen 11 und Intel will auch dedizierte GPU-Produkte anbieten.
Gut, wenn man zuerst die Leute feuert und dann doch draufkommt "ups, wir wollten doch eigentlich was mit Grafik machen"

Immerhin ein gutes Zeichnen, dass auch konkrete Geräte angekündigt sind.
Jap, gut, dass es nicht nur eine Designstudie ist. Außerdem auch gut, dass es gleich Hersteller sind mit großer Marktabdeckung.
Was ist denn deine Muttersprache wenn ich fragen darf? Meine ist russisch, aber ich bin als Kleinkind nach Deutschland, weswegen es bei mir nach der Grundschulzeit keinen Unterschied mehr gemacht hat.
Puh. Französisch (mum), Englisch (dad), Kroatisch (bin ich teilweise aufgewachsen bzw viel dort gewesen) und dann österreichisches Deutsch (da war ich dann ab 10).
Diese Vermischung und, dass meine gesamte Umgebung (Familie alle eher aus Bildungsfernen Schichten) eher schlampig/simpel gesprochen hat sorgt bis zum heutigen Tage (auch wenn ich täglich an meiner Ausdrucksweise arbeite). Das Blöde ist, dass ich dadurch keine Sprache so "richtig" gelernt habe. Dabei ist es essentiell für gute Ausdrucksweise EINE Sprache wirklich gut zu beherrschen. Worte die ich in meiner "Stammsprache" nicht beherrsche, kann ich auch nicht in anderen lernen.
Im Moment würde ich sagen meine besten 2 Sprachen sind eh Deutsch und Englisch evtl auch französisch. Aber besonders elegant drücke ich mich wohl in keiner aus ;)
Ein anderer Grund ist, weil ich oft mitlese und dann nur kurz zwischen Tür und Angel zum Schreiben komme. Merkt man dann auch an den Vertipsern.
Etwas präziser wäre es, wenn du von Management- oder Entwicklungsstrukturen reden würdest, damit man genauer weiß worauf du dich beziehst.
Ich mag die englische Ausdrucksweise Execution, einfach die Ausführung von der Planung bis zum Produkt, welche AMD an vielen Stellen nicht gut umsetzt.
Ja personelle/Managementstrukturen waren gemeint. Aber natürlich auch die für die Softwareökonomie (ich hoffe das ist ein passendes Wort. Gemeint sind Zusammenarbeiten mit Entwicklern, Treiber/Tools entwicklung etc) nötigen Personen.

Ryzen ist ein Produktlabel, welches AMD auch für die Kategorisierung der Produkte selber mit Kennnummern verwendet.
Es existiert schließlich Ryzen 3, 5 und 7.

Der Codename von AMD selber ist besser, Zen+ oder konkret Pinnacle-Ridge.

Ryzen ist bald 1 Jahr alt, aber fast jedes Unternehmen aktualisiert ihre Produkte im Jahreszyklus.
Intel tut es, AMD auch.
Z.B. Llano, Trinity, Richland, Kaveri, Godaveri, Carrizo, Bristol-Ridge, Raven-Ridge etc.
Aber ja, ich finde auch das die Zeit schnell vergangen ist, es fühlt sich noch so frisch an.
Mir ist bewusst, was (interne) Architekturnamen, Produktlabel sind.
In meiner Erinnerung wurde Zen nach ewigen Warten gerade erst als das Produkt Ryzen released.
Mich verwundert es deshalb, weil das "Auflegen" (Designen, Masken anfertigen, Produzieren, Testen, Vermarkten, Verkaufen) eines Chips bzw einer "Architektur Iteration" ist ja sicher kostspielig und einiger (nicht nur logistischer) Aufwand (auch was Boards und deren Qualitätstests betrifft). Da verwundert es schon, dass AMD hier schon eine leicht überarbeitete Architektur anbieten kann samt überarbeitetem Prozess.
Natürlich: Sollte es eigentlich nur ein leicht verbesserter Prozess sein und Zen+ nur ein neues "Stepping" mit geringfügigsten Änderungen ist dies weniger berauschend und meine Erwartungen wohl zu hoch an Ryzen 2xxx. Dann muss man hier wohl warten bis "Zen2" und "Zen3" kommen.
War sowieso mein Plan. Aber wie auch vermutlich du, liebe ich es diese Seitenlangen Benchmarkdaten von neuen Prozessoren zu vergleichen. Leistung, Effizienz, IPC, Taktbarkeit sowie wie sich die Architektur zum Vorgänger bzw Konkurrenten in manchen Situationen verhält...


Die kommenden Jahre werden auf jeden Fall spannend, aber so dynamisch, dass es Gewinner und Verlierer geben wird, welche man nicht genau voraussagen kann.
Zumindest ist von einem eher irrationalen Gefühl her in meinen Augen davon auszugehen, dass AMD mit ihrer neuen Architektur in den nächsten Jahren mehr rausholen können wird, als Intel aus ihrer doch schon recht "ausgelutschten". Und bevor Intel ihre vielzitierte Schublade allzuweit aufmachen und deutliche Änderungen an der Architektur vornehmen (die aber auch nach hinten losgehen können, wenn die Designer betrunken sind oder von falschen Annahmen ausgehen (P4, Bulldozer...) gehe ich davon aus, dass AMD hier weiter aufholen wird (wo man noch aufzuholen hat).
Ich hoffe die Liefersituation ist bei den Zen basierenden Prozessoren besser als bei den Grafikprozessoren derzeit. Letzteresist für mich eher unverständlich.

AMD hat jedenfalls bei den GPUs keine gute Startposition und ob sie das Ruder massiv schwenken können, bezweifle ich.
Habe da seit den großmündig (mundig?) angekündigten Änderungen bei Polaris und Vega sowie den ernüchternden Ergebnissen für die Zukunft kaum noch Hoffnung. Zumal der Gegner diesmal nicht ein Riese ist der sich offenbar etwas ausruht und vom Gas runtergeht um die Effizienz zu steigern.
Nvidia wirkt motiviert wie eh und jeh falls demnächst tatsächlich Ampere mit deutlichen Änderungen kommen sollte. Sollte es sich dabei um den vielgemunkelten Pascal Refresh handeln und man also den Schongang eingelegt haben, kann AMD sich hier wieder etwas erholen.
Ideal wäre natürlich, dass AMD Nvidia auch angreifen kann, obwohl die weiter das Tempo steigern, somit wäre für uns kein Stillstand spürbar (den ich als AMD Käufer ja nun lange genug empfinde).

Das Problem welches AMD in dem Aspekt hat(te) ist viel weitreichender und bekannt, Software.
AMD lässt bis Heute Performance wegen sub-optimalen Compilern und Treibern auf der Strecke liegen.
ja, leider hilft ein guter Chip alleine wenig, wenn das "Drumherum" (nannten wir das nicht mal Softwareökonomie?) einfach nicht passt und man Jahrelangen Rückstand hat. Den man nicht so einfach aufholen kann, weil ja auch andere Firmen ihre Planung um den anderen Standard herum stricken und diese "Stricke" wohl auch nur langsam wieder auflösen.
Im HPC-Bereich konnten sie kaum einen Fuß ins Geschäft bringen, weil Nvidia CUDA besitzt, mit zahlreichen Dokumentationen, Bibliotheken und Zusammenarbeiten in der Industrie.
AMD hat nur einen Bruchteil davon anbieten können und OpenCL hat viele wichtige Features vermissen lassen und sich zu langsam weiterentwickelt.
Ihre APUs haben sie jahrelang mit der HSA- Initiative zusammen beworben, dahinter standen Ideen und Konzepte, mitsamt eines Softwarestacks, welcher sich kaum materialisiert hat und letztendlich anderweitig recycelt wurde.
Wenn man so schwammig entwickelt, während die Konkurrenz fokussiert Stein auf Stein baut, kann man nur verlieren.
Da diese Probleme auch so hinreichend bekannt sind, ist es sehr problematisch für AMD, denn dieser "Ruf" ist nunmal industrieweit schädigend. Wie in einem vorigen Post angesprochen will keine größere Firma und kaum Forschungsteams mit so einem "unreliable system" zusammenarbeiten. Aus Mangel an passenderem Ausdruck: also, man will ja nicht für ein Projekt viel Zeit investieren und man weiß gar nicht ob in 2-3 Jahren noch die Chips verfügbar sind, oder die APIs aktuell, die Treiber....
Ich bin mir eben nicht sicher ob diese halbgaren Versuche AMDs in diesen Markt zu kommen nicht einfach nur unnötig Geld verschlingen und man es lassen sollte oder auslagern sollte, sich stattdessen voll auf den nach wie vor lukrativen Spielermarkt konzentrieren und wenn man in finanziell sowie personell besserer Verfassung ist wieder angreifen, die Früchte dieses "Auslagerns" dann ernten und ausbauen.

Zen ist AMD gut gelungen, AMD hat eine konkrete Roadmap dort, gute Teams und kann potentiell ihre Finanzen verbessern und mehr investieren, ich bin deswegen aber nicht zu optimistisch, was AMDs GPU-Sparte angeht.
Die Arbeiten dort sind massiv und die Software-Abhängigkeit wesentlich präsenter, als bei CPUs und der Aufwand entsprechend doppelt so groß.
Raja hat als oberster Kopf das Schiff verlassen und Intel wirbt nun um gutes Personal, während Nvidia Mrd. in R&D reinputtern und offensichtlich Fortschritte bei der Hardware und Software erzielt und immer neue Finanz-Rekorde vermelden kann.
Schön zusammengefasst die aktuelle Situation zwischen AMDs CPU und GPU Sparte inkl der direkten Konkurrenz.
Ich bin gespannt was in 3+ Jahren bei Intel zum Vorschein kommt. OB etwas zum Vorschein kommt. Intel hat ja auch ab und an die Angewohnheit ungeliebte Sparten abzustoßen. Sei es Havok, ARM-Entwicklung, Spieleentwicklung (Project Offset)....
Stimmt, Nvidia bietet von der Technik her das Gleiche, wie AMD.
Leider hast Du einen Aspekt vergessen:
Nvidia baut keine Custom GPUs

Nvidia hat zwar eine Lizenzabteilung für deren Patente, allerdings wurde die passend zu allen Klagen eröffnet, die Nvidia in den letzten Jahren startete.
Seitdem sie Intel als Kunden verloren haben (Pünktlich mit dem Auslaufen des Lizenzabkommens, dass bei der Beilegung der Klage ausgehandelt wurde) , gibt es keinen einzigen Lizenznehmer mehr.

Nvidias Klage gegen Qualcomm war ja von Anfang an zum Scheitern verurteilt. Da muss ein Trump Anwalt involviert gewesen sein.
Vor allem haben die wohl vergessen, dass Qualcomm damals ATI Technik gekauft hat und alle Adreno GPUs darauf basieren. Das ist nicht umsonst ein Anagramm von Radeon.

Nvidia hat es sich inzwischen auch noch sehr übel mit Apple und Intel verscherzt.
Früher hat Apple alle 1-2 Generationen den GPU Hersteller gewechselt. Das hat vor einigen Jahren aufgehört. Seitdem gibt es nur noch AMD Karten in den Macs und iMacs.
Intel ist nach dem erzwungenen Lizenzabkommen mit Nvidia offensichtlich auch nicht sonderlich positiv auf die Firma zu sprechen.
Da hat sich Intel eben an AMD gewendet und deren Patente Lizenziert.
Ich sehe hier viel menschliche/emotionale Reaktion hineininterpretiert für ein Problem das letztlich der Finanzmathematik obligt: Wenn es sinn macht wird sich der betreffende BWLer bei Intel/Apple schon mal bei Nvidia melden und etwas vorschlagen.
Außer man hat sich auf eine Art und Weise die Finger verbrannt, die für die Zukunft eine Gefahr für Produktlinien sein könnte. Etwa eine Zusammenarbeit die einseitig zu einem wichtigen Zeitpunkt beendet wurde und man weiß, dass auf diesen Hersteller kein Verlass ist .
 
Zuletzt bearbeitet:
Da wurden der CPU und GPU Markt zusammengeschmissen, also die Steigerung an Umsatz der GPU´s nicht separat angegeben.
Puh, Quote Wall geht gerade nicht aber dazu möchte ich sagen das ich einen konkreten Link gepostet hatte welcher aber im Zuge der Aufräumarbeiten von Sonnenkoenig-OT mit entfernt wurde.
Hier aber gerne auch für Dich.^^
AMD erhoht Grafikkarten-Marktanteil auf fast 30 Prozent |
heise online

Darüber hinaus noch eine Quelle die auch eindeutig dem Mining die schlechte Verfügbarkeit von Polaris zuordnet.
Ethereum: Der Grund fur AMDs Polaris-Knappheit
Und auch die VEGA leidet unter dem Mining und der HMB2 Knappheit.
RX Vega vs. Titan V - Radeon liegt beim Krypto-Mining meist vorn - GameStar
AMD Radeon RX Vega 64: Hohe Preise, schlechter Verfugbarkeit & Produktionsschwierigkeiten - Allround-PC.com

Ansonsten bitte zur Sachebene zurückkommen, deine persönlichen Herleitungen und Spekulationen haben hier nichts verloren, danke!

Gibt es schon.
Das nennt sich "Konsole" - oder PC (je nach gewünschter Leistung und passendem Empfangsgerät)
;-)
Eben und was steckt in Konsolen? Richtig, APUs. Und der Bereich ist noch viel weiter ausbaubar. Auch Mini-PCs mit entsprechender APU Leistung sehe ich, da bewegt sich endlich etwas in diese Richtigung, siehe Intel/AMD APU und die angekündigte High-End AMD APU, dass Problem ist jedoch die Software also Windows, welche unbedingt, ähnlich der Xbox, alternativ zur Auswahl eine Wohnzimmer taugliche Oberfläche -/Steuerung erhalten müsste.

MfG
 
Zuletzt bearbeitet:
Schön zusammengefasst die aktuelle Situation zwischen AMDs CPU und GPU Sparte inkl der direkten Konkurrenz.
Ich bin gespannt was in 3+ Jahren bei Intel zum Vorschein kommt. OB etwas zum Vorschein kommt. Intel hat ja auch ab und an die Angewohnheit ungeliebte Sparten abzustoßen. Sei es Havok, ARM-Entwicklung, Spieleentwicklung (Project Offset)....Ich sehe hier viel menschliche/emotionale Reaktion hineininterpretiert für ein Problem das letztlich der Finanzmathematik obligt: Wenn es sinn macht wird sich der betreffende BWLer bei Intel/Apple schon mal bei Nvidia melden und etwas vorschlagen.
Außer man hat sich auf eine Art und Weise die Finger verbrannt, die für die Zukunft eine Gefahr für Produktlinien sein könnte. Etwa eine Zusammenarbeit die einseitig zu einem wichtigen Zeitpunkt beendet wurde und man weiß, dass auf diesen Hersteller kein Verlass ist .

Man macht nur dann noch Geschäfte mit Partnern, die einen verklagen, wenn man keine andere Wahl hat - siehe Apple und Samsung.
Samsung bietet schlicht Fertigungskapazitäten und Qualität, die sonst kein anderer erreicht.

Nvidia hat mit den Klagen eher versucht, sich in Märkte einzuklagen.
Das wurde besonders durch die zeitliche Reihenfolge deutlich. Die erste Klage kam kurz vor Bekanntgabe des Lizenzierungsprogramms.
Weshalb sie sich aber mit Qualcomm angelegt haben, die ja Zugriff auf AMDs Patentportfolio hatten und haben, versteh ich einfach nicht. Deshalb auch meine Bemerkung zu den Trump Anwälten.

Nvidia hat Apple durch nicht-einhalten von Lieferverträgen verärgert:
Apple drops Nvidia Kepler from large numbers of laptops - SemiAccurate

Wahrscheinlich auch ein Grund, weshalb AMD immer mehr drauf geachtet hat, Apple zu beliefern, anstelle Chips für Endkunden zu nutzen.
Apple bestellt normalerweise auch nicht in kleinen Stückzahlen.

Intel und Nvidia liefern sich schon länger einen Schlagabtausch - seit Nvidia versucht hat, eine X86 Lizenz zu bekommen und auch nach der Klage nur mit einem Lizenzabkommen ohne X86 Lizenz leben musste.

Beide Situationen lassen Nvidia nicht unbedingt als verlässlichen Partner auftreten.
Dazu noch das Handling von Bumpgate (Geforce 4), bei dem Nvidia nicht gerade geglänzt hat. ( Nvidia finally understands bumpgate - SemiAccurate )
Das ist allerdings schon 8 Jahre her... sollte also kaum noch ein Faktor sein, wenn es um Firmenkunden geht.
Die "Miscommunication" im Fall GTX 970 kann manchen Einkäufer auch an der Verlässlichkeit der technischen Daten zweifeln lassen.

XFX bekam das zu spüren, als sie Grafikkarten von beiden Herstellern anbieten wollten und Nvidia ihnen schlicht die Kündigung schickte.
XFX war und ist zu klein, um den Luxus von ASUS, Gigabyte und Co. zu leben.
Von ASUS und Gigabyte bekommt Nvidia Lizenzgebühren für die SLI Stempel auf den Mainboards.

Die fehlende Custom Sparte macht Nvidias Lizenzierungsprogramm eigentlich komplett uninteressant.
Alle aktuellen GPU Hersteller haben genug eigene Patente und schon existierende Abkommen, um weiter zu entwickeln.

Aus meiner Sicht ist es nur konsequent, dass Intel sich einen Custom Chip bei AMD bestellt. Intel spart bei der Weiterentwicklung der iGPU und behält wahrscheinlich die Oberhand bei verkauften CPUs.
Bei GPUs haben sie aktuell eh keine Sonne, also können sie den Teil auch einfach zukaufen und so die Position für Ultrabooks und andere "Portables" deutlich stärken.
AMD auf der anderen Seite ist froh über den dadurch gesteigerten Umsatz.

Mit den ganzen Custom Chips hat AMD auch einen Weg gefunden, ihre Technologie weiter zu verbreiten, ohne sich einen großen Krieg mit Gameworks liefern zu müssen.
Wenn sie mit Custom ZEN APUs noch weitere Design Wins einfahren, könnten sie über die Hintertür eine deutlich bessere Unterstützung ihrer GPU Technologien erwirken, als es über den aktuellen Marktanteil bei Gamern irgendwie möglich wäre.
 
Verstehe die Aussage bei GPUs würde man keine Sonne sehen nicht. Obwohl nicht besonders viel Entwicklungsbudget hat Intel schon mehrfach gezeigt, dass sie inzwischen potente integrierte Grafiklösungen anbieten können. Vor mittlerweile 3 Jahren als man kurz mal Broadwell für Desktop brachte hat man gesehen, dass die Dinger nicht nur Effizienter sind als die vom Grafikspezialisten AMD sondern auch schneller. Schon damals dachte ich mir, dass Intel durchaus Chips für dedizierte Grafikkarten entwickeln sollte. Einzig an den Treibern hakt es noch (in Spielen)
 
Zuletzt bearbeitet:
Verstehe die Aussage bei GPUs würde man keine Sonne sehen nicht. Obwohl nicht besonders viel Entwicklungsbudget hat Intel schon mehrfach gezeigt, dass sie inzwischen potente integrierte Grafiklösungen anbieten können. Vor mittlerweile 3 Jahren als man kurz mal Broadwell für Desktop brachte hat man gesehen, dass die Dinger nicht nur Effizienter sind als die vom Grafikspezialisten AMD sondern auch schneller. Schon damals dachte ich mir, dass Intel durchaus Chips für dedizierte Grafikkarten entwickeln sollte. Einzig an den Treibern hakt es noch (in Spielen)

Die iGPU im Desktop Broadwell war nur deshalb gut, weil sie eigenen Speicher auf dem Modul mitbrachte. Das konnte AMD damals noch nicht (wahrscheinlich einfach zu teuer für den erwartbaren Verkaufspreis der schwachen APUs.

Die Intel iGPUs sind leider auch nur in den absoluten TOP CPUs halbwegs brauchbar. alles darunter ist... "meh" - wenn man gnädig ist.
Das liegt auch an den sehr grottigen Treibern. Da hat Intel zwar nachgebessert, aber es gibt noch viel zu viele Baustellen, als dass die mehr als nur eine Notlösung sind.
Es fehlen auch Funktionen zur Unterstützung von CAD / CAE und sinnvolle Beschleunigung bei Bildbearbeitung.
Dafür waren die normalen Intel APUs schlicht zu schwachbrüstig bei der iGPU.
Nach Broadwell hat Intel auch nie wieder eine so potente GPU in die Chips integriert. Der Wegfall des VRAMs hat sehr viel Effizienz und Leistung gekostet.

Aktuell ist es deutlich einfacher und billiger, sich Ein fertiges Modul mit HBM einzukaufen, während Intel die eigene GPU Sparte wieder aufbaut, als da jetzt noch mehr Geld reinzustecken und die wenigen GPU Ingenieure auch noch mehrfach zu belasten.

Intel wird sicher wieder stärkere iGPUs bringen und damit auch eine harte Nuss für AMD werden.
Momentan sind sie aber noch deutlich schlechter dran, als die AMD Varianten.

Die Intel/AMD APU ist ja auch wieder ein Sonderfall, um speziellen Bedarf bei den Profis zu decken, und nicht primär für Gamer gemacht.
Wir bekommen die interessante Kombination quasi als Nebenprodukt ab - als Reste-Käufer.
Nach aktuellen Berichten soll diese APU schneller als eine GTX 1050 sein. Damit ist sie deutlich im sweet spot für CAD Konstrukteure und bei einigen CAE Anwendungen.
Ich bin gespannt, ob und wann ich die ersten Kollegen mit so einem Laptop sehe.
Für die aktuelle Runde der Hardware Upgrades ist es in "meiner" Firma allerdings zu spät. Da wurde die Festlegung auf die verfügbaren Laptops und PCs schon letztes Jahr abgehakt.
In 1-2 Jahren geht es dann wieder um solche Fragen.
 
Eigentlich ist es ganz simpel. Wären die iGPUs von Intel wirklich "so" gut, dann hätte sie sich nicht AMDs know-how einkaufen müssen. :)

MfG
 
Eigentlich ist das ganz simpel: wären AMDs GPUs wirklich so gut, würde man sich nicht jetzt hinsetzen und wieder eigene entwickeln ;)

Das stimmt so nicht.
Intel will die eigene GPU ja nicht entwickeln, um wieder was für die iGPU Nutzer zu haben, sondern um einen Konter gegen Nvidia im HPC Segment zu bringen.
Eventuell wird dabei eine iGPU mit abfallen, das ist aber nicht unbedingt gesagt.
Intel könnte mit dem dauerhaften Zukauf durchaus Ressourcen sparen - sowohl bei den Treibern, als auch der Hardware-Entwicklung.

Außerdem gibt es auch noch andere Gründe, selbst Hardware entwickeln zu wollen.
Ansonsten könnte Apple auch weiter die GPU zukaufen, oder gleich komplette SOCs von Qualcomm, Samsung oder anderen zukaufen.
Die GPUs in den iPhones waren ja nie wirklich schlecht. PowerVR hat da eigentlich ganz gute Arbeit geleistet.
 
Nein, gibt es nicht.
GPU ist der Chip. Du meinst die Karte.
Korrekt, ich meinte eigentlich die Karten.

Stimmt, Nvidia bietet von der Technik her das Gleiche, wie AMD.
Leider hast Du einen Aspekt vergessen:
Nvidia baut keine Custom GPUs
Das scheitert nur am Preis oder dem Willen der Kooperationspartner.
Es gibt schließlich nichts, was Nvidia in dem Aspekt aufhalten würde einen extra Chip mit HBM für Kunden X zu fertigen.

Gibt es schon.
Das nennt sich "Konsole" - oder PC (je nach gewünschter Leistung und passendem Empfangsgerät)
;-)
Das ist der Kern vom Markt, welcher bestehend bleibt und nicht abgebaut hat, sogar Wachstum aufweist.
Aber ansonsten gehen viele Verkaufszahlen zurück bei gewissen Marktsegmenten und hin zu immer einfacheren und mobilen Geräten.

[...]
Puh. Französisch (mum), Englisch (dad), Kroatisch (bin ich teilweise aufgewachsen bzw viel dort gewesen) und dann österreichisches Deutsch (da war ich dann ab 10).
Diese Vermischung und, dass meine gesamte Umgebung (Familie alle eher aus Bildungsfernen Schichten) eher schlampig/simpel gesprochen hat sorgt bis zum heutigen Tage (auch wenn ich täglich an meiner Ausdrucksweise arbeite). Das Blöde ist, dass ich dadurch keine Sprache so "richtig" gelernt habe. Dabei ist es essentiell für gute Ausdrucksweise EINE Sprache wirklich gut zu beherrschen. Worte die ich in meiner "Stammsprache" nicht beherrsche, kann ich auch nicht in anderen lernen.
Im Moment würde ich sagen meine besten 2 Sprachen sind eh Deutsch und Englisch evtl auch französisch. Aber besonders elegant drücke ich mich wohl in keiner aus ;)
Ein anderer Grund ist, weil ich oft mitlese und dann nur kurz zwischen Tür und Angel zum Schreiben komme. Merkt man dann auch an den Vertipsern.
Das klingt ja fabelhaft. :D
Ich habe jedenfalls mein Abitur nicht mit einer 1.0 in Deutsch bestanden und danach Germanistik studiert, mir fällt bei deinen Beiträgen keine Schwäche in der deutschen Sprache auf.
Verständnisprobleme oder manchmal Abbiegungen bei den Argumentationen kommen bei allen immer mal wieder vor.

Mich verwundert es deshalb, weil das "Auflegen" (Designen, Masken anfertigen, Produzieren, Testen, Vermarkten, Verkaufen) eines Chips bzw einer "Architektur Iteration" ist ja sicher kostspielig und einiger (nicht nur logistischer) Aufwand (auch was Boards und deren Qualitätstests betrifft). Da verwundert es schon, dass AMD hier schon eine leicht überarbeitete Architektur anbieten kann samt überarbeitetem Prozess.
Coffee Lake stehlt starke Konkurrenz dar und da AMD jetzt eine gute CPU-IP besitzt, ist es wichtig weiter zu investieren.
Es ist sehr gut, dass AMD bei der Geschwindigkeit und Wirkung zunimmt.

Ich bin mir eben nicht sicher ob diese halbgaren Versuche AMDs in diesen Markt zu kommen nicht einfach nur unnötig Geld verschlingen und man es lassen sollte oder auslagern sollte, sich stattdessen voll auf den nach wie vor lukrativen Spielermarkt konzentrieren und wenn man in finanziell sowie personell besserer Verfassung ist wieder angreifen, die Früchte dieses "Auslagerns" dann ernten und ausbauen.
Als Laie kann ich es nicht gut beurteilen, aber ich würde sagen AMD agiert schon minimalistisch und investiert nur ein wenig in mehrere Bereiche, um mit geringen Aufwand immerhin den Rest aufsammeln zu können.
Wenn sie sich völlig auf den Spielemarkt konzentrieren würden, würden sie glaube ich nichts gewinnen.

Ich bin gespannt was in 3+ Jahren bei Intel zum Vorschein kommt. OB etwas zum Vorschein kommt. Intel hat ja auch ab und an die Angewohnheit ungeliebte Sparten abzustoßen. Sei es Havok, ARM-Entwicklung, Spieleentwicklung (Project Offset)....
Ich auch, Samsung hat angeblich mehrere Mrd. Dollar in die Entwicklung einer eigenen GPU-IP in den Sand gesetzt.
Intel reagiert in mehreren Bereichen reaktionär, wobei es gibt große Vorteile, wenn man über eine eigene IP verfügt und man muss einfach Mrd. investieren und viele Jahre abwarten bis es Früchte trägt.
Ich finde es als zu kurz gesehen, wenn Unternehmen in etwas viel investieren, nur um dann die Reißleine zu ziehen, obwohl eine Perspektive existiert.

[...]
Ansonsten bitte zur Sachebene zurückkommen, deine persönlichen Herleitungen und Spekulationen haben hier nichts verloren, danke!
Das Problem an solchen Nachrichten ist auch, dass sie selber nur spekulative Annahmen vorbringen, im Bestfall bekommt man eine Info von Dritten wie Boardpartner, aber konkrete Zahlen gibt es nicht und wie zuverlässig bildet es dann die echte Realität ab?

Man macht nur dann noch Geschäfte mit Partnern, die einen verklagen, wenn man keine andere Wahl hat - siehe Apple und Samsung.
[...]
Es gibt leider auch Trollklagen von AMD, wo die Anwälte sich einen bequemen Angriffsvektor aussuchen:
AMD klagt wegen Patentverletzung gegen Mediatek, LG, Sigma und Vizio

Verstehe die Aussage bei GPUs würde man keine Sonne sehen nicht. Obwohl nicht besonders viel Entwicklungsbudget hat Intel schon mehrfach gezeigt, dass sie inzwischen potente integrierte Grafiklösungen anbieten können. Vor mittlerweile 3 Jahren als man kurz mal Broadwell für Desktop brachte hat man gesehen, dass die Dinger nicht nur Effizienter sind als die vom Grafikspezialisten AMD sondern auch schneller. Schon damals dachte ich mir, dass Intel durchaus Chips für dedizierte Grafikkarten entwickeln sollte. Einzig an den Treibern hakt es noch (in Spielen)
Das Spiel wird in Zukunft vermutlich anders aussehen.
Broadwell hat dank 14nm und EDRAM viel gewonnen, GloFo scheint aufgeholt zu haben und mit HBM2 hat auch die Konkurrenz die Möglichkeit an viel Bandbreite zu kommen.
Intel wird jetzt bei der Architektur und Software viel aufholen müssen.
Intel hat aber offensichtlich die Finanzen, ob es Früchte tragen wird, wird spannend sein.
Intel hat auch viele Mrd. in den mobilen Markt versenkt, ohne nennenswert irgendwo reinzukommen und dann aufgehört.

[...]
Nach Broadwell hat Intel auch nie wieder eine so potente GPU in die Chips integriert. Der Wegfall des VRAMs hat sehr viel Effizienz und Leistung gekostet.
Jedenfalls nicht gesockelt für den Einzelkundenmarkt.
GT4 mit EDRAM gab es noch mit Skylake, aber eben nur verlötet von sich selber für NUCs und vielleicht OEMs? Ich habe es nicht wirklich verfolgt.

Eigentlich ist es ganz simpel. Wären die iGPUs von Intel wirklich "so" gut, dann hätte sie sich nicht AMDs know-how einkaufen müssen. :)
Ich verstehe nicht ganz, welches Know-How man sich aufkauft?
Man kauft fertige Chips ein, wo man aktuell selber keine konkurrenzfähige Lösung anbieten kann.
 
Das stimmt so nicht.
Intel will die eigene GPU ja nicht entwickeln, um wieder was für die iGPU Nutzer zu haben, sondern um einen Konter gegen Nvidia im HPC Segment zu bringen.
Eventuell wird dabei eine iGPU mit abfallen, das ist aber nicht unbedingt gesagt.
Intel könnte mit dem dauerhaften Zukauf durchaus Ressourcen sparen - sowohl bei den Treibern, als auch der Hardware-Entwicklung.
Man würde sich auch gleichzeitig in die Abhängigkeit eines anderen Entwicklers begeben. Angesichts der AMD Treiber keine gute Idee, gerade im Officebereich sind die Intel Treiber über AMDs einzuordnen, das Aufgeben von der eigenen Chipentwicklung wäre für Intel ein Nachteil. Zumal man ja nicht nur Spiele damit beschleunigt sondern auch andere Dinge und viel Kontrolle aus der Hand gibt.
Meine Antwort war so formuliert, weil seine Aussage wenig Sinn ergibt. Man hat sich für AMDs Lösung entschieden nicht weil sie so super ist, sondern weil man selbst etwas vergleichbares gerade nicht fertig wo rumliegen hat.
Außerdem gibt es auch noch andere Gründe, selbst Hardware entwickeln zu wollen.
Ja, gibt viele, drum macht Intel das ja auch: eigene Hardware eigene Software und somit viel mehr Kontrolle, auch bei der Produktqualität. Aber da widersprichst du dir ja nun selbst, indem du oben schreibst es wäre gut für Intel es nicht zu tun und nun irgendwie doch...
Ansonsten könnte Apple auch weiter die GPU zukaufen, oder gleich komplette SOCs von Qualcomm, Samsung oder anderen zukaufen.
Die GPUs in den iPhones waren ja nie wirklich schlecht. PowerVR hat da eigentlich ganz gute Arbeit geleistet.
ja, aber Apple hat das Budget und den Willen es noch besser hinzubekommen. Vermutlich um irgendwann alle ihre Produkte mit eigenen Prozessoren auszustatten. Oder zumindest die mobilen
 
Das Problem an solchen Nachrichten ist auch, dass sie selber nur spekulative Annahmen vorbringen, im Bestfall bekommt man eine Info von Dritten wie Boardpartner, aber konkrete Zahlen gibt es nicht und wie zuverlässig bildet es dann die echte Realität ab?
Das stimmt, ich habe ja auch nichts über spekulative Debatten, jedoch bringen die nicht viel, wenn von zwei Ansichten die eine keine bzw. keine sachdienlichen Quellangaben als Diskussiongrundlage liefert. ;)
Ich verstehe nicht ganz, welches Know-How man sich aufkauft?
Man kauft fertige Chips ein, wo man aktuell selber keine konkurrenzfähige Lösung anbieten kann.
Ich gehe mal davon aus das es eine gewisse Vorlaufzeit gab wo technische Details zur Anwendung, Einbettung etc. ausgetauscht wurden und logischer Weise auch ein Zeitraum nach der erfolgreichen Einbindung für support, Treiber etc.. Darüber hinaus gibt es dazu sicherlich gemeinsame Arbeitsgruppen wo zwangsläufig know-how ausgetauscht wird. Und zu guter Letzt haben sie ja noch den Deal-Maker und Kopf der AMD GPU Abteilung Raja Koduri abgeworben. :):ugly:

MfG
 
Das klingt ja fabelhaft. :D
Ich habe jedenfalls mein Abitur nicht mit einer 1.0 in Deutsch bestanden und danach Germanistik studiert, mir fällt bei deinen Beiträgen keine Schwäche in der deutschen Sprache auf.
Verständnisprobleme oder manchmal Abbiegungen bei den Argumentationen kommen bei allen immer mal wieder vor.

Danke *rotwerd*.
Mein Abitur (hier: Matura) habe ich auch ganz gut geschafft (in Deutsch jedoch ne 2, keine 1). Rechtschreibung mochte ich eigentlich immer, auch wenn sich das die letzten 2 Jahrzehnte natürlich "ausgeschlichen" hat. Germanistik studiert. Wow. Du magst also komplizierte Sprachen, zuerst russisch, dann deutsch... und dein Englisch ist, soweit ich das mitbekommen habe auch über jeden Zweifel erhaben - zumindest die "Technologiesprache". Beeindruckend. Und so ganz nebenbei technisch bewandert. Da hast du ganz schön was aus dir gemacht.
Germanistik war für mich übrigens ein rotes Tuch. Ich hätte das nie studieren gekonnt. Nicht wegen der Sprache, aber wegen des extrem trockenen und strengen Deutschnterrichts in meiner Schule habe ich eine totale Abneigung gegen Literaturgeschichte entwickelt.

Ich auch, Samsung hat angeblich mehrere Mrd. Dollar in die Entwicklung einer eigenen GPU-IP in den Sand gesetzt.
Milliarden gleich? Wow, wundert mich, dass ich das noch nicht gelesen habe, aber wird schon stimmen.

Intel reagiert in mehreren Bereichen reaktionär, wobei es gibt große Vorteile, wenn man über eine eigene IP verfügt und man muss einfach Mrd. investieren und viele Jahre abwarten bis es Früchte trägt.
Ich finde es als zu kurz gesehen, wenn Unternehmen in etwas viel investieren, nur um dann die Reißleine zu ziehen, obwohl eine Perspektive existiert.
Ich finde es auch aus Kundensicht äußerst schade: Project Offset sah spannend aus (sofern man jetzt noch was im Netz dazu findet) und Havok hat mit Havok FX einen netten PhysX Konkurrenten entworfen. Etwas Konkurrenz bei der Physik bzw einen Herstellerunabhängigen Anbieter für GPU Beschleunigte Physik könnten wir schon gut brauchen.


Das Spiel wird in Zukunft vermutlich anders aussehen.
Broadwell hat dank 14nm und EDRAM viel gewonnen, GloFo scheint aufgeholt zu haben und mit HBM2 hat auch die Konkurrenz die Möglichkeit an viel Bandbreite zu kommen.
Intel wird jetzt bei der Architektur und Software viel aufholen müssen.
Intel hat aber offensichtlich die Finanzen, ob es Früchte tragen wird, wird spannend sein.
Intel hat auch viele Mrd. in den mobilen Markt versenkt, ohne nennenswert irgendwo reinzukommen und dann aufgehört.
Über die Fertigungsvorteile bin ich mir bewusst, sowie auch EDRAM. Allerdings sind auch sonst Intels integrierte GPUs ab der 3000er durchaus von der Leistung her brauchbar und zeigen Potential. Mich stört immer, dass man diese Lösungen so klein redet, wenn sie dann doch in einigen Situationen (auch die nicht EDRAM Chips) die Konkurrenten auf die Plätze verweisen.
Notgedrungen musste ich mal Alien Isolation auf einer Intel GPU spielen und das lief ohne Probleme flüssig. Natürlich hat man viel Rückstand, man hätte mit dem ganzen Thema (der ÜBerarbeitung der Software etc) schon viel früher mehr investieren sollen, dann wäre es vergleichsweise "einfach" jetzt eine GPU aufzulegen.
Ob ausgerechnet Koduri der richtige ist, um diese Probleme zu lösen wird sich zeigen. Aus uns unbekannten Gründen hat er es bei AMD jedenfalls 5 Jahre lang nicht geschafft hier entscheidend was zu ändern (muss man aber noch die nächsten 2 Jahre abwarten, ob der Kurs den er eingeschlagen hat nicht erst Früchte tragen wird).
 
[...]
Ich gehe mal davon aus das es eine gewisse Vorlaufzeit gab wo technische Details zur Anwendung, Einbettung etc. ausgetauscht wurden und logischer Weise auch ein Zeitraum nach der erfolgreichen Einbindung für support, Treiber etc.. Darüber hinaus gibt es dazu sicherlich gemeinsame Arbeitsgruppen wo zwangsläufig know-how ausgetauscht wird. Und zu guter Letzt haben sie ja noch den Deal-Maker und Kopf der AMD GPU Abteilung Raja Koduri abgeworben. :):ugly:
EMIB ist Intels eigenes Know-How und wird auch bei ihrem FPGA-Projekt Stratix 10 verwendet, welches technisch viel ausgefallener ist.
Support und Treiber-Geschichten scheinen auch viel eher simple Logistik darzustellen.
Ich sehe kein Know-How, welches man von AMD eingekauft hat.
Das Raja nun bei Intel gelandet ist, nun das ist wohl etwas anders zu bewerten. :ugly:

Danke *rotwerd*.
Mein Abitur (hier: Matura) habe ich auch ganz gut geschafft (in Deutsch jedoch ne 2, keine 1). Rechtschreibung mochte ich eigentlich immer, auch wenn sich das die letzten 2 Jahrzehnte natürlich "ausgeschlichen" hat. Germanistik studiert. Wow. Du magst also komplizierte Sprachen, zuerst russisch, dann deutsch... und dein Englisch ist, soweit ich das mitbekommen habe auch über jeden Zweifel erhaben - zumindest die "Technologiesprache". Beeindruckend. Und so ganz nebenbei technisch bewandert. Da hast du ganz schön was aus dir gemacht.
Germanistik war für mich übrigens ein rotes Tuch. Ich hätte das nie studieren gekonnt. Nicht wegen der Sprache, aber wegen des extrem trockenen und strengen Deutschnterrichts in meiner Schule habe ich eine totale Abneigung gegen Literaturgeschichte entwickelt.
Ich habe bei meinem Abitur Deutsch gar nicht als Prüfungsfach gewählt, aber die Noten waren lagen ungefähr bei 9 Punkten.
Englisch war die Sprache, wo ich meine Prüfung absolviert habe, mit 7 Punkten (3-).

Und das "nicht" hat sich auf den ganzen Satz bezogen, ich habe keine Germanistik studiert, was für viele offensichtlich sein sollte, denn ich drücke mich schließlich auch häufig simpel aus, mit Rechtschreibfehlern und Wortwiederholungen.
Russisch kann ich nur gebrochen, Lesen und Schreiben habe ich nie gelernt.

Milliarden gleich? Wow, wundert mich, dass ich das noch nicht gelesen habe, aber wird schon stimmen.
Ich habe ehrlich gesagt keine konkrete Summe mitbekommen, nur Ail im 3DCenter erwähnte mal eine hohe Summe, denn Samsung hat über mehrere Jahre investiert und vielleicht auch mehrere Anläufe unternommen:
Samsung GPU in summer 2015

Aus dem Projekt wurde nichts und wir haben jetzt 2018 und Samsung muss weiterhin von ARM GPU-Lösungen beziehen.

Ich finde es auch aus Kundensicht äußerst schade: Project Offset sah spannend aus (sofern man jetzt noch was im Netz dazu findet) und Havok hat mit Havok FX einen netten PhysX Konkurrenten entworfen. Etwas Konkurrenz bei der Physik bzw einen Herstellerunabhängigen Anbieter für GPU Beschleunigte Physik könnten wir schon gut brauchen.
Es sah wirklich interessant aus, zu seiner Zeit.
Havok FX wurde soweit ich mich erinnere vor Intels Übernahme in die Wiege geleitet, bis dann nach der Übernahme das Projekt nicht mehr weiter verfolgt wurde.
Möglicherweise hat Intel ein Stoppbefehl gegeben, aber es gibt auch Aussagen, dass Havok völlig autonom unter Intel gearbeitet hat.
Jetzt gehören sie Microsoft und etwas mehr Richtung GPU scheinen sie mittlerweile zu entwickeln.

Über die Fertigungsvorteile bin ich mir bewusst, sowie auch EDRAM. Allerdings sind auch sonst Intels integrierte GPUs ab der 3000er durchaus von der Leistung her brauchbar und zeigen Potential. Mich stört immer, dass man diese Lösungen so klein redet, wenn sie dann doch in einigen Situationen (auch die nicht EDRAM Chips) die Konkurrenten auf die Plätze verweisen.
Auf die Plätze verweisen würde ich nicht zustimmen, je nachdem von welcher Generation wir reden, denn bis Skylake hat Intel einen großen Fertigungsvorteil genossen.
Intels Gen IP frisst viel Platz und ist sicherlich nicht effizienter, als die Konkurrenz, wenn man den Vergleich fair gestalten würde.
Potential zeigt die IP, Intel hat jedes Jahr deutlich zugelegt und ist viel näher an die Konkurrenz herangekommen.
Gen9 hat brutal an Features zugelegt und die Effizienz in vielen Aspekten verbessert.
Die Hardware hat auch einzigartige Eigenschaften, die so bei keinem Hersteller umgesetzt werden, wie die Möglichkeit flexibel die Threadgroup-Größe zu verwalten, alle anderen Hersteller haben sich für eine feste Größe entschieden und leben mit anderen Kompromissen.

Ob ausgerechnet Koduri der richtige ist, um diese Probleme zu lösen wird sich zeigen. Aus uns unbekannten Gründen hat er es bei AMD jedenfalls 5 Jahre lang nicht geschafft hier entscheidend was zu ändern (muss man aber noch die nächsten 2 Jahre abwarten, ob der Kurs den er eingeschlagen hat nicht erst Früchte tragen wird).
Raja Koduri ist sicherlich nicht völlig auf den Kopf gefallen.
Solange er keinen negativen Einfluss übt, wird das Projekt nicht in Flammen aufgehen.
Es ist immer ein Kollektivprojekt und wenn Intel die wichtigsten Positionen richtig besetzt und finanziert, dann wird aus dem Projekt auch etwas Anständiges herauskommen.
 
Bevor ich auf das andere eingehe, fällt mir noch ein - beim Apple AMD Deal (für GPUs) kommt vielleicht auch dazu, dass man bei Apple AFAIR die Treiber selbst entwickelt und da ist es vermutlich einfacher nur einen Metal und OpenGL Treiber zu entwickeln.
Aber könnte auch ein dummer Gedanke sein
 
Die OpenGL-Treiber werden nur noch mitgeschleppt und das einzige was entwickelt wird, ist der Support für neuere GPU-Architekturen?
Die Informationen und Einordnung was da abgeht ist echt arm, aber ab OGL4.1 hört der Support auf und Apple hat praktisch ihren OGL(ES)-Support nicht mehr weiterentwickelt.
Metal wird anscheinend ab Haswell/HD4000 unterstützt, GCN und sogar Kepler.
 
Die OpenGL-Treiber werden nur noch mitgeschleppt und das einzige was entwickelt wird, ist der Support für neuere GPU-Architekturen?
Die Informationen und Einordnung was da abgeht ist echt arm, aber ab OGL4.1 hört der Support auf und Apple hat praktisch ihren OGL(ES)-Support nicht mehr weiterentwickelt.
Metal wird anscheinend ab Haswell/HD4000 unterstützt, GCN und sogar Kepler.
Ah, dass OpenGL nicht mehr weiterentwickelt wird wusste ich nicht, macht aber Sinn.
Ich dachte lediglich, es ist einfacher bzw kostengünstiger und effizienter sich ab jetzt nur noch auf Intel/AMD zu stürzen und alle alten Zöpfe (OpenGL (ES) sowie Nvidia) nicht mehr weiter zu supporten.
Aber ich weiß ehrlich gesagt nicht, wieviel Aufwand (personeller, finanzieller) diese zusätzliche Entwicklung kosten würde
 
Zurück