Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Die hatte eine Art strategischer Partnerschaft mit Nvidia, jetzt mit AMD.
Das ist dann natürlich viel teuer für Intel.
Wie viel Geld jetzt AMD von Intel bekommt, ist ja auch nicht bekannt.
Wenig wird es aber nicht sein.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Vielen Dank für deine ausführliche Antwort, phila_delphia. Meiner Meinung nach ist es aktuell unmöglich, die Taktraten auf das Megahertz genau festzulegen. Meine Karte hat sich auch irgendwann "eingependelt", trotzdem traten weiterhin Schwankungen um die 100MHz auf. Und genau das soll Turbo Boost ja auch tun, die Taktraten "intelligent" an die Auslastung (und Temp.) der GPU anpassen. Die Kehrseite der Medaille ist nun, dass man nicht mehr weiss, mit welcher Geschwindigkeit die Grafikkarte läuft, bzw. ein bestimmtes Benchmark durchgeführt wurde.

So viel zum Thema: Wasserkuehlung hat keinen Nutzen!
Meine 1080Ti kann ich nicht nur maximal 250 MHz höher takten, der Takt schwankt kein MHz und die Spannungswandler werden gerade mal Handwarm!

Sorry, ist überhaupt kein Angriff auf dein Beitrag!
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Das ist schlichtweg falsch:
AMD sieht hier in manchen Vergleichen kein Land:
Broadwell: Iris Pro Graphics 6200 Gaming Results


Broadwells Grafik hat gezeigt, dass man sowohl mit Leistung als auch Effizienz deutlich AMD voraus war und im Officebereich sind die Treiber auch besser. Wenn man die Treiber jetzt NUR an Spielen misst, dann ja, da ist AMD besser, - überall sonst Intel.
Wie du schon sagst:
Intel hat mit einem 14 nm Prozess, zusätzlichem EDRAM und vier Broadwell Kernen gerade mal 50% gegenüber Kaveri rausgeholt - wohlgemerkt einer APU im 28 nm Verfahren, Bulldozer Kernen und mit lahmen DDR3-2133 Speicher. Glückwunsch.

Eines frage ich mich allerdings. Wenn die Intelgrafik der von AMD in puncto Leistung und Effizienz so überlegen ist, warum kauft man sich dann teuer Vega M Chips beim direkten Konkurrenten ein...? :huh:
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Zum Glück kann Koduri bei Intel im Grafikbereich ja nicht so viel kaputtschwafeln und managen, so wie er es bei AMD geschafft hat.
Ich glaube eher weniger, dass sein jetziges Gerede irgendwann in näherer Zukunft von nur 3-4 Jahren eintreffen wird.
Nur weil er wahnwitzige Vorstellungen in seinem doch ziemlich krankhaften Hirn herumschwirren hat, werden dadurch die Ingenieure bei Intel auch nicht auf einen Schlag besser.
Vega konnte während seiner Amtszeit bei AMD bewiesenermaßen Nullkommanix an Leistung pro Takt zulegen, und was hat er nicht alles dumm rumgequakt und beweihräuchert.
Jetzt geht der Käse von vorne los.
Der Kerl gehört einfach nur in eine Klapse, nicht an die Spitze eines der größeren/größten Unternehmen in der Welt.
Meine Meinung.

ääähm ja, wieder mitm spiegel unterhalten?
:stupid: :stupid: :stupid:

ich find den Raja gar nicht so verkehrt, kenne ihn/seine Geschichte aber auch erst seit Polaris. und man muss sich auch mal überlegen, er ist Inder. ;)
was er fachlich auf dem kasten hat oder nicht weiss hier glaub ich niemand, aber dass er jetz für intel arbeitet wird schon seine gründe haben. vielleicht konnte er ja bei amd einfach auch nur nicht so, wie er gern wollte. wenn man sich meinethalben aus gründen des budgets alle nase lang für kompromisse entscheiden muss (die ja auch erstmal gefunden werden müssen), kann da am ende schonmal "murks" rauskommen. bei intel jedenfalls werden er und sein team aus dem vollen schöpfen können - und dann werden wir ja sehen, wo die reise hingeht.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

U d genau hier wird es interessant, warum nutzt Intel diese großartige Technik schon ewig nicht mehr?
Sie ist viel zu teuer, nicht annähernd so effizient, wie gerne behauptet und hängt jeder APU der Konkurrenz hinterher. Ja, gegen die Bully-APUs waren sie verdammt stark, könnten aber schon das damalige Topmodel, wenn überhaupt, nur mit Tricks schlagen (lahmer Singlechannel-RAM im AMD-Notebook) aber gegen selbst den kleinsten Vega M hätte sie heutzutage keine Chance mehr...
Lol du vergleichst jetzt ernsthaft einen integrierten Grafikchip mit etwas EDRAM mit einem dedizierten Grafikchip samt RAM?
wasn für "Tricks" außerdem. Man war damals schneller. Und sparsamer. Deutlich. Punkt.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Wie du schon sagst:
Intel hat mit einem 14 nm Prozess, zusätzlichem EDRAM und vier Broadwell Kernen gerade mal 50% gegenüber Kaveri rausgeholt - wohlgemerkt einer APU im 28 nm Verfahren, Bulldozer Kernen und mit lahmen DDR3-2133 Speicher. Glückwunsch.
Also so wie bei Vega jetzt:
Besserer Prozess, spezieller RAM, mehr Verbrauch (ok Intel hatte ja WENIGER) und trotzdem ist man kaum schneller als eine 3 Jahre alte 980 Ti.

Vega ist also im Anbetracht dessen sogar noch schlechter im Vergleich zur Konkurrenz als Intels GPUs denn die waren mit dem technischen Aufwand wenigstens gleichzeitig schneller UND sparsamer. Und zwar gleich 50% schneller... wow, das zeigt eigentlich wie schlecht AMD bzw Vega dasteht und erst recht zeigt genau dein Beispiel, dass man mit etwas technischem Aufwand AMD sofort um 50% überflügeln kann.

Eines frage ich mich allerdings. Wenn die Intelgrafik der von AMD in puncto Leistung und Effizienz so überlegen ist, warum kauft man sich dann teuer Vega M Chips beim direkten Konkurrenten ein...? :huh:
Wie die News dir ja klar macht: Nur weil man gerade selbst keinen dedizierten Chip hat. Wird eh bald nicht mehr sein
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Lol du vergleichst jetzt ernsthaft einen integrierten Grafikchip mit etwas EDRAM mit einem dedizierten Grafikchip samt RAM?
wasn für "Tricks" außerdem. Man war damals schneller. Und sparsamer. Deutlich. Punkt.

Vega M ist die aktuelle iGPU von AMD(also das, was in ,den Ryzen 2000U und der geplanten Intel-APU steckt) und in allen "Vergleichen" gewann die Intel-GPU vorher immer nur, wenn die AMDs(leider konnte man auch fast nichts anderes am Markt finden und selbst heute sieht es kaum besser aus) durch den Speicher ausgebremst wurden. Den wahren Vorteil zogen die Intel selbstverständlich aus dem CPU-Part.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Also so wie bei Vega jetzt:
Besserer Prozess, spezieller RAM, mehr Verbrauch (ok Intel hatte ja WENIGER) und trotzdem ist man kaum schneller als eine 3 Jahre alte 980 Ti.
Nicht das Thema wechseln. Hier geht es um AMD vs. Intel, nicht um AMD vs nVidia. Zweifelsohne steht AMD gegenüber nVidia momentan nicht gut da. Das hilft Intels Krücken aber in keinster Weise.
Vega ist also im Anbetracht dessen sogar noch schlechter im Vergleich zur Konkurrenz als Intels GPUs denn die waren mit dem technischen Aufwand wenigstens gleichzeitig schneller UND sparsamer. Und zwar gleich 50% schneller... wow, das zeigt eigentlich wie schlecht AMD bzw Vega dasteht und erst recht zeigt genau dein Beispiel, dass man mit etwas technischem Aufwand AMD sofort um 50% überflügeln kann.
Der Vergleich ist so falsch, der hinkt nicht mal mehr.

Mal abgesehen davon, scheint Vega etwas niedriger getaktet durchaus effizient zu sein. Ein Ryzen 5 2500U schlägt seinen Konterpart aus i7 8850u und nVidia MX150 nicht nur in der Performance, sondern auch in der Effizenz. Und die von Intel veröffentlichten Performanceschätzungen des neuen Kombichips sehen jetzt gegenüber Pascal auch nicht so schlecht aus....
Wie die News dir ja klar macht: Nur weil man gerade selbst keinen dedizierten Chip hat. Wird eh bald nicht mehr sein
Hmm, und warum hat man die bestehende, super tolle Architektur nicht in groß aufgelegt, und damit sowohl AMD als auch nVidia vom Platz geputzt? Mit +50% schlägt man ja nicht nur AMD ein Schnippchen, da kann auch nVidia nicht mehr viel machen.

Meine Theorie ist simpler: Die momentanige Intel GPU-Architektur ist Mist. Koduri wird die in die Tonne treten, und bis der mit seinem Team was neues gebastelt hat, wird Vega bzw. die Nachfolger von Vega der High-Performance Chip von Intel sein. Und irgendwann mal, vielleicht so in drei Jahren, werden wir dann die ersten Lebenszeichen der neuen Intel-GPU Architektur sehen. Bis dahin hat AMD noch eine Menge Zeit, um den Markt an nVidia zu verlieren.

Ich würde mir an AMDs Stelle momentan keine Gedanken um Intel-GPUs machen.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Intel hat bei Gen9 massiv zugelegt und Gen9 war/ist dabei eine echte Feature-Sau.
Als erster hat man die volle DX12 Spec umgesetzt, auch ASTC, 16x MSAA, eine FP64-Rate von 1/4 wird unterstützt und ebenso Double-Rate FP16.
Man kann sich an mehreren Stellen auch fragen, warum zur Hölle Intel nativ 16x MSAA in ihren iGPUs unterstützt und ob die hohe FP64-Rate irgendjemanden tangiert?
AMD hat bei Carrizo (dort per SW limitiert) und Bristol-Ridge FP64 sogar mit der halben SP-Rate unterstützt, da muss ich auch den Kopf kratzen.

Gen10 hätte sich bei Cannon-Lake gefunden, aber dank den 10nm Problemen stellt sich die Frage, ob Gen10 den Markt überhaupt betreten wird?
Gen11 bei Ice-Lake erhöht scheinbar sehr stark die Anzahl an Recheneinheiten und das Intel am "Gen" Namen und der internen Aufteilung von Slices festhält, lässt mich zu dem Schluss verleiten, dass Gen 12 und 13 auch nicht völlig neue Architekturen darstellen werden und Intel alles vorherige in die Tonne treten wird.
Vor allem Koduris Einflussnahme sehe ich beschränkt an, da Intel laut eigener Aussage schon seit Jahren an den Plänen arbeitet.

Und wenn AMD sich an der Stelle nicht auch Gedanken macht, dann machen sie was falsch.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Hm, sounds irgendwie nach Soundkarte... :nicken:
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Ich höre die Anwälte von AMD schon mit den Hufen scharen.
Eine dramatische Performanceverbesserung aus dem Nichts ohne das Koduri irgendwelche patentierte Technik von AMD verwendet erscheint mir sehr unwahrscheinlich.
Das würde bedeuten das die Intel Ingenieure die ganze Zeit unfähig waren die simplesten Lösungen welche nicht von AMD geschützt werden zu erkennen.
Niemals PowerVR vergessen ;)
PowerVR Technologies – Wikipedia
Da steckt noch eine Menge IP die sich sicher auch in einer APU gut machen würde und eben tatsächlich zur Lizenzierung zur Verfügung steht.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Was ist damit?

Ashraf Essa from The Motley Fool is reporting that Intel is working on two new GPU solutions with codenames of Arctic Sound and Jupiter Sound, with the former being a 12th generation discrete GPU and the latter a 13th generation discrete GPU. Intel's Gen 9 solution is found on Kaby Lake while the Gen 9.5 solution is on Coffee Lake, while Gen 10 will come with Cannonlake soon.

We should expect them sometime after 2020, but with RTG boss Raja Koduri now on Intel's team, it makes sense. NVIDIA is fighting the good fight with their GeForce line up and virtually no competitor in the GTX 1080 and above space, but Intel could soon enter as a big competitor with their own Radeon-powered discrete GPU that does have me wondering: what's the future of Radeon under AMD if Intel can do better with Radeon GPU tech than AMD can.

Intel working on discrete GPU, should feature Radeon tech
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

@ yummycandy

Das klingt wie eine uninformierte Spekulation des TweakTowns-Editors.
Offiziell hat Intel keine GCN-Lizenz oder Patente von AMD erworben und im letzteren Fall müsste Intels Entwicklung sich mehrheitlich an AMDs Patenten orientieren, damit man das Ganze als "Radeon-powered" bezeichnen könnte.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Bei der Diskussion zur Intel High-End-APU hatte hier im Forum ein Redakteur/Moderator´eine Grafik mit dem Vergleich des Patent-Pool von Intel, Nvidia, und AMD gepostet, mit dem Ergebnis dass Intel was Patente für GPUs betrifft, überhaupt nicht schlecht da steht. Leider finde ich den Post nicht mehr.
Bei Patenten geht es auch um die Menge und sicher nicht um den Inhalt...
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Offiziell hat Intel keine GCN-Lizenz oder Patente von AMD erworben und im letzteren Fall müsste Intels Entwicklung sich mehrheitlich an AMDs Patenten orientieren, damit man das Ganze als "Radeon-powered" bezeichnen könnte.

Die Frage ist eher, warum die das offiziell erwerben müssen. Entscheidend ist eher was sie mit AMD vereinbaren und regeln. Ob das dann offiziell (im Sinne von öffentlich bekannt) ist sei mal dahin gestellt.

Wir nutzen auch Patente vom Wettbewerb und der von uns. Daraus wird jetzt aber deswegen nicht gleich ne Pressemitteilung gestrickt, genausowenig wie aus praktisch allen anderen Regelungen die man als Firma so trifft.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

:schief:

Klar, deswegen ist er auch das geworden was er ist. Weil er nix taugt...

Also manche Kommentare...:wall:

Ist mir egal was er geworden ist, Fakt ist Vega ist aus Gamer-Sicht ein Griff ins Klo nach der Entwicklungszeit ein Trauerspiel. Poor Volta *rolleyes*

Bei Vega stimmt einfach mal gar nichts Preis, Verbrauch und Spieleleistung nach einem Jahr hinter dem Wettbewerb.
 
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

Ist mir egal was er geworden ist, Fakt ist Vega ist aus Gamer-Sicht ein Griff ins Klo nach der Entwicklungszeit ein Trauerspiel. Poor Volta *rolleyes*

Bei Vega stimmt einfach mal gar nichts Preis, Verbrauch und Spieleleistung nach einem Jahr hinter dem Wettbewerb.

Ich denke, das Intel sehr viel besser als du weiß, was sie da für einen Mann eingekauft hat - einen der Top Entwickler für GPUs. Die sind ja nicht doof und zahlen ein 6- oder gar 7-stelliges Gehalt für jemanden, der nicht nachgewiesenermaßen ein absoluter Spitzenentwickler ist. Nachgewiesen hat er jedenfalls seine Kompetenz schon!

Das hat definitiv nichts mit Vega zu tun. Auch wenn du das offenbar nicht differenziert betrachten kannst. Ohne Einblicke in die Umstände kann man das von außen nicht beurteilen. Wie und warum Vega so gelaufen ist, wird keiner von uns je erfahren - wer weiß was das Hauptaugenmerk war?!

Vega scheint nämlich, wenn nicht an der Kotzgrenze betrieben, ziemlich effizient und leistungsstark zu sein. Die APU Benchmark(leaks) zeigen jedenfalls bislang ein recht überzeugendes Bild. Es gibt auch einen Markt außerhalb der Gamerszene - der ist sogar größer und damit lukrativer... Wie sich Vega da schlägt muss man sehen, bislang sieht es absolut wettbewerbsfähig aus was man so sieht. Nicht zuletzt weiß man auch gar nicht was die Vorgaben für die Entwicklung waren...

Abgesehen davon ist dieses Vega bashing wirklich lächerlich, in erster Linie ist der Verbrauch und die Verfügbarkeit (und damit der Preis) ein Problem, Leistung ist da und im Prinzip auf Augenhöhe mit 1070 und 1080. Wenn du damit nicht leben kannst, kaufs nicht und gut ist!
 
Zuletzt bearbeitet:
AW: Arctic & Jupiter Sound: Intel bestätigt Entwicklung von diskreten GPUs unter Raja Koduri

AMD "muss" sich zurzeit nicht anstrengen um GPUs zu verkaufen. Der MInig Boom machts möglich. Allerdings streicht AMD nicht die Margen wie Nvidia ein.
Das stimmt zwar rein zum Thema Verkaufszahlen, allerdings tragen diese Verkäufe nichts zum Marktanteil der zum Gaming benutzten Grafikkarten bei. Das ist wohl einer von mehreren Gründen neben der Gewöhnung der Studios an DirectX 11, dass sich DX 12 und Vulkan so schlecht etablieren. Der Performance-Gewinn für Maxwell- und Pascal-Karten ist hier zu gering als dass sich die zusätzlichen Entwicklungskosten lohnen würden. Das sind noch immer die verbreitetsten GPUs. Das ändert sich höchstens später durch abgestoßene, gebrauchte Mining-Karten.
Vielleicht wäre es klug, sich aus dem vom Wahnsinn beherrschten Markt zurückzuziehen. Immer, wenn ich auf meiner ATi 5870 1GB modernere Spiele ausführe, habe ich das Gefühl, dass die letzen Jahre pure Ressourcenverschwendung waren. Klar sind die Chips effizienter geworden, aber die Spiele werden immer schlechter und die Grafikverbesserungen immer "teurer".
Mit einer 290 kannst du auf WQHD so ziemlich alles zocken, was nicht mies programmiert wurde. Vielleicht haben wir in ein paar Jahren noch ein paar Sonnenstrahlen mehr, oder eine schönere Reflexion, aber das ist es einfach nicht wert, dieses Rennen unendlich weiterzuführen, Meiner Meinung nach.
Einerseits kann ich deine Gedanken vollkommen nachvollziehen, andererseits gab es schon immer die klassischen Leistungsfresser - auch abseits von Umgebungsverdeckungen wie SSAO, HBAO(+), VXAO und Co. Das einfachste Beispiel wäre das Level of Detail in OpenWorld-Games wie Witcher 3 oder GhostRecon: Wildlands. Bei einer großen Umgebung kann der Sprung von "hoch" auf "sehr hoch" hier mehr als nur das Korn auf der Waage sein. Ein Muss ist dies natürlich noch lange nicht.
Seit der 5870 hat sich aber auch bei AMD viel getan: Die 7970/280X alias Tahiti hat viele Kritikpunkte beseitigt. Computingfähigkeiten sind hier über jede Kritik erhaben, die anisotrope Filterung war endlich flimmerfrei, die GPU ist besser auslastbar als z.B. die 5870 und mit weniger Takt auch recht effizient (Vergleich 7970 non-GHz und 280X). Eine R9 290 mit guter Kühlung ist da nochmals eine Verbesserung in fast jedem Punkt (Computing, Tessellation, Auslastung, Takt-Skalierung). Die Hauptverbesserung von Polaris sieht man auch an der aktuellen Grafikkarten-Rangliste: Diese GPU bringt gegenüber z.B. einer R9 390 hauptsächlich enorme Tessellationsverbesserungen, ist also vor allem etwas für Leute, die den Tessellationsregler im Treiber nicht bemühen möchten.
Entweder man stürzt sich heutzutage für UHD oder WQHD in Ultra-Details bei mindestens 60 fps in Unkosten oder einem reichen ehemalige, alte High-End GPUs für HD noch locker aus. Das Zocken von immer mehr noch nicht optimierten Early-Access Titeln hat hier sicherlich auch seinen Anteil an der Leistungsschraube.
Hier kommen wir auch zur GPU-Entwicklung von Intel: Bisher glänzten sie mit recht schwachem Treiber-Support, aber eine dedizierte Mittelklasse-GPU für 1080p ist definitiv im Bereich des Machbaren. Allein die Leistungssprünge von der HD3000 in den Sandybridge-CPUs auf eine Iris Pro HD6200 in den Broadwells sind schon enorm und da sprechen wir noch von integrierten GPUs.
 
Zurück