AMD vs. Intel: Krieg um bessere Rechenleistung soll beendet sein

Das habe ich doch schon mal auf PCGH gelesen. AMD wird einen anderen Weg einschlagen und ob es sie weiter bringt oder in die roten Zahlen und villeicht sogar zur Pleite das werden wir in ein paar Jahren sehen.
 
Bei Grafikkarten sind die Leistungsunterschiede zur Konkurrenz auch nicht sonderlich groß - im Gegensatz zu den Desktop-CPUs die der Konkurrenz in nahezuallen Belangen weit unterlegen sind.

Da hab ich ähnliche Erfahrungen gemacht.

Wobei man klar sagen muss das sich in den Grafikkarten von AMD langsam das selbe Problem zeigt das sie auch bereits bei ihren neueren CPUs hatten. AMD entwickelt stur weiter alte Konzepte, wobei sie zwar NOCH eine Leistungsteigerung haben, aber auch hier vermute ich das wen AMD nicht massive sein Verhallten ändert, bald probleme an den Tag treten.
 
Ähm.....

Hast du überhaupt eine Ahnung, von was du gerade redest? Sorry, ganz ehrliche Frage.

AMD ändert sehr viel bei den iGPUs, und entwickelt sich dort sehr stark weiter. AMD hat auch eine sehr klare Roadmap, welche Sie bis jetzt auch sehr gut eingehalten haben, was die APUs und GPUs betrifft. Die machen da in den letzten zwei Jahren recht große Schritte, was die Weiterentwicklung anbelangt.


Sodele jetzt hab ich auch Zeit dir mal deine Fragen zu beantworten, auch wenn du es sichelrich mal wieder nicht hören willst.

Ähm, du stellst hier Behauptungen auf, also ist es an dir diese auch faktisch zu belegen. Also bitte, ich warte.

Was konkret können also die AMD APUs was Intels IGPs nicht können, und vor allem, wo und in welchen Anwendungen hat man damit aktuell einen Vorteil?

Da machst du es dir etwas sehr einfach. Wenn alle hier im Forum nach dem Motto agieren "Da musst du entweder studieren oder dir das Wissen selber im Netz aneignen", dann können wir hier bald zu machen.:daumen2:
Also, man muss das ziemlich differenziert sehen. Bis IB vo kurzem raus kam, konnte die Intel iGPU sehr viel nicht, was die iGPU von AMD konnte. Als wichtigste Punkte sind hier DX11 und damit auch OpenCL zu sehen. Insbesondere die fehlende Unterstützung von OpenCL war ein starker Nachteil, da die iGPU damit eben, bis auf QuickSxnc, für nichts anderes als die Bildausgabe zu gebrauchen war. QuickSync ist dabei halt so ne Sache, da Propritär. Das hatte überhaupt nur eine Chance, weil Intel eben solch eine Marktmacht hat. Eingesetzt wurde/wird es aber vorwiegend in "Konsumer"-Software. Für Profianwendungen wird dann meist direkt auf CUDA oder OpenCL gesetzt, weil heir mehr Leistung zu erwarten sind, und eben sich der Aufwand für die Implementierung damit auch mehr lohnt. QuickSync kann die Software ja nicht einfach so...

Bis IB war die iGPU von Intel also deutlich schlechter als die von AMD, ganz abgesehen von der Leistung.

Mit IB hat sich die Sache dann etwas gewandelt. Intel hat die größten Schwachpunkte damit eleminiert, dass Sie DX11 und OpenCL nun unterstützen. Das ist ein GEWALTIGER Schritt nach vorne.
Man vergleicht jetzt aber auch IB mit Llano im Moment, was halt so ne Sache ist, da Trinity eben auch in den Startlöchern steht, und sich dort auch wieder so manches ändert.

Intel hat z.B. die iGPU am Ringbus und lässt die iGPU auch auf die Caches zugreifen. Das kann Llano meines Wissens nach nicht. Trinity kann dies aber auch. Ich empfehle zu Trinity die Beitragserie von Charlie auf Semiaccurate.com. Die ist wirklich gut, abergesehen vom BlaBla dazwischen, und dennoch relativ verständlich gehalten. Für einen groben Überblick taugt es.

Mit Trinity wird der Adressspace auch flach zwischen iGPU und CPU, und viele weitere Kleinigkeiten. Für den Endkunden praktisch ohne Bedeutung, für Softwareentwickler aber teilweise sehr große Detailverbesserungen, die die Arbeit vereinfachen, und/oder die Leistungsfähigkeit steigern.

Jetzt sagst du sicherlich ÖHhhh... OpenCL ist doch total banane, das wird eh nirgends eingesetzt, sag mir doch ne Anwendung, die das Einsetzt, die nen User hier auch nutzt.

Tja, mit dem letzten Teil wirds halt schwierig. In Konsumersoftware siehste das nicht/kaum, einfach weil du dafür die Software neu entwickeln müsstest, und sich das einfach nicht lohnt. Die Kuh muss gemolken werden.... Denn ob der Endkunde jetzt eine CPU-Implementierung hat und eine Sekunde wartet, oder eine OpenCL Implementierung und auf der iGPU dann ne halbe Sekunde wartet ist so ziemlich Kack egal, und keiner wird die immensen Kosten für die Softwareentwicklung aufbringen im Konsumerbereich. Da musste ja schon froh sein, wenn du Multicore-Support hast....

Im Profibereich siehts da aber GANZ anders aus. Was CAD anbelangt, erfreuen sich die iGPUs wohl einer wachsenden Beliebtheit, weil eben doch nicht jeder CADler die fette Quadro/FirePro brauch, bzw. als günstige Alternative die GeForce/Radeon. Oft reicht halt doch schon ne vernünftige iGPU.
Dann gibt es z.B. noch MatLAB, was inzwischen OpenCL-Support hat, und von einer iGPU profitieren kann, vor allem weil man sich dann die dedizierte GPU spart, die man eben nur mal zum Rechnen einsetzt.
Quanti (btw. gibts den hier eigentlich noch?) könnteste z.B. auch fragen. Bei sich in der Firma wurden Llanos angeschafft, und die Software extra auf OpenCL umgeschrieben, weil Sie eben taugen UND im Vergleich zur dedizierten GPU eben spotbillig sind bei gleichzeitig vergleichweise guter Leistung. Zudem kannste eben auf einer iGPU wegen der näheren/besseren Anbindung an die CPU eben Dinge machen, die auf ner dedizierten GPU halt gar keinen Sinn machen, einfach weil allein schon die Latenzen zu schlecht sind. Von der Bandbreite des PCI-E Interfaces ganz zu schweigen, was dazu führt, dass der Overhead für die Berechnung auf der dedizierten GPU schon größer ist, als es einfach stur auf der CPU zu berechnen. Da bringt die auch ne 100 mal schnellere Berechnung auf der dedizierten GPU nichts...

Genau da liegt halt auch die Stärke der iGPU. Du kannst viele Probleme jetzt beschleunigen, die vorher einfach aus obigen Gründen nicht zu beschleunigen waren. Dies wird in den nächsten 1-2 Jahren auch nochmals kräftig zulegen, wenn man sich AMDs Roadmap zur APU-Technik anschaut.
Da wären dann so Sachen möglich wie: Ich hab nen normales Array und wills sortieren. Also schieb ichs halt kurz auf die iGPU, oder ich hab nen GROSSES Array, wills sortieren, und mach auf der dedizierten GPU eine Vorsortierung, und sortiers dann auf der iGPU fertig. usw usw usw.
Die Sache ist halt, CPUs sind heute schon VERDAMMT Leistungsstark. GPUs sind aber nochmals deutlich Leistungsstärker, wenn das Problem was für Sie taugt. Du musst also schon verdammt große Probleme haben, damit du überhaupt einen merklichen Unterschied zwischen CPU und GPU hast. Daher wird so etwas auch meist in Profi-Software eingesetzt, weil es dort eben die entsprechenden Probleme gibt, und sich somit die immensen Kosten für die Softwareentwicklung auch rechnen.

Jetzt sagste sicherlich:"Öhh.. das interessiert mich aber nicht, und ist eh nur ne Randgruppe blablub"
Tja, obs dich interessiert oder nicht ist dann halt so, aber eine Randgruppe ist es sicherlich nicht. AMD hatte letztes Jahr auf dem FDS schon eine Studie gezeigt, nach der OpenCL zu den beliebtesten Programmiersprachen zählt, und schon damals deutlich vor CUDA lag. Das wird dieses Jahr nochmals deutlicher sein, einfach weil Intel nun auch mal endlich in die Pushen gekommen ist, und OpenCL-Support anbietet. Allein das OepnCL OHNE! Intel solch eine Verbreitung erreicht hat, sagt schon alles...


Und????
Sie haben sich vor Jahren geeinigt, Intel hat dafür geblecht, und gut ist. Für mich kein Grund nicht Intel zu kaufen.
Ich meine, AMD hat früher dreister Weise unerlaubt Intel CPUs nachgebaut. Das wäre doch auch ein Grund keine AMD CPUs zu kaufen, oder? :ugly: Denn so was darf man doch nicht unterstützen.....Was kauft man aber dann für seinen PC? :schief:

Und jeder der behauptet, dass Intel AMD aus dem Geschäft drängen will/wollte, der sollte mal darüber nachdenken, warum AMD eigentlich überhaupt x86 CPUs bauen darf ;)
AMD darf wegen IBM x86 bauen.... Intel war NIE begeistert davon, das es AMD gibt.... Nur so btw... Wir wollen doch bei der Wahrheit bleiben.


Und ja man sollte den Bestechungsskandal NIE vergessen, denn damit hat sich Intel sehr ins Gehirn der Leute einbrennen können, und AMD eben nicht. Ganz zu schweigen davon, das AMD Geld gefehlt hat für die Entwicklung, und auf der anderen Seite Intel eben keine Geldknappheit hatte. Viele Sachen wären anders gelaufen, wenn Intel weniger Marktmacht gehabt hätte, und AMD mehr. Allein bei der Softwareentwicklung hätte sich viel anders entwickeln können, was man nicht unterschätzen sollte usw. usw. usw. usw.

Die die Sache gelaufen wäre kann heute keiner Sagen. AMD steht aber sicherlich so wie es gelaufen ist nicht besser da, als wenn einfach alles mit rechten Dingen zugegangen wäre.
 
Zuletzt bearbeitet:
Eigentlich ist AMD für den Großteil der Kunden und der sind nun mal nicht Hardwareenthusiasten auf einem sehr guten Weg. Verstärkt man die Entwicklung im Bereich APU noch weiter, könnte der OEM-Markt irgendwann fast gänzlich AMD gehören, denn Dell und Co. können gänzlich auf eine extra Grafikkarte verzichten, denn ob eine GT 520 oder eine APU in einem OEM-"GamerPC" verbaut ist, ist wohl zu vernachlässigen.
 
Ähm.....

Hast du überhaupt eine Ahnung, von was du gerade redest? Sorry, ganz ehrliche Frage.

AMD ändert sehr viel bei den iGPUs, und entwickelt sich dort sehr stark weiter. AMD hat auch eine sehr klare Roadmap, welche Sie bis jetzt auch sehr gut eingehalten haben, was die APUs und GPUs betrifft. Die machen da in den letzten zwei Jahren recht große Schritte, was die Weiterentwicklung anbelangt.

Auf dem gebiet der iGPUs hast du völlig recht aber vergleich mal die Architektur der 6k und der 7k Serie von AMD Grafikkarten. Auch wen sie behaupten das sich da sehr viel verändert hat, so liegt der Wesentliche Unterschied nur an der Stromversorgung und an der Minimalen Verkleinerung der Transistoren. Wohingegen Nvidea bei ihren 680 und 690er Karten ein Komplett neues System zum ansteuern der Rechenprozessoren Entwickelt hat, was eine Wesentlich höhere Speicheranbindung mit sich bringt.

Wen man allerding die 4k Serie mit der 5k Serie vergleicht hast du aber auch recht, da hier der Transistor enorm verkleinert wurde, auserdem wurde ein Neues Power Management und eine neues Speichersystem (GDDR5) eingeführt.

Möglicherweise ist der Unterschied zwischen den 7k und den 8k GPUs wieder größer, aber die aktuelle Entwicklung ist weniger stark differenziert
 
Eigentlich ist AMD für den Großteil der Kunden und der sind nun mal nicht Hardwareenthusiasten auf einem sehr guten Weg. Verstärkt man die Entwicklung im Bereich APU noch weiter, könnte der OEM-Markt irgendwann fast gänzlich AMD gehören, denn Dell und Co. können gänzlich auf eine extra Grafikkarte verzichten, denn ob eine GT 520 oder eine APU in einem OEM-"GamerPC" verbaut ist, ist wohl zu vernachlässigen.

Leider orientiert sich AMD tatsächlich mehr an der Mobilen Sparte, hier sind anscheinend mehr Gewinne zu holen...
Ich persönlich finde es schade.
 
Auf dem gebiet der iGPUs hast du völlig recht aber vergleich mal die Architektur der 6k und der 7k Serie von AMD Grafikkarten. Auch wen sie behaupten das sich da sehr viel verändert hat, so liegt der Wesentliche Unterschied nur an der Stromversorgung und an der Minimalen Verkleinerung der Transistoren. Wohingegen Nvidea bei ihren 680 und 690er Karten ein Komplett neues System zum ansteuern der Rechenprozessoren Entwickelt hat, was eine Wesentlich höhere Speicheranbindung mit sich bringt.

Wen man allerding die 4k Serie mit der 5k Serie vergleicht hast du aber auch recht, da hier der Transistor enorm verkleinert wurde, auserdem wurde ein Neues Power Management und eine neues Speichersystem (GDDR5) eingeführt.

Möglicherweise ist der Unterschied zwischen den 7k und den 8k GPUs wieder größer, aber die aktuelle Entwicklung ist weniger stark differenziert

Ähm.... nein.

Für dich als Endkunde, der nen Programm anwirft, und dann halt macht, sind die Unterschiede vielleicht gering, aber wenn man unter die Haube schaut, dann sind die Unterschiede zwischen 6k und 7k Serie gewaltig. Insbesondere auch aus Programmierersicht. Da hat sich wirklich sehr sehr sehr viel getan, und eigentlich durchweg zum Besseren. Nur die Informationspolitik von AMD kann man hier ankreiden.... Der Software-Developer-Guide ist eine Fars... :daumen2: :kotz:
nVidia ist da aber auch KEIN STÜCK! besser. :daumen2: :kotz:
 
Ähm.... nein.

Für dich als Endkunde, der nen Programm anwirft, und dann halt macht, sind die Unterschiede vielleicht gering, aber wenn man unter die Haube schaut, dann sind die Unterschiede zwischen 6k und 7k Serie gewaltig. Insbesondere auch aus Programmierersicht. Da hat sich wirklich sehr sehr sehr viel getan, und eigentlich durchweg zum Besseren. Nur die Informationspolitik von AMD kann man hier ankreiden.... Der Software-Developer-Guide ist eine Fars... :daumen2: :kotz:
nVidia ist da aber auch KEIN STÜCK! besser. :daumen2: :kotz:

Ich bin einer dieser Entwickler und durft mich auch schon mit dem sch*** rumprügeln^^
Meines erachtens nach ist dieser Unterschied rein Steuerungstechnischer Natur und hat soweit ich das weiß nur bis zu einem gewissen Punkt mit der Hardware zu tun. Wobei man auch bereits an den Treibern sieht das AMD da sehr viel gemacht hat. Ich bezog mich bei meiner Aussage rein auf den GPU und hab dabei sowas wie einen verbesserten Controller auser acht gelassen...

NVidia is tatsächlich nur für den Endnutzer besser, da sich bei den PhyX und Shadereinheiten einfach zu schnell zu viel verändert...
 
Naja, du hast kein VLIW mehr, sondern SIMD, du hast die Skalarunit, du hast CACHING! für deine normalen Daten und nicht nur wenn du Texturen verwendest über den L2, war nämlich bei der HD5k Serie so, und meines Wissens auch noch bei der 6kSerie so, dass der L2 nur auf Texturen gewirkt hat, daber haben die HighPerformance SGEMM/DGEMM Implementierungen ja auch Texturen zur Berechnung verwendet.

Dann sind die Caches größer geworden usw. usw. usw. Also ich finde, das sich da schon SEHR viel verändert hat. Klar, der grobe Aufbau ist etwas gleich geblieben, mit der Ausahme der Skalarunit usw., aber dann haben sich auch CPUs eigentlich auch nur paar mal verändert. Als die FPUs in die CPU kamen, die NB in die CPU wanderte, Multi-Core und als die iGPU kam, und das sagt wohl auch keiner :ugly: Oder was meinste?

Sowohl AMD als auch nVidia haben sehr viel getan seid der letzten Generation, wobei ich bei nVidia auch das eine oder andere Haar in der Suppe finde, was mir bei der 7k Serie bis jetzt eigentlich noch nicht passiert ist. Und mit Haar mein ich, das ich wirklich mit etwas unzufrieden bin und mir anders gewünscht hätte. Stichwort L1/Shared Memory Größe ist gleich geblieben trotz massiv mehr ALUs.

EDIT:
Was entwickelst du eigentlich? Und unter welcher Sprache (OpenCL nehme ich mal stark an)?

Würde mich über bischen input sehr freuen :daumen: Entwickler sind hier ja eher selten. :rolleyes: Du verstehst sicherlich besser, was ich meine ;)

PS: Wenn man die Entwicklung rein aus Software-Entwickler-Sicht betrachtet hat sich zwischen 6k und 7k auch nicht sooo viel getan, wenn man die Hardwarenahmen Optimierungen weg lässt. OpenCL als solches hat sich ja nicht verändert. Ist halt ein Standard. Da ändert sich nicht soo oft soo dramitsch etwas, was auch gut so ist.

Wenn du aber wirklich auf die 7k Serie hin optimierst, haste da doch schon mehr Freiheiten meiner Meinung nach als bisher, und musst auch etwas anders ran gehen, aber das wirkt sich antürlich erst aus, wenn man für genau eine Hardware optimiert, was in der Industrie ja doch eher seltener gemacht wird.
 
Zuletzt bearbeitet:
Sodele jetzt hab ich auch Zeit dir mal deine Fragen zu beantworten, auch wenn du es sichelrich mal wieder nicht hören willst.

Wenn ich sie nicht hören wollte, würde ich nicht fragen :schief:

Also, man muss das ziemlich differenziert sehen [.......]

Danke für die umfangreiche Erklärung :daumen:
Das wollte ich wissen.

AMD darf wegen IBM x86 bauen.... Intel war NIE begeistert davon, das es AMD gibt.... Nur so btw... Wir wollen doch bei der Wahrheit bleiben.

Also die x86 Architektur hat Intel entwickelt und eingeführt und lizenziert sie dementsprechend auch. IBM hat erst 3 Jahre später den passenden PC dazu gebaut, was wiederum nichts mit AMD zu tun hat.
Von daher liegt es an Intel zu entscheiden, wer x86 CPUs bauen darf und wer nicht. Als AMD sich mal nicht an das mit Intel geschlossene Abkommen gehalten hat, stand Intel kurz davor AMD die Lizenz zu entziehen.
So sieht die Wahrheit nun mal aus :D


Und ja man sollte den Bestechungsskandal NIE vergessen

Das sehe ich anders. Es gibt wichtigeres im Leben als NIE zu vergessen, welcher Konzern irgendwann mal irgendwelchen Mist gemacht hat, denn alle haben irgendwie und irgendwo Dreck am stecken. Wenn man danach geht, dann dürftest du noch nicht mal das Licht einschalten, oder auch nur 1 Liter Benzin kaufen....
 
Zuletzt bearbeitet:
OpenCL nur unter anderem (wens mal nicht anders geht^^)
aber hauptsächlich OpenGL und die dazu gehörigen Java-Aufbauprogramme.
Ich hatte auch schon das vergnügen mit DirectX zu arbeiten was mir aber net so geviel.
Mit OpenAL hatte ich auch schon mal das vergnügen
 
Wenn ich sie nicht hören wollte, würde ich nicht fragen :schief:

Also die x86 Architektur hat Intel entwickelt und eingeführt und lizenziert sie dementsprechend auch. IBM hat erst 3 Jahre später den passenden PC dazu gebaut, was wiederum nichts mit AMD zu tun hat.
Von daher liegt es an Intel zu entscheiden, wer x86 CPUs bauen darf und wer nicht. Als AMD sich mal nicht an das mit Intel geschlossene Abkommen gehalten hat, stand Intel kurz davor AMD die Lizenz zu entziehen.
So sieht die Wahrheit nun mal aus :D
Ich weiß das Intel die x86 Architektur erfunden hat, und daran die Urheberrechte trägt :ugly: Das habe ich aber auch niemals abgestritten. Mir ging es darum, das IBM als Kunde von Intel, eben Intel dazu gezwungen hat, an andere Unternehmen eine x86 Lizenz auszugeben, bzw. den 8086 auch bauen zu lassen, weil Intel die Nachfrage von IBM nicht sicher decken konnte. IBM hat Intel da die Pistole auf die Brust gedrückt. Das ist aber schon Ewigkeiten her :ugly: Ich hab mal geschaut, ob ich dazu was auf die Schnelle finde, aber sorry, leider im Moment nicht gefunden. Marc oder Raff können da aber sicherlich was zu sagen.

Und zu dem Entzug der Lizenz. Ja, das war, wenn ich mich recht erinnere im Rahmen dessen, das AMD Intel eben vorgeworfen hat, nicht lizenzierte Techniken zu verwenden. Da hat AMD meines Wissens am Ende aber Recht erhalten, was aber eh keine Rolle gespielt hat, weil sich beide auf einen Patentaustausch geeinigt haben, bzw. Lizenzen verteilt hat. Intel nutzt z.B. AMDs 64 Bit Technik noch heute mittels Lizenzierung. Nur so btw.

Was du eventuell noch meinen könntest war der Punkt, andem es darum geht, das AMD eventuell geteilt wird. Aus welchem Grund weiß ich nicht mehr genau, ich glaub es war aber im Rahmen der Ausgliederung von GloFo. Da hatte Intel gedroht die Lizenz zu entziehen, damit sind Sie ja aber bekanntlich nicht durchgekommen.

Weißte, du wirfst Leuten vor, Sie würden ihre Aussagen nicht unterfüttern, aber gleichzeitig wirfst du so was wie hier den Lizenzentzug und die Vergehen von AMD in den Raum, bringst aber auch nichts konkretes, womit man sich aus den Fingern saugen muss, was du gemeint hast. Seh das nicht als direkte Kritik daran, dass du das nicht genauer ausgeführt hast, wobei doch ein ganz wenig, sondern mehr als Kritik daran, dass du von anderen alles immer bis ins kleinste Detail ausgeführt haben willst. Das ist einfach SEHR viel aufwand. Daher finde ich es auch nicht schlimm, wenn man etwas grob abhandelt, und wenn einer nachfrägt, dann genauer darauf iengeht. Ich hoffe du verstehst was ich meine.

Ich wäre aber wirklich daran interessiert, wo AMD wirklich! nachgewiesen Lizenzen/Abkommen gebrochen hat. Also auf gut deutsch Dreck-am-Stecken hat. Mir wäre nämlich wirklich kein solche Fall bekannt, wo es nicht nur reine heise Luft war, außer dem Fall, wo AMD und Intel sich gegenseitig an die Gurgel sind, und sich dann mit einem Austausch geeinigt haben. Da hatten wohl beide "Dreck-am-Stecken", wobei das schwer zu sagen ist. Wenn ich mich richtig erinnere waren das halt teils so Spitzfindigkeiten/Trivialitäten von Seiten Intels wie die "Runde-Ecken"-Sache von Apple. Ich kann mich zumindest an nichts wirklich gehaltvolles erinnern, was AMD angeblich abgekupfert haben soll.

Das sehe ich anders. Es gibt wichtigeres im Leben als NIE zu vergessen, welcher Konzern irgendwann mal irgendwelchen Mist gemacht hat, denn alle haben irgendwie und irgendwo Dreck am stecken. Wenn man danach geht, dann dürftest du noch nicht mal das Licht einschalten, oder auch nur 1 Liter Benzin kaufen....
Naja, ich tank eigentlich gar nicht mehr bei Shell, und bei Esso auch nicht, wegen ihrer Umweltsünden usw. Man kann ja im Zweifel zumindest das kleinere Übel wählen. Man macht es sich dadurch aber definitiv nicht einfach.


OpenCL nur unter anderem (wens mal nicht anders geht^^)
aber hauptsächlich OpenGL und die dazu gehörigen Java-Aufbauprogramme.
Ich hatte auch schon das vergnügen mit DirectX zu arbeiten was mir aber net so geviel.
Mit OpenAL hatte ich auch schon mal das vergnügen
Gut, dann hat sich für dich wirklich nicht viel getan. Das liegt aber daran, das OpenGL einfach eine API ist, die die Hardware SEHR weit abstrahiert. Das ist auch durchaus gut so. Grafik-Leuts wollen sich um Grafik kümmern und nicht um hardwarenahe Programmierung.

Wenn du bei OpenCL aber voll einsteigst, und eben die hardwarenahe Programmierung ausnutzt, eventuell sogar selbst PTX-Code (keine Ahnung, ob das unter OpenCL auch so heißt) usw. schreibst, dann sind die Änderungen schon überdeutlich für dich. Aber selbst bei normalem OpenCL merkst du die Unterschiede recht deutlich, wenn du wirklich anfängst auf eine Architektur hin zu optimieren. Und ja, da bekommt man graue Haare von :ugly: :-_-: Daher macht das auch nicht jeder, vor allem weils halt auch richtig Geld kostet.

EDIT:
@cook:
Und was sagt dir jetzt meine Erklärung zu den Unterschieden der iGPU. Was ziehst DU da jetzt als Resumee?
 
Ich weiß das Intel die x86 Architektur erfunden hat, und daran die Urheberrechte trägt :ugly: Das habe ich aber auch niemals abgestritten. Mir ging es darum, das IBM als Kunde von Intel, eben Intel dazu gezwungen hat, an andere Unternehmen eine x86 Lizenz auszugeben, bzw. den 8086 auch bauen zu lassen, weil Intel die Nachfrage von IBM nicht sicher decken konnte. IBM hat Intel da die Pistole auf die Brust gedrückt. Das ist aber schon Ewigkeiten her :ugly: Ich hab mal geschaut, ob ich dazu was auf die Schnelle finde, aber sorry, leider im Moment nicht gefunden. Marc oder Raff können da aber sicherlich was zu sagen.

Ich vermute mal, wie das damals nun alles gelaufen ist, kann man wohl heute nur noch spekulieren. Ich für meinen Teil war da leider erst 3, als Intel x86 brachte:D. Die einzig halbwegs brauchbare Info-Quelle heutzutage für solche Zusammenhänge ist halt Wikipedia.

http://de.wikipedia.org/wiki/X86-Prozessor

Hier wird halt kurz angerissen, dass AMD seinerzeit Intel-Prozessoren nachgebaut hat, was wiederum zu einem Rechtsstreit führte, wo man sich außergerichtlich einigte und AMD gezwungenermaßen eigene Architekturen bringen musste:

AMD

Was du eventuell noch meinen könntest war der Punkt, andem es darum geht, das AMD eventuell geteilt wird. Aus welchem Grund weiß ich nicht mehr genau, ich glaub es war aber im Rahmen der Ausgliederung von GloFo. Da hatte Intel gedroht die Lizenz zu entziehen, damit sind Sie ja aber bekanntlich nicht durchgekommen.

Jep, das meinte ich.

Weißte, du wirfst Leuten vor, Sie würden ihre Aussagen nicht unterfüttern

Meine Aussage habe ich einzig aus dem Grund nicht unterfüttert, weil ich eigentlich nicht vorhatte das Thema weiter zu vertiefen, es sei denn jemand würde nachfragen, dann hätte ich (wie jetzt geschehen) entsprechende Links nachliefern können.

aber gleichzeitig wirfst du so was wie hier den Lizenzentzug und die Vergehen von AMD in den Raum

Das bezog sich einzig auf die Lizenzvergabe seitens Intel, nicht aber darauf was AMD verbrochen haben soll (oder halt eben nicht).

dass du von anderen alles immer bis ins kleinste Detail ausgeführt haben willst.

Das ist falsch. Ich hake nur dann nach wenn mich persönlich eine Aussage oder ein Thema interessiert, oder ich aber Zweifel an gewissen Aussagen habe.
Genau so handhabe ich das auch mit meinen Aussagen. Wer nachfragt bekommt Quellen, wird nicht nachgefragt, dann lasse ich das so stehen.

Daher finde ich es auch nicht schlimm, wenn man etwas grob abhandelt, und wenn einer nachfrägt, dann genauer darauf iengeht. Ich hoffe du verstehst was ich meine.

Kommt sich darauf an. Nachfragen damit zu beantworten, dass man bitte selber googlen soll, oder halt studieren, finde ich dann doch etwas eigenartig.
Ich meine, du hast dir wenigstens die Mühe gegeben das Ganze verständlich zu erklären, obwohl es ja ursprünglich nicht deine Aussage war.

Ich wäre aber wirklich daran interessiert, wo AMD wirklich! nachgewiesen Lizenzen/Abkommen gebrochen hat. Also auf gut deutsch Dreck-am-Stecken hat.

Ich habe nirgendwo behauptet, dass AMD Dreck am stecken hat. Ich habe nur gesagt, dass sie beinahe die Lizenz verloren hätten. Einmal wegen nachbauen von Intel CPUs, und einmal deswegen:

Intel droht AMD mit Entzug der x86-Lizenz - Golem.de

Und was sagt dir jetzt meine Erklärung zu den Unterschieden der iGPU. Was ziehst DU da jetzt als Resumee?

Mein persönliches Resümee sieht so aus, dass die nächsten Jahre in dem Bereich sehr, sehr spannend werden. Im Moment hat AMD GPU-seitig in vielerlei Hinsicht die Nase vorn (wenn man Privat-/Profianwender/Entwickler einbezieht). Einiges was du beschreibst, ist zwar tatsächlich für den Privatanwender nicht sooo maßgeblich, aber dennoch interessant zu wissen.
Die Sorge die ich habe ist die, dass die iGPUs mittel- bis langfristig die "echten" Grafikkarten vom Markt verdrängen könnten. Nicht unbedingt im Profibereich, sondern eher im Privatbereich. Je leistungsstärker die iGPUs werden, und je mehr die Programmierer diese auch nutzen (z.B. zum beschleunigen von Anwendungen), desto weniger braucht man noch diskrete Grafiklösungen.
So oder so scheint AMD in diesem Bereich auf einem sehr, sehr guten Weg zu sein.
 
Zuletzt bearbeitet:
Ich vermute mal, wie das damals nun alles gelaufen ist, kann man wohl heute nur noch spekulieren. Ich für meinen Teil war da leider erst 3, als Intel x86 brachte:D. Die einzig halbwegs brauchbare Info-Quelle heutzutage für solche Zusammenhänge ist halt Wikipedia.

http://de.wikipedia.org/wiki/X86-Prozessor

Hier wird halt kurz angerissen, dass AMD seinerzeit Intel-Prozessoren nachgebaut hat, was wiederum zu einem Rechtsstreit führte, wo man sich außergerichtlich einigte und AMD gezwungenermaßen eigene Architekturen bringen musste:

AMD


Das bezog sich einzig auf die Lizenzvergabe seitens Intel, nicht aber darauf was AMD verbrochen haben soll (oder halt eben nicht).
Ich versteh da aber WIRKLICH nicht, wie du daraus einen Strick für AMD drehen willst. Wo haben die sich denn was zu schulden kommen lassen? Es gab ein Lizenzabkommen und gut war. Was ist daran bitte verwehrflich? Und btw. wie schon gesagt. Für die Vergabe dieser Lizenz war IBM verantwortlich... Ich hoffe Marc meldet sich diesbezüglich mal zu Wort ;)

AMD hat da aber zu keiner Zeit offensichtlich und mit kalkül Recht gebrochen. Intel hat halt versucht die Lizenz zu entziehen, weil Intel zu stark wurde. Dann hat AMD aber selbst entwickelt, und z.B. AMD64 patentiert, was dann aber plötzlich Intel haben wollte, weshalb eine gegenseitig Lizenzierung zustande gekommen ist, weil sich beide ins abseits manövriert hatten. Keine hätte ohne die Sachen des anderen mehr vernünftig weiter machen können.

An den Abläufen seh ich weder bzgl AMD noch bzgl Intel etwas verwerfliches. Ist doch klar, das Intel sobald AMD groß genug war, nicht mehr wollte, dass die einfach ihre Prozessoren nachbauen dürfen, zumal IBM eben sehr geschwächt wurde, und nicht mehr den Stellenwerte hatte wie zuvor. Der Markt hatte sich halt verändert.

Nur den beabsichtigten Lizenzentzug für AMD wegen der Abspaltung von GloFo kann man wirklich kritisieren, und das wurde auch schon damals gemacht. Da wollte Intel einfach ihre Marktstellung sichern, mit allen Mitteln... Wie wir ja aber gut wissen, sind Sie damit aber nicht durch gekommen, und das auch zu Recht...

Jep, das meinte ich.
Das war aber ein reines Machtspiel, bei dem Intel versucht hat einen unliebsamen Konkurrenten unter Druck zu setzen. Ich hatte das damals schon aktiv mitbekommen. Die hatten eigentlich keine guten Erfolgsaussichten dabei. Intel hatte hier wirklich etwas seltsam argumentiert wie ich finde, und man ist eigentlich davon ausgegangen, dass das nicht praktizierbar war. Es gab damals auch allgemein einen SEHR großen Aufschrei bzgl. Intels vorhaben.

Es ist halt wirklich so ein bischen der Vorgänger der "Runden-Ecken" Thematik wie ich finde.


Ich habe nirgendwo behauptet, dass AMD Dreck am stecken hat. Ich habe nur gesagt, dass sie beinahe die Lizenz verloren hätten. Einmal wegen nachbauen von Intel CPUs, und einmal deswegen:

Intel droht AMD mit Entzug der x86-Lizenz - Golem.de
Ähm doch, du meintest doch, das AMD auch nicht besser sei als Intel, als Leute meinten, Sie würden keine Intel kaufen wollen, weil Intel die Bestechungen durchgezogen hat. Da bist du mit dem Argument gekommen, das AMD Intel CPUs früher auch mal nachgebaut hätten, und das war ne Anschudligung in dem Zusammenhang.
Aber da gibt es gar nichts anzuschuldigen, da dies eben Lizenzbauten waren...

Und noch was allgemeines:
Manche Themengebiete sind halt SEHR kompelx. Du kannst wirklich nicht erwarten, das sich jemand hinsetzt, und sich ne Stunde Zeit nimmt, um dir zu erklären, warum etwas so und so ist. Es ist halt teilweise für den Laien eben wirklich nicht zu verstehen, warum etwas so ist und nicht anders, und warum dazwischen nen Unterschied ist, oder nicht, oder warum etwas sonderlich toll ist. Um das zu verstehen musste teilwese halt wirklich einfach selbst damit gearbeitet und dich schon dumm und dämlich geärgert haben über gewisse Dinge, um das einfach einschätzen zu können. Sich dann aber einfach hin zu stellen, und praktisch zu sagen: "Das versteh ich nicht, also ist es Mist" ist halt so ne Sache. Man kann halt nicht immer alles verstehen. Ich sitzt teilweise auch ne ganze Weile da, und frag mich, warum jemand etwas so und nicht anders macht, bis ichs dann versteh, weil es einfach verdammt fancy zum Teil ist. Da brauchts oft einfach Erfahrung, um die Zusammenhänge zu erkennen, und die hat man oder man einfach nicht. Ich schau mir heutzutage auch manche Sachen einfach an und find die Lösungen, bzw. was daran schlecht ist usw. verdammt schnell heraus, einfach weil ich viel damit schon gemacht habe und verdammt viele unterschiedliche Sachen schon kenne, und eben verdammt viele Sachen kombinationen von Sachen sind, die schonmal da waren, bzw konzepte eben ausgebaut werden. Da könnte ich aber sogar viele meiner Kommolitonen fragen, und die würden keinen blassen schimmer haben, einfach weil Sie nicht so tief in der Hardware drin sind. Dafür sagen mir halt andere Sachen, die die machen nicht sonderlich viel. Jeder spezialisiert sich halt auf einen anderen Bereich, und es gibt verdammt viele Bereiche.

Mein persönliches Resümee sieht so aus, dass die nächsten Jahre in dem Bereich sehr, sehr spannend werden. Im Moment hat AMD GPU-seitig in vielerlei Hinsicht die Nase vorn (wenn man Privat-/Profianwender/Entwickler einbezieht). Einiges was du beschreibst, ist zwar tatsächlich für den Privatanwender nicht sooo maßgeblich, aber dennoch interessant zu wissen.
Die Sorge die ich habe ist die, dass die iGPUs mittel- bis langfristig die "echten" Grafikkarten vom Markt verdrängen könnten. Nicht unbedingt im Profibereich, sondern eher im Privatbereich. Je leistungsstärker die iGPUs werden, und je mehr die Programmierer diese auch nutzen (z.B. zum beschleunigen von Anwendungen), desto weniger braucht man noch diskrete Grafiklösungen.
So oder so scheint AMD in diesem Bereich auf einem sehr, sehr guten Weg zu sein.
Und was wäre daran so schlecht, wenn es keine dedizierten GPUs mehr geben würde, weil man Sie nicht mehr braucht, und/oder Sie im Vergleich zu APUs einfach ineffizient sind?

Wenn du 30% Verbrauch einsparen könntest, würdest du dann nicht auch auf 5% Leistung zum selben Preis verzichten? Also ich würde das relativ sicher machen.
 
Ich versteh da aber WIRKLICH nicht, wie du daraus einen Strick für AMD drehen willst. Wo haben die sich denn was zu schulden kommen lassen?

Mache ich doch gar nicht. Wie schon mal gesagt wollte ich dieses Thema gar nicht weiter vertiefen.

Diese Aussage von mir war einfach nur sarkastisch gemeint
Ich meine, AMD hat früher dreister Weise unerlaubt Intel CPUs nachgebaut. Das wäre doch auch ein Grund keine AMD CPUs zu kaufen, oder? :ugly: Denn so was darf man doch nicht unterstützen.....Was kauft man aber dann für seinen PC? :schief:

und bezog sich darauf:
Aber, und das ist der Punkt, ich unterstütze doch kein Unternehmen das sich mit kriminellen Methoden Vorteile verschaft! Egal ob dieses Unternehmen das bessere Produkt herstellt und ob das vor 4 Jahren oder 4 Monaten war. Das ist eine Frage der Moral!

Ich will AMD aus rein gar nichts einen Strick drehen.;)
Ich wollte nur Toxoplasma etwas auf den Arm nehmen.

Und noch was allgemeines:
Manche Themengebiete sind halt SEHR kompelx. Du kannst wirklich nicht erwarten, das sich jemand hinsetzt, und sich ne Stunde Zeit nimmt, um dir zu erklären, warum etwas so und so ist. Es ist halt teilweise für den Laien eben wirklich nicht zu verstehen, warum etwas so ist und nicht anders, und warum dazwischen nen Unterschied ist, oder nicht, oder warum etwas sonderlich toll ist. Um das zu verstehen musste teilwese halt wirklich einfach selbst damit gearbeitet und dich schon dumm und dämlich geärgert haben über gewisse Dinge, um das einfach einschätzen zu können. Sich dann aber einfach hin zu stellen, und praktisch zu sagen: "Das versteh ich nicht, also ist es Mist" ist halt so ne Sache. Man kann halt nicht immer alles verstehen. Ich sitzt teilweise auch ne ganze Weile da, und frag mich, warum jemand etwas so und nicht anders macht, bis ichs dann versteh, weil es einfach verdammt fancy zum Teil ist. Da brauchts oft einfach Erfahrung, um die Zusammenhänge zu erkennen, und die hat man oder man einfach nicht. Ich schau mir heutzutage auch manche Sachen einfach an und find die Lösungen, bzw. was daran schlecht ist usw. verdammt schnell heraus, einfach weil ich viel damit schon gemacht habe und verdammt viele unterschiedliche Sachen schon kenne, und eben verdammt viele Sachen kombinationen von Sachen sind, die schonmal da waren, bzw konzepte eben ausgebaut werden. Da könnte ich aber sogar viele meiner Kommolitonen fragen, und die würden keinen blassen schimmer haben, einfach weil Sie nicht so tief in der Hardware drin sind. Dafür sagen mir halt andere Sachen, die die machen nicht sonderlich viel. Jeder spezialisiert sich halt auf einen anderen Bereich, und es gibt verdammt viele Bereiche.

Tja, der Punkt ist aber mMn folgender:
Wir sind hier in einem Forum, wo man sich öffentlich äußert. Und wenn man sich öffentlich zu einem Thema äußert, egal wie komplex es ist, dann muss man damit rechnen, dass nachgefragt wird. Und diese Nachfragen mit "Google doch selber" abzutun, ist einfach nur daneben. Wenn jeder hier einfach nur noch Behauptungen aufstellt, ohne diese auf Nachfrage zu untermauern, und ohne auf Nachfrage für die Aussage(n) Erklärungen und Quellen zu liefern, dann ist der Sinn und Zweck eines Forums, und vor allem einer Diskussion einfach nicht mehr gegeben.

"Llano ist schneller als Intels HD4000!"
"Warum?"
"Google doch selber, wenn du es wissen willst!"



"Warum brechen Nvidia Karten bei hohen Auflösungen/Settings so sehr ein gegenüber AMD?"
"Google es nach, dann weißt du es."



"Warum skalierern Karten im Multi-GPU Betrieb nicht mit 100%?"
"Google ist dein Freund.



Sorry, aber das kann nicht Sinn und Zweck eines Forums sein.....


Und was wäre daran so schlecht, wenn es keine dedizierten GPUs mehr geben würde, weil man Sie nicht mehr braucht, und/oder Sie im Vergleich zu APUs einfach ineffizient sind?

Wenn du 30% Verbrauch einsparen könntest, würdest du dann nicht auch auf 5% Leistung zum selben Preis verzichten? Also ich würde das relativ sicher machen.

Na ja. In so ziemlich allen Anwendungsgebieten wäre das absolut keine Problem für mich. Im Gegenteil.
Allerdings würde ich mir zum Spielen in Zukunft auch weiterhin fette Grakas wünschen, die ich in meinen PC einbauen kann :devil:
 
Zuletzt bearbeitet:
Mache ich doch gar nicht. Wie schon mal gesagt wollte ich dieses Thema gar nicht weiter vertiefen.

Diese Aussage von mir war einfach nur sarkastisch gemeint


und bezog sich darauf:


Ich will AMD aus rein gar nichts einen Strick drehen.;)
Ich wollte nur Toxoplasma etwas auf den Arm nehmen.
Dann solltest du bedenken, dass wir hier keine gesprochene Sprache verwenden, und diese Feinheiten in der nonverbalen Kommunikation oft völlig unter gehen. Aus dem Zuasmmenhang heraus war es nämlich, zumindest für mich, überhaupt nicht ersichtlich, das du da jemanden auf den Arm nehmen wolltest :ugly: Damit hätte ich ehrlich gesagt am letzten Gerechnet :ugly:

Tja, der Punkt ist aber mMn folgender:
Wir sind hier in einem Forum, wo man sich öffentlich äußert. Und wenn man sich öffentlich zu einem Thema äußert, egal wie komplex es ist, dann muss man damit rechnen, dass nachgefragt wird. Und diese Nachfragen mit "Google doch selber" abzutun, ist einfach nur daneben. Wenn jeder hier einfach nur noch Behauptungen aufstellt, ohne diese auf Nachfrage zu untermauern, und ohne auf Nachfrage für die Aussage(n) Erklärungen und Quellen zu liefern, dann ist der Sinn und Zweck eines Forums, und vor allem einer Diskussion einfach nicht mehr gegeben.

"Llano ist schneller als Intels HD4000!"
"Warum?"
"Google doch selber, wenn du es wissen willst!"



"Warum brechen Nvidia Karten bei hohen Auflösungen/Settings so sehr ein gegenüber AMD?"
"Google es nach, dann weißt du es."



"Warum skalierern Karten im Multi-GPU Betrieb nicht mit 100%?"
"Google ist dein Freund.



Sorry, aber das kann nicht Sinn und Zweck eines Forums sein.....
Nein, das sollte es auch definitiv nicht, da gebe ich dir Recht, aber wenn ich dir z.B. sage, ein flache Adressraum ist besser, weil es dir vieles einfacher macht, und du dann sagst, warum, dann würde ich dir auch sagen, google danach, oder programmier es einfach mal selbst damit im Studium. Das sind einfach so Dinge, die muss man selbst gemacht haben, sonst kann man Sie gar nicht wertschätzen. Verstehst du was ich meine?

Zudem gibt es Dinge, die man sooo nicht abschätzen kann. Z.B. Hersteller sagt, wir unterstützen preemtive-sheduling. Sag ich GEILE Sache. Fragst du, wofür soll das nützlich sein, Sag ich, na das macht halt manche Algorithmen einfacher, und damit haste am ende einen teilweise großen Performancevorteil, fragst du: und was hab ich davon?

Und da wirds dann spätestens kacke, weil du da halt erst mal gar nichts von hast, weil das erst kommt, oder eben erst gerade gekommen ist. In Software findest du das meist erst in 1-2 Jahren dann. So lange braucht die Softwarebranche einfach. Das ist son bischen das Henne-Ei Problem. Keiner nutzt es, weil es das nicht nicht, es gibt das aber nicht, weil es keiner nutzt... Da müssen die Hardwarehersteller einfach offensiv nach vorne gehen.

Gerade bei Preemptive-Sheduling wirds dann halt auch mit dem Erklären SEHR schwierig. Ich würde dir nen Wiki-link hinknallen, den du lesen kannst, aber wahrscheinlich damit nichts anfangen kannst. Selbst bei mir im Studium würden die meisten mich wohl mit fragendem Blick anschauen, einfach weil Sie selbst mit GPUs noch nicht gearbeitet haben, und eben das Problem nicht sehen, das man damit löst. Nen Beispiel fällt mir dazu auch nicht ein, einfach weil man in seiner Denkweise, wie man Probleme löst, diese schon automatisch umgeht. Das ist GANZ schwer, sich da dann ein gutes Beispiel zu überlegen, was "einfach" ist. Wenn man aber dann beim implementieren ist, taucht man bei gewissen Problemen halt auf natürliche Weise immer wieder auf solche Probleme. Hatte ich auch schon mehrfach, wo man sichs Hirn verrenken muss, um das effizienz zu lösen. Ausm Stehgreif fällt einem so was dann aber nicht ein. Das Thema ist halt einfach komplex. So komplex, das man gar nicht weiß, wo man überhaupt anfangen soll, einfach weil es so vielschichtig ist.

Weißte was ich mein?

Na ja. In so ziemlich allen Anwendungsgebieten wäre das absolut keine Problem für mich. Im Gegenteil.
Allerdings würde ich mir zum Spielen in Zukunft auch weiterhin fette Grakas wünschen, die ich in meinen PC einbauen kann :devil:
Warum willste fette GraKas, die bei 5% Mehrleistung 30% Mehrverbrauch haben?
 
Dann solltest du bedenken, dass wir hier keine gesprochene Sprache verwenden, und diese Feinheiten in der nonverbalen Kommunikation oft völlig unter gehen. Aus dem Zuasmmenhang heraus war es nämlich, zumindest für mich, überhaupt nicht ersichtlich, das du da jemanden auf den Arm nehmen wolltest :ugly: Damit hätte ich ehrlich gesagt am letzten Gerechnet :ugly:

Dann mach ich es beim nächsten mal etwas deutlicher :D

Nein, das sollte es auch definitiv nicht, da gebe ich dir Recht, aber wenn ich dir z.B. sage, ein flache Adressraum ist besser, [......]
Weißte was ich mein?

Ja klar. Man kann natürlich nicht verlangen, dass jemand quasi hier seine Diplomarbeit schreibt um einen Sachverhalt zu erklären.
Ich hätte mir halt nur in der Situation hier gewünscht, dass er im Groben konkretisiert was er mit seiner Aussage meint.

Aber genug davon ;)
Wir bewegen uns etwas auf OT-Pfaden:D

Warum willste fette GraKas, die bei 5% Mehrleistung 30% Mehrverbrauch haben?

Ich sage mal so: Du betrachtest das rational, was ja auch gut ist. Ich bin im Gegensatz dazu ein echter Freak was Hardware angeht.:ugly:
Und deswegen hätte ich halt auch weiterhin gerne meine Grafikkarte im Rechner.
 
Zurück