Vega, Navi und Next Gen: AMD detailliert die Zukunft der GPU-Chips

Mir wird dann fanboyism unterstellt = hatte selber Vega56 3 monate lang und die Red Devil 64 sucht noch nen neuen besitzer mal wieder mit vega lässt sich gut verdienen .lol braicht wer ne 64 red devil originalverpackt nicht mal geöffnet ? :D
 
neue infos zu den Features gab es nicht oder? - bezüglich Primitive Shaders etc. evtl. hätte man ja erwahnen können ob diese mit 7nm doch eine einführung feiern können.

Offtopic wow diese toxiticy gegen amd ist ja echt krass
 
7nm Vega wird krass abgehen, Navi sowieso. :daumen: Das sieht übel für NV aus. Die gegenwärtige Marktdominanz von AMD wird sich ausbauen.

20%.... "Marktdominanz". Keine Chance gegen Nvidias letzte Generation in 28nm was Effizienz betrifft aber due haben leider auch 16nm Chips und bis dahin auch 7nm. Da ich weiß, dass es bei dir kein Sarkasmus war kann ich mich nur über deine Realitätswahrnehmung wundern...

Ja mit etwas Glück schlägt man dann vielleicht die dann 3 Jahre alte 1080 endlich. Vielleicht aber wieder doch nur im Heizvermögen
 
....häufig rendert die zwei jahre alte GTX1080 um 20-30FPS schneller als RX64, sehr häufig sogar !
UE4 gehört zu den schönsten Engines wenn sie mal ordentlich zum einsatz kommt wie in Hellblade ! Auch hier schwächeln die AMD karten enorm ! UE4 ist die Zukunft, ja !

Das schlimmste Merkmal sind für mich die fast 20°C Unterschied zwischen den Karten, siehe Hellblade Youtube-Video... Ich hab IMMER! und ich meine IMMER vor der Gigabyte 780ti (Anfang 2014) und Zotac GTX 970 AMP! Extreme Core Ed. ausnahmslos Radeon Karten gehabt, (AGP-Radeon HD,PCIe- 4700er, 4800er, 6800er) aber im ITX-Case kann ich mir das nicht leisten mit derartigen Temperaturunterschieden.

Ich hab wochenlang gewartet und geschaut, was es sinnvolles gibt mit 2-Slot und hoher (nicht höchster!) Leistung, wenig Strombedarf und minimaler Lautstärke... Da blieb nicht viel, besonders von AMD. Gebessert hat sich das leider auch noch nicht.

Sowas lautes, warmes geht einfach nicht mehr... Scheiss was aufs gleichziehen (Meine Meinung!), lieber weniger stromdurstig, dafür leise und kühl, mir sind bei 100 FPS+ die FPS-Unterschiede wurscht... AMD war immer günstiger, früher aber etwas leiser mit Customkühlung, natürlich auch etwas langsamer... Aber Wayne, solange man seine Lieblingstitel flüssig daddeln kann.

Klar macht der Leistungsthron auch einiges für den "Entwickler" an Geld flüssig, aber sehr viele Endverbraucher können sich den Leistungthron nunmal gar nicht leisten.
 
Na ich sagte es letztes Jahr und wie man sieht hatte ich Recht..

AMD gibt auf, weil gegen die Fanboys kommt man nicht an.
Wir haben nun auf 11! Seiten Gelesen wie ... Vega ist, und der einzige der Dagegen Objektiv schrieb wurde gesperrt
Nochmal zur Info: die LETZTE AMD/ATI Karte die Gewinne brachte war die 9700/9800 ... Sorry aber da würde ich auch aufgeben, wenn selbst eine sehr gute Tahiti nicht angenommen wird.
Vega ist ein One fits all, und naja nicht High End Gamer.

Ganz ganz großes Kino.
Achja ich freue mich auf Ampere mit 450€ für die Mittelklasse ;)
Weniger verständlich ist für mich, dass man auch noch meckert das AMD aufgibt.. Nunja AMD gibt den High End Markt auf, und das aus Geldmangel.

Ich geb mal nen scharfen Tipp:
Da ihr das ja alle hier viel besser könnt, bewerbt euch.. Leute wie Slot, Sonnenkönig oder Sunny können Frau Su gerne mal zeigen wie man es richtig macht.. AMD nimmt euch, wenn ihr was aufm Kasten habt ;)
Sonst rate ich einfach mal ein paar Gänge zurückzuschrauben.

Und kommt mir nicht mit Fanboy..Ich bin ein Freund von: Selber besser machen, wenn man andere verteufelt. Und wenn man nur blubbern kann, dann einfach die Wortwahl zurückschrauben.

Aber klar feiert ein fast 10 Jahre altes DX11, obwohl Vulkan und DX12 auch aus Technischer Sicht für Spieler zu forcieren sind. Naja Stammtischgeblubber halt. Wenn Vega sooo fail ist, warum WILL Intel dann Vega? Und Nebenbei die Vega M soll ne 1060Max-Q schlagen bei besserer Effizienz.
 
Zuletzt bearbeitet:
N
Nochmal zur Info: die LETZTE AMD/ATI Karte die Gewinne brachte war die 9700/9800 ... Sorry aber da würde ich auch aufgeben, wenn selbst eine sehr gute Tahiti nicht angenommen wird.
Wo kommt eigentlich immer dieser Schmarrn her, dass die 9000er die einzig rentablen/technisch besseren Radeons waren?:rollen:
Und noch dazu die obskurere Behauptung, dass nur damit "Gewinne" gemacht wurden?
Warum ist dann ATi danach nicht pleite gegangen?
 
Sowas lautes, warmes geht einfach nicht mehr... Scheiss was aufs gleichziehen (Meine Meinung!), lieber weniger stromdurstig, dafür leise und kühl, mir sind bei 100 FPS+ die FPS-Unterschiede wurscht... AMD war immer günstiger, früher aber etwas leiser mit Customkühlung, natürlich auch etwas langsamer... Aber Wayne, solange man seine Lieblingstitel flüssig daddeln kann.

Genau hier sehe ich auch das Potential. AMD muss einfach mal wieder ein Wagnis eingehen, nicht unbedingt auf das High-End Segment schauen und dafür eine richtig gute, effiziente (obere) Mittelklassekarte auf den Markt bringen. Angreifen kann AMD immer über den Preis, ich glaube kaum das Nvidia von ihren Margen weder runter kommen wollen noch können. Aber woher soll dieser Wunder-Chip kommen? :ka:
 
Warum ist dann ATi danach nicht pleite gegangen?

Guck dir die Gewinne von ATI an... Die wären pleite gegangen innerhalb weniger Jahre, denn es gab bis auf die x850 und 1800 nichts was wirklich Geld hätte bringen können. Die HD2000 ist eine AMD Erfindung, GCN der Versuch wieder Fuß zu fassen(meines Wissens nach sogar ganz ohne das ATI Kernteam) ... Und dann guck dir an was AMDs Dirk Fruehe damals hingelegt hat für ATI... Dann kommst du auch selber drauf..radeon mobile war das einzige Tafelsilber was AMD damals den Arsch hätte retten können. Dummerweise meinte man ja es zu verkaufen.
Du musst kein wirtschatsprofessor sein, um zu sehen wie tot ati war und was es AMD gekostet hat. Bulldozer war das Aufrufezeichen dahinter.

Gesendet von meinem Redmi Note 4 mit Tapatalk
 
Wieder diese dämliche Prämisse, dass ATi pleite gegangen wäre, hätte "Freund und Helfer" AMD sie nicht gerettet.:schief:

Der Umsatz und Gewinn von ATi ist bis vor der Übernahme gestiegen, Probleme hatten sie zwischenzeitlich nur, weil die Radeon X1800 verspätet auf dem Markt gekommen waren.
Noch dazu, was offenbar einfach verdrängt wird, ist, dass sie mit der Xbox 360 und der Wii die damals bei weitem lukrativeren Konsolendeals abgeschlossen haben, noch dazu hatte Nvidia vor der GeForce 8800 auch nur geringfügig mehr Umsatz generiert.
Danach wäre so oder so eine Flaute gekommen, na und? Die hatte AMD auch, jahrelang, sind die pleite gegangen?
Nvidia war damals nicht größer als ATi, es war sogar, gemessen an der Mitarbeiterzahl, eher umgekehrt.
Geld wird nicht nur (oder gerade eben nicht) im High-End-Markt verdient - das war grade erst recht vor 10 Jahren so.
Und was hat AMD für ATi hingelegt? Knapp fünfeinhalb Milliarden $, die besser in Forschung und Entwicklung aufgehoben wären und die nach der Übernahme an allen Ecken und Enden gefehlt hat? Genau dies war doch das Schlagloch in das sich AMD manövriert hat, als Intel plötzlich mit dem Core-2 ankam und AMD fast 10 Jahre lang im Desktop-Markt kein Land mehr gesehen hat.

Nö, die Übernahme war eine absolute Schnapsidee und ich kann nur bis heute über jeden den Kopf schütteln, der das geil fand (müssen wohl überwiegend AMD-Fanboys sein).:fresse:

Bitte, das hat nichts mit wirtschaflticher Analyse zu tun, das ist schlicht dilettantisches Reaktionärsdenken, wenn dies ein Indikator für eine Unternehmenspleite sein soll, dann müsste praktisch jede Firma nach einem Flop dicht machen.

Nvidia hatte den NV30 auch überlebt.;)
 
Zuletzt bearbeitet:
Also heißt das auf gut Deutsch das interessierte Spieler die eine Karte von AMD wollen im High-End-Bereich nach diesem Flop Vega schon wieder 2 Jahre warten dürfen?
Jetzt da der Koduri nicht mehr da ist wer leitet die Radeon Technologie Group?
Nvidia im Business-Segment unter Druck setzen mit der Gurke Vega?
Haben die nicht mitbekommen das Nvidia schon Volta gebracht hat mit dem größten Die den es bis jetzt je gab?
Wann kommt eine Mittelklassekarte wie die 480/580?

Kann sich AMD nicht einfach wieder auf den Gamermarkt konzentrieren denn die Gamer bringen das Geld und nicht der Profimarkt.

Was man jetzt weiß ist das Vega 11 also die Mobile-Variante ist und Vega 20 wohl nie kommen wird wenn nächstes Jahr Navi kommen soll.
Naja, ich weiß warum ich mir eine 1080 geholt habe da AMD langsam aber sicher untergeht im GPU-Bereich da helfen auch die Gurke Vega im Mobile-Bereich nicht!
 
Wenn sich der Mining Markt mehr lohnt ist doch in Ordnung.
Darum ging es aber nicht, es ging darum, ob ausreichend Karten von Vega 10 produziert werden und die Logistik stimmt und das tut sie nicht.
Es ist auch mehr als anzuzweifeln, dass der Mining-Markt AMD besonders hilft, der CEO gibt nur einen einstelligen Anteil an und letztendlich beziehen die Hersteller von AMD und AMD verkauft nur die GPUs im Channel, von den höheren Preisen haben sie vermutlich wenig bis nichts.

AMD muss halt auf Vulkan hoffen, wie viele Vulkan spiele erscheinen 2018 ?! Ich habe bis dato nicht ein Spiel gesehen.
Nicht einmal in AMD evolved titeln mit DX12 unterstützung vorne , siehe Sniper Elite 4
[...]
und dx12 wird auch dieses jahr sehr rar. NV braucht kein DX12 um sagenhaft zu performen,nue effekte bringt die neue API auch nicht ! Wer braucht das ? Richtig, AMD !
DX11 gibt es nicht seit gestern. AMD hatte lange zeit die Architektur zu überarbeiten, nicht passiert.
[...]
Sniper Elite 4 ist kein Gaming Evolved Titel.
DX12 bringt auch neue Effekte im Vergleich zu DX11.0-11.2 mit, DX11.3 besitzt ebenso viele der neuen Features, aber ist ebenso W10 exklusiv.
Bisher verwendet kein Entwickler die neueren Features von den neueren APIs.
Nividias GameWorks Initiative hat HFTS im Angebot, welches Conservative Rasterization für feine Schatten in Watch Dogs 2 und The Division verwendet, exklusiv über die proprietäre NVAPI.
Theoretisch wäre dies aber ebenso unter DX11.3/12 möglich, herstellerübergreifend, aber dann eben Windows 10 exklusiv.
Die NVAPI funktioniert nur unter Nvidia, dafür OS unabhängig bzw. in dem Fall vermutlich von W7-10.

neue infos zu den Features gab es nicht oder? - bezüglich Primitive Shaders etc. evtl. hätte man ja erwahnen können ob diese mit 7nm doch eine einführung feiern können.
[...]
Nein, bezüglich der Primitive Shader hängt das aber wahrscheinlich nur vom Treiber ab und nicht von der Hardware.

[...]
[1] Wir haben nun auf 11! Seiten Gelesen wie ... Vega ist, und der einzige der Dagegen Objektiv schrieb wurde gesperrt
[2] Nochmal zur Info: die LETZTE AMD/ATI Karte die Gewinne brachte war die 9700/9800 ... Sorry aber da würde ich auch aufgeben, wenn selbst eine sehr gute Tahiti nicht angenommen wird.
[3] Vega ist ein One fits all, und naja nicht High End Gamer.
[...]
[4] Aber klar feiert ein fast 10 Jahre altes DX11, obwohl Vulkan und DX12 auch aus Technischer Sicht für Spieler zu forcieren sind. Naja Stammtischgeblubber halt. Wenn Vega sooo fail ist, warum WILL Intel dann Vega? Und Nebenbei die Vega M soll ne 1060Max-Q schlagen bei besserer Effizienz.
1.) Der Einzige welche "objektiv" etwas geschrieben hat, hat einem Diskussionpartner vorgeworfen geistig minderbemittelt zu sein und wurde entsprechend wegen eines persönlichen Angriffs gesperrt.
2.) Es ist eine dumme Theorie, aber vielleicht weil die 9700/9800 starke Produkte waren und Nvidia damals nicht zu Potte kam? Sowie es jetzt umgekehrt ist?
Tahiti wurde vielleicht etwas schwächer angenommen, als maximal möglich, aber dennoch war die Situation deutlich besser, für den Markt und AMD selber, als aktuell.
Hätte AMD aufgebaut und nicht abgebaut, dann wäre die Entwicklung logischerweise positiv verlaufen.
Aber es waren schließlich die Fanboys Schuld, dass AMD aus der ersten GCN Generation finanziell nicht das meiste rausholen konnte.
3.) Nur bedingt, Vega 10 spart an hoher FP64-Leistung oder ECC-Bits bei den SRAM-Strukturen, entsprechend unpassend ist er für viele HPC-Segmente.
Und Double-Rate FP16 ist eine relativ günstige Methode, für den Deep-Learning-Markt, ohne viel Fläche zu kosten.
Im Gegenteil, AMD hat mit Vega am meisten für Spiele verbessert und der angebliche Ballast wird immer übertrieben in die Rechnung einbezogen.
4.) Niemand feiert DX11, aber gute DX11-Leistung relativ konstant über die meisten Titel hinaus ist eine attraktive Eigenschaft.
DX12 und Vulkan kann man gerne forciert haben, aber die praktische Realität erfordert sehr viel Aufwand und technisches Wissen, da gibt es auch genug IHV-Bois welche Entwicklern unfähigkeit vorwerfen, weil sie nicht ihren ganzen Renderer umkrempeln, um das CPU-Bottleneck bei AMD zu umgehen.
Da kann man deinen eigenen Vorwurf wiederverwenden, wer so ein Programmierexperte ist, soll sich doch bei den entsprechenden ISVs bewerben und in wenigen Monaten einen höchst effizienten DX12/Vulkan-Pfad implementieren.

Warum Intel Vega will kann viele Gründe haben, die Umstände und Vertragsdetails sind schließlich geheim.
Aber Nvidia ging Apple scheinbar gegen den Strich, die verwenden seit mehreren Generationen nur AMD Produkte, selbst wenn sie technisch schlechter sind.
Nvidia scheint auch nicht so kooperationsfreudig zu sein wie AMD, vermutlich aufgrund ihrer besseren Position und auch Unternehmenskultur, die man in der Hinsicht natürlich nicht positiv bewerten muss.
 
Dummerweise ist der Intel vega nicht Apple only, laut Intel kommt er sich in andere Modelle.

Und wegen Logistik, da gebe ich dir recht. Gut den Persönlichen Angriff habe ich nicht mehr mitbekommen, ist auch *******.

Grade beim Thema Marketing verkennst du vllt das Thema fanbois. Intel tat natürlich ein übriges mit der Optimierung ultrabook .

Und ich weiß das der Renderer mehr Arbeit von den Studios erfordert, und man lieber die GPU Hersteller den Mist machen lässt, dennoch wenn ich hier manche Kommentare lese, wird mir schlecht. Ich kann mittlerweile verstehen das viele lieber gar nichts mehr sagen. Mit dir kann man wenigstens konstruktive Dispute führen.

Und vllt braucht AMD die wenigen Vega 10 Chips für HPC und Google, das weiß nur AMD wo das hingeht. Grade in bezug Fertigung las ich mal zahlen das TSMC zb. Eigentlich nur noch für Apple optimiert und weiter entwickelt, selbst NV soll keine besonders großen Wafer Kontingente bekommen, leider weiß ich nicht mehr, wo das herkam.

Mich stört aber massiv wenn die Leute nur noch herkommen zwecks Shitstorm.
Und ich sehe mir den Marketshare seit der 9800 bzw X1800 an und verstehe warum man nicht mehr kann. Ryzen wird die nötigen Geldmittel eh konzentrieren um da auch mehr bei raus zu holen. Andererseits bin ich sehr gespannt was die Vega APUs leisten können.

Und zum Thema DX11, brauchst du nur hier in den thread zu gucken.. Kurzsichtig nenn ich das als Unternehmer.

Ach ja two-face, ATI hätte genau was tun sollen? Der 9700 war ebenso ein glücksgriff wie NVs G80. Die Konkurrenz konnte nicht mithalten. Durch den Wegfall von 3dfx hat NV sich sehr lukrative Patente und Know how gesichert, ATI hätte nicht mithalten können, nicht umsonst bot man sich an.. Man hoffte in AMD einen solventen Geldgeber. Naja bei 5mrd Kaufpreis war die Firma heillos überbewertet.

Grettings
Michi

Gesendet von meinem Redmi Note 4 mit Tapatalk
 
Zuletzt bearbeitet:
Und ich sehe mir den Marketshare seit der 9800 bzw X1800 an und verstehe warum man nicht mehr kann. Ryzen wird die nötigen Geldmittel eh konzentrieren um da auch mehr bei raus zu holen. Andererseits bin ich sehr gespannt was die Vega APUs leisten können.
Du kannst die Zeit vor der ATi-Übernahme nicht mit heute vergleichen.:nene:

AMD hatte sich jahrelang auf ihren K8-Lorbeeren ausgeruht und sich schon früher gedacht, "ey, übernehmen wir doch mal einen GPU-Spezialisten". Zuerst haben sie ja Nvidia ein Angebot gemacht, Huangs Ambitionen standen dem aber im Weg.
Dann haben sie für ein Schweinegeld ATi übernommen - und dann kam - ausgerechnet dann - Intel mit dem Core 2 an und hat mit den K8-Athlons den Boden aufgewischt.
Das dringend benötigte Geld für Forschung und Entwicklung war durch den ATi-Kauf reichlich ausgedünnt, man floppte komplett mit dem Phenom I und als der Phenom II kam, hatte Intel schon den Core i7 auf den Markt geworfen.

Find's immer wieder lustig, wie Leute ATi mit der späteren Radeon-Sparte von AMD verlgeichen.
Das waren damals noch ganz andere Zeiten, spätestens mit der Radeon 9700 waren ATi und Nvidia auch auf technische Ebene mehr als ebenbürtig, vorher schon lagen die Umsätze nicht so weit auseinander, ATi hat schon Grafiklösungen verkauft, da gab's "Die Grünen" noch gar nicht und waren besonders im Mittelklasse- und OEM-Markt sehr erfrolgreich.
 
Apple und Intel nehmen AMD (wahrscheinlich) nur aus Preis- / Leistungsgründen. nVidia will bestimmt zu viel vom Kuchen.

Ich wollte mir eigentlich auch ne Vega holen (aufgrund von GTX970, nVidia-Preisgestaltung)... aber am Ende wartete man und wartete und wartete und nichts passierte. Das Marketing wurde bei Vega richtig verkackt, weil der ganze Chip sich wegen dem HBM weiter verzögerte. AMDs Werbestrategie war im Endeffekt, neben der Leistung, der größte Schwachpunkt. Man darf ein Produkt, was sich intern als langsamer als die Konkurrenz herausgestellt haben dürfte, nicht weiter hypen. Und genau das hat AMD gemacht. "Das Warten auf Vega wird sich lohnen!" & "Und Vega ist direkt um die Ecke." Das war Bullshit.
Mit Vega kann man sicherlich super zocken und teilweise kriegt sie auch die 1080Ti klein... aber sie war auch kein Schnäppchen.

Ich drücke AMD weiter die Daumen und hoffe, dass sie die jetzigen Probleme im Grafikbereich in den Griff kriegen und vielleicht schneller als gedacht wieder im absoluten High-End Segment unterwegs sind. Dann kommt nVidia vllt. auch wieder von den hohen Preisen runter. Ich weiß, ich habe diese Art der Preisgestaltung mit dem Kauf der 1080Ti unterstützt - aber das ist das Einzige, was mich bisher an der 1080Ti gestört hat.
 
Wieder diese dämliche Prämisse, dass ATi pleite gegangen wäre, hätte "Freund und Helfer" AMD sie nicht gerettet.
rollen.gif
Es war natürlich umgekehrt. Als klar war, dass der Conroe ein Überflieger wird und AMD die nächsten 5 Jahre nix in der PIpeline hat das dem entgegentreten kann, musste man logischerweise sein Geschäftsfeld von CPU only erweitern.


Guck dir die Gewinne von ATI an... Die wären pleite gegangen innerhalb weniger Jahre, denn es gab bis auf die x850 und 1800 nichts was wirklich Geld hätte bringen können. Die HD2000 ist eine AMD Erfindung,
Wo du dir diesen Blödsinn aus den Fingern saugst? Mannomann. Da ist ja dann gut, dass andere, die so "objektiv" posten gebannt werden.
Die HD2000 ist auf Xenos basierend, dem Xbox Chip der schon vor 2005 in der Testphase war.
AMD hat ATI mitte 2006 übernommen, Ende 2006 waren erste Umstellungen im Gange. Wann war AMDs HD2000 längst schon am Testen? Richtig, 2006. Also nix mit AMD Erfindung. Chipdesign dauert nicht eben 6 Monate, es dauert bei neuen Architekturen eher Jahre. Im Falle der RV770 5 Jahre, und das war nur ein Refresh chip.
GCN der Versuch wieder Fuß zu fassen(meines Wissens nach sogar ganz ohne das ATI Kernteam)
Auch wenn die Architektur oft so performt, als hätten sie Leute designed die noch nie was mit einer GPU zu tun hatten, waren natürlich auch ehemalige ATI Ingenieure dabei.

... Und dann guck dir an was AMDs Dirk Fruehe damals hingelegt hat für ATI... Dann kommst du auch selber drauf..radeon mobile war das einzige Tafelsilber was AMD damals den Arsch hätte retten können. Dummerweise meinte man ja es zu verkaufen.
Du musst kein wirtschatsprofessor sein, um zu sehen wie tot ati war und was es AMD gekostet hat. Bulldozer war das Aufrufezeichen dahinter.
Dabei hatte Locuza doch hinlänglich erklärt, dass die liquiden Mittel von ATI wesentlich höher waren als nach der Übernahme vom überschuldeten AMD.
ATI war nicht am Ende - ganz im Gegenteil, vermutlich wäre GCN um einiges performanter geworden wenn mans weiterhin beim alten ATI mit deren Mittel designed hat.

Und von wegen, die Radeon 9700 war die letzte mit der ATI noch Gewinn gemacht hat.
Rein von den Marktanteilen hat man erst mit der X800 Serie so richtig losgelegt und zumindest bis zur Einführung des G80 immer wieder mal die Führung gehabt.

"Glücksgriffe" gibts bei Jahrelangen Ingenieursprozessen wohl wenige
Und kommt mir nicht mit Fanboy..Ich bin ein Freund von: Selber besser machen, wenn man andere verteufelt. Und wenn man nur blubbern kann, dann einfach die Wortwahl zurückschrauben.
Eine der schlechtesten Ratschlege ever. Nur wenn mans selbst besser kann, darf man also etwas kritisieren? Darf ich also keinen Politiker (im jetzt oder in der Vergangenheit) kritisieren, weil ich es nicht selbst mache?
Was für ein Schmarrn...

Aber klar feiert ein fast 10 Jahre altes DX11, obwohl Vulkan und DX12 auch aus Technischer Sicht für Spieler zu forcieren sind. Naja Stammtischgeblubber halt. Wenn Vega sooo fail ist, warum WILL Intel dann Vega? Und Nebenbei die Vega M soll ne 1060Max-Q schlagen bei besserer Effizienz.
Das Stammtischgeblubber ist ja eher bei dir da: Einfach mal APIs reinwerfen und auf "Zukunft" hinweisen, auch wenn das überhaupt nicht klar ersichtlich ist. Nur weil man da dann 10% besser da steht bei AMD. Oder anders gesagt, nur weil sie es nach 10 Jahren immer noch nicht geschafft haben, ordentliche DX11 Treiber rauszubringen.
 
Zuletzt bearbeitet:
Guck dir die Gewinne von ATI an... Die wären pleite gegangen innerhalb weniger Jahre, denn es gab bis auf die x850 und 1800 nichts was wirklich Geld hätte bringen können. Die HD2000 ist eine AMD Erfindung, GCN der Versuch wieder Fuß zu fassen(meines Wissens nach sogar ganz ohne das ATI Kernteam) ... Und dann guck dir an was AMDs Dirk Fruehe damals hingelegt hat für ATI... Dann kommst du auch selber drauf..radeon mobile war das einzige Tafelsilber was AMD damals den Arsch hätte retten können. Dummerweise meinte man ja es zu verkaufen.
Du musst kein wirtschatsprofessor sein, um zu sehen wie tot ati war und was es AMD gekostet hat. Bulldozer war das Aufrufezeichen dahinter.
Die HD2000-Serie bzw. der R600 Entwicklungsstrang war ATIs Entwicklung, denn das Design stand schon fest, bevor AMD einen Einfluss darauf hatte.
GCN wurde natürlich mit ATIs Kernteam entwickelt und vermutlich wäre die Entwicklung ohne AMD anders vorangegangen, aber ich würde spekulativ nicht auf schlechtere Entscheidungen tippen.
Der damalige CTO Eric Demers war eine der Leitfigur von der GCN-Architektur und der wurde durch die ATI-Übernahme ins Boot geholt, ebenso wie die meisten anderen.

Ansonsten schließe ich mich völlig Two-Face Argumenten an, ATI wäre pleite gewesen und AMD hat sie gerettet, indem sie ATI aufgekauft haben und dann gemeinsam 5,4 Mrd. Schulden abbauen durften?
Super Hilfe.
Das Personalkarussell welches darauf folgte und die finanzielle Schieflage hält bis Heute an.
Und AMD hat ehrlich gesagt fast nichts mit dem Aufkauf erreicht.
Die APUs haben abseits der Konsolen bis Heute nichts gerissen und das war der Preis sicherlich nicht wert, für den Standpunkt welchen AMD heute "genießen" darf.

AMD war unglücklich, die Übernahme hat zuviel gekostet, die CPU-Abteilung hat mit dem Phenom einen Flop vor sich gehabt und ATI welches man übernommen hatte, ebenso mit dem R600, welcher auch mit Hardwarebugs auf den Markt gescheucht werden musste.
Große Schulden + keine konkurrenzfähigen Nachfolgeprodukte mit Verspätungen => sehr schlechte Finanzen und Chaos bei der Personalabteilung, Entlassungen, Kündigungen, schwere Management-Entscheidungen.

Wären AMD und ATI damals getrennt geblieben, hätten sie ohne die Übernahmeschulden und mit einer festeren Management-Struktur die Probleme alleine vermutlich besser bewältigt, als zusammen.

Dummerweise ist der Intel vega nicht Apple only, laut Intel kommt er sich in andere Modelle.

Und wegen Logistik, da gebe ich dir recht. Gut den Persönlichen Angriff habe ich nicht mehr mitbekommen, ist auch *******.

Grade beim Thema Marketing verkennst du vllt das Thema fanbois. Intel tat natürlich ein übriges mit der Optimierung ultrabook .

Und ich weiß das der Renderer mehr Arbeit von den Studios erfordert, und man lieber die GPU Hersteller den Mist machen lässt, dennoch wenn ich hier manche Kommentare lese, wird mir schlecht. Ich kann mittlerweile verstehen das viele lieber gar nichts mehr sagen. Mit dir kann man wenigstens konstruktive Dispute führen.

Und vllt braucht AMD die wenigen Vega 10 Chips für HPC und Google, das weiß nur AMD wo das hingeht. Grade in bezug Fertigung las ich mal zahlen das TSMC zb. Eigentlich nur noch für Apple optimiert und weiter entwickelt, selbst NV soll keine besonders großen Wafer Kontingente bekommen, leider weiß ich nicht mehr, wo das herkam.

Mich stört aber massiv wenn die Leute nur noch herkommen zwecks Shitstorm.
Und ich sehe mir den Marketshare seit der 9800 bzw X1800 an und verstehe warum man nicht mehr kann. Ryzen wird die nötigen Geldmittel eh konzentrieren um da auch mehr bei raus zu holen. Andererseits bin ich sehr gespannt was die Vega APUs leisten können.

Und zum Thema DX11, brauchst du nur hier in den thread zu gucken.. Kurzsichtig nenn ich das als Unternehmer.

Ach ja two-face, ATI hätte genau was tun sollen? Der 9700 war ebenso ein glücksgriff wie NVs G80. Die Konkurrenz konnte nicht mithalten. Durch den Wegfall von 3dfx hat NV sich sehr lukrative Patente und Know how gesichert, ATI hätte nicht mithalten können, nicht umsonst bot man sich an.. Man hoffte in AMD einen solventen Geldgeber. Naja bei 5mrd Kaufpreis war die Firma heillos überbewertet.
[...]
Der Intel + AMD Deal ist nicht Apple only, aber die gleiche Frage kann man auch bei Apple stellen, wieso wollen die AMD Produkte? Sind dann also ja doch ganz gut?
Für die Unternehmen, welche die Produkte beziehen sind die Eigenschaften vielleicht ausreichend gut, aber es geht offensichtlich nicht um die besten Produkte, was die Technik angeht, denn ansonsten würde man Nvidia nehmen mit besserer Perf/Watt.
Nvidia ist entweder zu teurer und/oder zu unkooperativ.

Tonga war kein Glanzprodukt, Vega ist es auch nicht.
Das AMD dennoch die Architektur in mehrere Produkte einführen kann, spricht nicht automatisch dafür, dass Vega gut ist.

Das Thema Marketing mag einen Einfluss haben, aber gute Produkte pflegen oft das Potential sich von alleine zu verkaufen, zum Beispiel Ryzen von AMD oder ist mir etwa eine Mega-Marketing-Kampagne für Ryzen entgangen?
Und der Vorwurf Mindshare bzw. nur dank den Fanboys die immer Nvidia kaufen, die kaufen nicht alle Nvidia weil Nvidia irgendeinen Scheisß propagiert, sondern weil sie wirklich meistens liefern oder Vorteile aufweisen welche vielen Enthusiasten wichtig sind, die Mund-zu-Mund-Propaganda wird nicht völlig grundlos ausgetauscht und ATI/AMD hatten und haben immer noch die Möglichkeit in mehrere Bereichen nachzuziehen, sie können es aber nicht mehr, wollen es nicht mehr oder tun es einfach nicht.
Es hat einfach eine Firma bessere Entscheidungen getroffen, als die andere und ich finde einige stecken AMD viel zu bequem in die Opferrolle.

DX12/Vulkan werden sich im Lauf der Zeit schon etablieren, aber es ist eben kein Kinderspiel und benötigt Zeit.
Die Entwickler welche DX12/Vulkan schon umgesetzt haben, davon hatten mehrere auch ihre liebe Mühe DX11 zu schlagen (Auch unter AMD), solche sub-optimalen Implementierungen helfen auch niemanden.
Gewisse Dinge kann man eben nur bedingt forcieren.

Und AMD hat ATI für 5,4 Mrd. gekauft, dass war ~24% (~1 Mrd.) mehr als der damalige Börsenwert.
Das hätte man sich nicht leisten sollen.
 
Zuletzt bearbeitet:
Wenn ich mir die Kommentare hier und auf anderen Seiten so anschaue, so hat AMD absolut recht, sich aus dem Gaming Markt Stück für Stück zurückzuziehen. Der Gaming Markt ist für AMD durch die massiven, seit Jahren andauernden Fanboybeeinflussungen einfach nicht mehr rentabel. Selbst wenn AMD schon morgen einen Chip rausbringen würde, der doppelt so schnell wäre wie der GP-102 und dabei 50% weniger verbrauchen würde, würden sie trotzdem keine Karten verkauft bekommen. Daher finde ich es richtig, sich auf deep learning und generell den HPC Markt zu konzentrieren. Wer interessiert ist, kann sich hierzu die Videos von AdoredTV anschauen, er schildert die Lage ziemlich treffend.
Menschen sind wie Fähnchen im Wind. Vor ein paar Jahren hat man noch über Nvidias Thermi gelacht und die Empfehlung hieß ganz klar AMD. Jetzt ist es halt umgekehrt. Nicht die Fanboys machen den Markt unattraktiv, sondern mangelnde Konkurrenzfähigkeit.
 
Zurück