GPU14: AMD bringt Low-Level-API Mantle als Alternative zu DirectX - Battlefield 4 bekommt Mantle-Patch

Wie die ganzen Nvidia Fans hier die nackte Panik bekommen. Ich stelle mir gerade die ganzen langen Gesichter von Leuten vor die sich vor kurzem eine überflüssige Titan oder eine überteuerte GTX 780 gekauft haben. Und jetzt kommt AMD und schmeißt mal ganz locker Mantle auf den Markt. Leute die über einen wachsamen und klaren Geist verfügen (so wie ich) richten sich immer nach dem besten Preis-Leistungs-Verhältnis. Einfach nur köstlich die ganze Nummer. :D

Also noch ist eine Titan da wo die sein soll, noch haben die Karten ihre Daseinsberechtigung, noch ist Mantle nicht auf den Markt, und über die Preise seitens AMD wird auch spekuliert, also man sollte erstmal abwarten, denn es kann sich noch viel auf dem Markt bewegen
 
Wie die ganzen Nvidia Fans hier die nackte Panik bekommen. Ich stelle mir gerade die ganzen langen Gesichter von Leuten vor die sich vor kurzem eine überflüssige Titan oder eine überteuerte GTX 780 gekauft haben. Und jetzt kommt AMD und schmeißt mal ganz locker Mantle auf den Markt. Leute die über einen wachsamen und klaren Geist verfügen (so wie ich) richten sich immer nach dem besten Preis-Leistungs-Verhältnis. Einfach nur köstlich die ganze Nummer. :D

Ich denke da wird es nicht so viele geben. Auch ich werde spätestens zu Maxwell über eine neue GPU nachdenken und wenn AMD mit Mantle klar im Vorteil ist, muss man da echt nicht lange überlegen wo die reise hingeht.

Das Problem ist eher, was passiert wenn Nvidia es nicht schafft aufzuschließen? Fragmentierung, höhere Preise, größere Unterscheide in der Performance bei wesentlich mehr Spielen. Das will sicher keiner. Dagegen ist alles was die beiden Hersteller bisher mit PhysX, Enfinty oder anderen Aktionen aufgefahren haben ein Witz. Es ist eben alles andere als abwegig, was Mantle dem Grafikkartenmarkt antuen kann (und damit im wesentlichen dem PC Videospiele Markt). Diejenigen welche sich dagegen auch kritisch äußern (so wie ich) sehen eben wie gut und groß Mantle werden kann. AMD sitzt hier ganz sicher am wesentlich längeren Hebel, aber die Brechstange anzusetzen kann auch nach hinter losgehen.
 
Das Problem ist eher, was passiert wenn Nvidia es nicht schafft aufzuschließen?
nVidia ist doch schon seit einiger Zeit in Bedrängnis! Deswegen versuchen sie auch Tegra irgendwie hin zu bekommen (nur schaffens nicht, da zu halbherzig)...
Denn 'von Oben' setzt sie Intel massivst zu und 'von unten' kommt jetzt AMD mit dieser Karte. Gut, die Frage ist, wie es mit GPGPU Zeugs ausschaut (SP:DP Verhältnis), das ist noch völlig unbekannt...
Fragmentierung, höhere Preise, größere Unterscheide in der Performance bei wesentlich mehr Spielen. Das will sicher keiner.
ALso genau das, was nV mit GPU-PhsyX versucht hat und auf die Fresse geflogen ist...

Dagegen ist alles was die beiden Hersteller bisher mit PhysX, Enfinty oder anderen Aktionen aufgefahren haben ein Witz.
...wobei Eyefinity einfach nur ein Marketing/PR Begriff für 3 Schirme zusammen ist...
Der erste, der sowas getan hat, war Matrox. Hieß bei denen Tripplehead...

Gut, nVidia ist bei solchen Dingen eh immer ziemlich lahm, schau dir mal die MPEG2/DVD Beschleunigung an, wann AMD hier was gescheites anzubieten hatte und wann nVidia damit aufgeschlossen hat.

Zum Beispiel kann AMD seit Radeon VE/7500/8500 zwei Schirme unabhängig voneinander ansteuern, bei nV konnte das nur die GF4 MX sowie später die nV3x Serie...
Es ist eben alles andere als abwegig, was Mantle dem Grafikkartenmarkt antuen kann (und damit im wesentlichen dem PC Videospiele Markt). Diejenigen welche sich dagegen auch kritisch äußern (so wie ich) sehen eben wie gut und groß Mantle werden kann. AMD sitzt hier ganz sicher am wesentlich längeren Hebel, aber die Brechstange anzusetzen kann auch nach hinter losgehen.
Ja und was hält jetzt nV ab, auch eine Low Level APi zu bringen?

Gut, bei nV muss man leider erwarten, dass sie sagen: Hier habts Koffer, macht was für uns, aber bloß nicht die anderen.
Das ist halt, wie nV so arbeitet...
Denn dafür, dass PhysX immer noch an CUDA gebunden ist, gibt es mal wirklich gar keinen Grund...
 
Wie schon früher im Thread erwähnt, bist du bei dem Thema sehr voreingenommen :ugly:
Es ist ja nicht so schlimm, wenn jemand einen Hersteller nicht mag, aber ist es wirklich nötig, da ständig drauf rum zu reiten?
Eine Diskussion ohne "AMD vs. NV Gebashe" und ohne "AMD ist gut und NV ist böse", fände ich persönlich jedenfalls wesentlich interessanter!
 
[...]

...wobei Eyefinity einfach nur ein Marketing/PR Begriff für 3 Schirme zusammen ist...
Der erste, der sowas getan hat, war Matrox. Hieß bei denen Tripplehead...[...]

reines Marketing geblubber ist es nicht, da Eyefinity bis zu sechs Displays unterstützt und Nvidia mit ihrer Lösung "nur" iirc 3 Displays unterstützen.

"AMD Eyefinity Technologie wird sowohl im Hardware- und als auch Softwarebereich eingesetzt. Im Hardwarebereich ermöglichen die AMD Radeon™ und oben genannte AMD Mobility Radeon™ Grafikkarten über nur eine Grafikkarte den Betrieb von bis zu sechs Monitoren."
AMD Eyefinity FAQs
 
Ja und was hält jetzt nV ab, auch eine Low Level APi zu bringen?

Gut, bei nV muss man leider erwarten, dass sie sagen: Hier habts Koffer, macht was für uns, aber bloß nicht die anderen.
Das ist halt, wie nV so arbeitet...
Denn dafür, dass PhysX immer noch an CUDA gebunden ist, gibt es mal wirklich gar keinen Grund...


?????

Kann doch Nvidia machen, nur da brauche ich keine Glaskugel, die werden scheitern, das wäre auch auch bei AMD so, wenn da nicht der Deal mit den Konsolen wäre ;)

Eine API muss ja so oder so AMD erstellen, also kann die auch gleich auf dem PC Sektor mit genutzt werden.

Aber erstmal sehen, was da überhaupt kommt
 
reines Marketing geblubber ist es nicht, da Eyefinity bis zu sechs Displays unterstützt und Nvidia mit ihrer Lösung "nur" iirc 3 Displays unterstützen.
Ja, aber das liegt einfach an der Implementation von nVidia. Da gibt es nichts aber auch gar nichts, was nVidia davon abhält, das gleich wie AMD zu implementieren.

Natürlich wird nVidia das nicht so schnell machen, da wir ja alle wissen, dass nVidia mit neuen Features z.T. doch sehr langsam ist (schau mal, wie schnell ATi damals 2 Schirme implementiert hat und wann nVidia damit angefangen hat. Wenn ichs recht im Hirn hatte, war die GF4 MX die erste, die zwei Schirme konnte, danach erst die FX Serie) Oder MPEG2 Beschleunigung: MC gibts bei ATi schon ewig, AFAIR seit der Rage IIC oder Rage Pro. Bei nV erst seit Gefroce 2. Bei IDCT schaut es ähnlich aus. Das gabs AFAIR schon mit der Ur Radeon, bei nV erst sehr viel später)...
 
Eine Chance hätte NV vielleicht noch :D : Sie bauen eine Highendkonsole auf Maxwell Basis mit 8 Kerner von Intel und natürlich mit sehr viel schnellem Ram. Dann müssten sie 2-3 große Spieleschmieden überzeugen exclusiv für diese Maxwell API zu programmieren bzw. Engines zu erstellen. Anschließend könnte NV, ebenfalls über Windows, noch die ganze API direkt ansteuerbar machen ;) und natürlich noch einen DX Port verkaufen. So könnten "schnell" viele Spieler erreicht werden und NV hätte außerdem die erste Brutforce Konsole auf den Markt gebracht :ugly:

Nv müsste halt wirklich sehr viele Millionen in die Software investieren um den Karren an zu schieben. Eine gute Basisbibliothek haben sie ja schon...

Besser viele Millionen in etwas Eigenes investieren, als AMD erst Millionen an Lizensgebühren in den Rachen zu werfen, um dann in ein paar Jahren fest zu stellen das AMD bei GCN doch immer zwei bis drei Schritte vorraus ist :wow:

Oder aber NV zieht sich für 7 Jahre aus der Mantle-Zone zurück, baut GPU Zeugs und überlässt Intel das "töten" von AMD.
 
nVidia ist doch schon seit einiger Zeit in Bedrängnis! Deswegen versuchen sie auch Tegra irgendwie hin zu bekommen (nur schaffens nicht, da zu halbherzig)...
Denn 'von Oben' setzt sie Intel massivst zu und 'von unten' kommt jetzt AMD mit dieser Karte. Gut, die Frage ist, wie es mit GPGPU Zeugs ausschaut (SP:DP Verhältnis), das ist noch völlig unbekannt...

ALso genau das, was nV mit GPU-PhsyX versucht hat und auf die Fresse geflogen ist...


...wobei Eyefinity einfach nur ein Marketing/PR Begriff für 3 Schirme zusammen ist...
Der erste, der sowas getan hat, war Matrox. Hieß bei denen Tripplehead...

Gut, nVidia ist bei solchen Dingen eh immer ziemlich lahm, schau dir mal die MPEG2/DVD Beschleunigung an, wann AMD hier was gescheites anzubieten hatte und wann nVidia damit aufgeschlossen hat.

Zum Beispiel kann AMD seit Radeon VE/7500/8500 zwei Schirme unabhängig voneinander ansteuern, bei nV konnte das nur die GF4 MX sowie später die nV3x Serie...

Ja und was hält jetzt nV ab, auch eine Low Level APi zu bringen?

Gut, bei nV muss man leider erwarten, dass sie sagen: Hier habts Koffer, macht was für uns, aber bloß nicht die anderen.
Das ist halt, wie nV so arbeitet...
Denn dafür, dass PhysX immer noch an CUDA gebunden ist, gibt es mal wirklich gar keinen Grund...

Wie oft nun noch, PhysX ist im Vergleich dazu ein Witz. Wie du schon sagst, da muss Nvidia mit nem Koffer anrücken, damit ein Entwickler das überhaupt implementiert. Und warum müssen Sie das? Weil sich kein Entwickler freiwillig die Mühe machen will. Mantle jedoch kann durch die Verwandtschaft zu den Konsolen, ein enormer Erfolg werden. Das Ziel der API ist ja letztlich auch eine möglichst einfach Portierung. Warum ist das so schwer zu begreifen?

Und was machen wir wenn Nvidia auch eine eigene API auf den Markt bringt? Willst du dir dann zwei 400€ GPUs anschaffen, damit du auch jedes deiner Lieblingsspiele mit ausreichender Performance spielen kannst? Zudem bezweifle ich sehr stark das Nvidia in der Lage ist eine eigene API durchzusetzen, die haben keine Konsolen im Rücken, so wie AMD. AMD ist im Moment als einziger in der Lage so etwas erfolgreich durchzudrücken, weil sie die HW der Konsolen stellen.

Mantle könnte eine ungleich größere Tragweite für den GPU Markt habe, als alle kleinen Süppchen von AMD und Nvidia zusammen. Zudem würden höhere GPU Preise und eine Fragmentierung eben das Image des PCs schwächen. Das kann weder das Ziel von AMD, noch das der Kunden sein.

Ja, aber das liegt einfach an der Implementation von nVidia. Da gibt es nichts aber auch gar nichts, was nVidia davon abhält, das gleich wie AMD zu implementieren.

Doch die eigene Architektur. Keiner wies wie gut sich Mantle auf Kepler und Maxwell anwenden lässt.

->Zitat FAIL
 
Zuletzt bearbeitet:
Sie bauen eine Highendkonsole auf Maxwell Basis mit 8 Kerner von Intel und natürlich mit sehr viel schnellem Ram.
Und wer soll so ein Teil kaufen?! Wenn PS3 und XBox360 eines gezeigt haben, dann dass die Leute wenig bereit sind, viel Geld für eine Konsole auszugeben...
Außerdem dürftest du wohl nVidia maßlos überschätzen!

Dann müssten sie 2-3 große Spieleschmieden überzeugen exclusiv für diese Maxwell API zu programmieren bzw. Engines zu erstellen.
als ob 2-3 "große Spieleschmieden" ausreichen würden, um eine Konsole zu verkaufen...
Da brauchst schon 'nen bisserl mehr.
Und dennoch:
Es ist ein extremes High Risk Projekt, mit dem sie einfach nur auf die Fresse fliegen können, da einfach kein Platz für eine 4. Konsole im Markt ist. Schon die WiiU kommt nicht wirklich gut an (aufgrund der miesen Hardware)...
Da kann man zwischen Sony und M$ nur zerrieben werden!

Oder glaubst du ernsthaft, dass nV auch nur den Hauch einer Chance hat, zwischen diesen beiden Giganten zu bestehen?! Zumal die meisten Spieleentwickler eh in AMDs Gaming Evolved Programm sind...

Anschließend könnte NV, ebenfalls über Windows, noch die ganze API direkt ansteuerbar machen ;) und natürlich noch einen DX Port verkaufen. So könnten "schnell" viele Spieler erreicht werden und NV hätte außerdem die erste Brutforce Konsole auf den Markt gebracht :ugly:
Das ist aber nur ein Traum von dir...

Denn es ist einfach falsch anzunehmen, dass eine solche Konsole, die etwa 1000€ kosten würde, überhaupt im Markt ankommen würde. Konsolen müssen preiswert sein, dürfen maximal 400€ kosten. Und da sind sowohl PS4 als auch XBoner ganz gut aufgestellt, da kann man kaum mehr anbieten. Und dennoch gibt es Gerüchte, dass die beiden drauf zahlen.
Das ist aber auch nicht unüblich, im Konsolenbereich, dass man die Konsolen subventioniert...

Nv müsste halt wirklich sehr viele Millionen in die Software investieren um den Karren an zu schieben. Eine gute Basisbibliothek haben sie ja schon...
Bei einer Konsole dürften wir nicht mehr von Millionen sprechen sondern Milliarden...

Besser viele Millionen in etwas Eigenes investieren, als AMD erst Millionen an Lizensgebühren in den Rachen zu werfen, um dann in ein paar Jahren fest zu stellen das AMD bei GCN doch immer zwei bis drei Schritte vorraus ist :wow:
Ähh, nein?! Weil eine nV Konsole am Markt nur scheitern kann, da man nix anbieten können wird. Auch braucht 'ne Konsole 'ne Vorlaufzeit von einigen Jahren (um Software dafür zu haben, ein Betriebssystem, Entwickler Tools, Verhandlungen mit den ISVs und so weiter). Das ist nicht 'mal eben' ausm Arm geschüttelt...

Oder aber NV zieht sich für 7 Jahre aus der Mantle-Zone zurück, baut GPU Zeugs und überlässt Intel das "töten" von AMD.
...oder nV ist das Opfer zwischen Intel und AMD...

Denn Intel kommt gerade von oben und rollen den Professionellen Markt auf. Gegen die Tools, die es für Xeon Phi gibt, hat nV keinen Schneid. Frag mal Skysnake!
Und von unten kommt AMD und rollt den Gaming Markt auf, den nV seit einiger Zeit völlig vernachlässigt.

Da sie Tegra bisher auch ordentlich verkackt haben und das ein Markt ist, in dem man mit Schwergewichten wie Qualcom und Samsung konkurieren darf...
Zumal der Android Markt = Samsung ist. Und das ist auch ein Markt, in dem man wenig Marge aber viel Volumen absetzt...
NUR: da muss man erst mal rein kommen und ein brauchbares Produkt abliefern. Und hier hat man auch keinen Vorteil durch Technologien und/oder Fertigung...

@Primer
Stefans Antwort bezog sich glaube ich auf das von mir angesprochene Multimonitoring ;)
Jap, darauf war es bezogen ;)
 
Zuletzt bearbeitet von einem Moderator:
An Deiner Argumentation ist natürlich viel wahres dran Stefan. Nur was soll NV machen wenn sie feststellen das AMD auf Windows, unter GCN-Mantle, einen andauernden Vorteil von 30% + X haben ? Wenn sie tatenlos zu schauen, dann müssen sie wohl bald wieder aus ihrem schönen neuen Hauptquartier ausziehen, weil sie keine nützlichen Mitarbeiter haben um es zu besetzen.....
 
Das kann dir im Moment keiner sagen. Nvidia hat sich noch nicht dazu geäußert, PCGH hat aber schon angefragt^^

Grundsätzlich sagt AMD, das es "offen" ist, ob es aber mit Nvidias heutigen und künftigen Grafikchips sauber und effizient funktioniert muss sich erst zeigen. Wenn nicht haben wir ein Problem....
 
Ja dann wird Nvidia wirklich ein Problem haben, oder selbst was rausbringen. Naja man sei gespannt.

Das würde mangels Entwickler Support aber scheitern und ne 3te API ist alles andere als wünschenswert. Nvidia ist da schon arg in die Enge gedrängt. Oder um es anders auszudrücken: Wenn Nvidia nicht will oder eher kann, dann habe sie ein mächtiges Problem.
 
Zurück