Diskussionsthread: AMD Mantle - Auswirkungen auf Spieleleistung

AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Manche verstehen es auch einfach nicht.
Wenn dein Game JETZT mit 30 fps läuft ist das grottig ! 15% Mehrleistung von Mantle macht 34 fps
deine 10-15 Frames mehr wären 33 - 50 % Mehrleistung

Und ob du nun mit 30 oder 34 fps spielst, macht keinen Unterschied, da es einfach grottig ist, da die Frames ja dazu noch schwanken, einbrechen etc.

Es gibt keinen schmalen Grad zwischen spielbar und Unspielbar durch Framedrops etc. ;-)
Das iss es ja was ich immer sage wenn die Menschen ihren heiligen Mantle Gral anbeten.
Rucklig bleibt Rucklig und ab 60 fps braucht es auch keiner mehr.
Die AMD´ler wollen dies den Gamern nur schmackhaft machen um uns noch einfachere Konsolenportionen um die Ohren zu hauen.

Ach sollten manche hier anfangen zu lesen und zu Verstehen.
Der Text lautet... " Er halte 20% für realistisch "
Also ein ...könnte... vllt... Irgendwann...nach SEINER Meinung ....

Und selbst DICE hat schon verlauten lassen das man nicht zu viel erwarten sollte
( Also durch Mantle in BF4, da das BF4 schon sehr gut in Direct3D optimiert ist )

Aber preiset weiter die ganzen Theorien von AMD an.
Bis jetzt habe ich noch nichts handfestes von Mantle oder auch True Audio gesehen.
Die Entwickler sicher auch nicht :lol: sonst würde es ja nicht verschoben werden und Dice
ja angeblich schon seit einem Jahr dran arbeitet.
Auch auf der Pressekonferenz von AMD hat man keine Zahlen verlauten lassen.
Und vorsichtshalber hat man das vor der Konferenz auch schonmal bei Twitter verlautet ;-)
Nur gesagt das man ein vielfaches mehr an Befehlen damit verarbeiten kann.
( Was aber auch gar nicht notwendig ist )

Und wieder ein mal eine Alles oder Nichts Aussage. Und Mantle soll ja erst im Dezember kommen. Bis dahin kann man schon mal dies oder jenes behaupten. Wenn die ersten wirklichen Fakten auf den Tisch liegen , kann man wirklich erst wieder konstruktiv diskutieren. Und da hier niemand bei AMD arbeitet , wird das erstmal auch so bleiben. Und ab 40 fps ist für mich ein Spiel flüssig. Das heißt ohne Ruckler.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Und wieder ein mal eine Alles oder Nichts Aussage. Und Mantle soll ja erst im Dezember kommen. Bis dahin kann man schon mal dies oder jenes behaupten. Wenn die ersten wirklichen Fakten auf den Tisch liegen , kann man wirklich erst wieder konstruktiv diskutieren. Und da hier niemand bei AMD arbeitet , wird das erstmal auch so bleiben.

Du hast ja noch immer nicht den Artikel gelesen. Warum diskutierst du dann überhaupt?
Noch mal: Ein Entwickler, prognostiziert die Leistung von Mantle, und über diesen prognostizierten Leistungsgewinn wird hier diskutiert. Hast du dazu was sinnvolles beizutragen, oder nicht?
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Ich rede nichts klein. Ich setze mich nur kritisch mit dem Thema auseinander. Ich habe kein Problem mit Mantle. Wie an anderer Stelle schon erwähnt, hätte ich kein Problem damit, mir zwei AMD Karten in den Rechner zu bauen. Schließlich hatte ich das in der Vergangenheit schon. Nur bin ich auch kein Freund von sabbernder Euphorie. Ich setze mich lieber sachlich und mit Zurückhaltung mit den Dingen auseinander, anstatt mich in feuchte Träumereien zu ergehen.



Sag mal, hast du meinen Post überhaupt mal richtig gelesen? Scheinbar nicht.
Anscheinend verstehst du gar nicht, worüber geredet wird.

Nur so viel: Hier in diesem Thread, und das steht auch so in der Überschrift, geht es nicht um +10-15 Fps. Hier geht es um 20%. ToBeFr33 redete sogar nur von 15%. Wie viel Fps plus hast du also, wenn dein Spiel ohne Mantle mit 30 Fps läuft?



Ähm, Thema dieses Thread ist es, dass ein Entwickler, dessen nächster Titel Mantle unterstützen wird, eine Leistungsprognose zu Mantle abgibt. Und darüber wird hier diskutiert. Stellt sich die Frage: hast du den Artikel, der Thema dieses Threads ist, eigentlich mal gelesen?



Ich bin kein Besitzer der GTX690.
Und nein, egal sein kann es mir keinesfalls. Mantle, und das was daraus resultieren KÖNNTE, betrifft alle PC Spieler. Egal ob sie AMD, Nvidia oder Intel im Rechner haben.



Auch hier hilft richtig lesen. Ich habe nirgendwo geschrieben, dass ich weiß, wie Mantle aussehen wird. Ich habe geschrieben was sein KÖNNTE.
Begriffe wie "dürfte", "wäre" und "könnte" in meinem Post machen das eigentlich deutlich. Und auch die FRAGE meinerseits danach, wie die Entwickler Mantle einsetzen KÖNNTEN, zeigt wohl, dass das was du aus meiner Aussage drehst, ziemlicher Blödsinn ist.

Auch eine Art sich rauszureden. Wir werden ja sehen , was Mantle wirklich bringen wird. Bis dahin philosophieren wir noch ein bisschen in die Zukunft. :lol:
Erst wenn die ersten Benchmarks mit Mantle vorliegen , kann man auch wirklich sagen , ob Mantle das gewünschte oder nicht gewünschte Leistungsplus mit sich bringt. Außerdem spielen die Hardware , die Hardwareanforderungen, welche Auflösung man bevorzugt usw...auch eine Rolle. Und da willst du dich dogmatisch auf eine Zahl festlegen? Ich wäre da ziemlich vorsichtig , an deiner Stelle , solange keine Fakten auf dem Tisch liegen.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Und da willst du dich dogmatisch auf eine Zahl festlegen? Ich wäre da ziemlich vorsichtig , an deiner Stelle , solange keine Fakten auf dem Tisch liegen.

"Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch""

Was zur Hölle verstehst du daran nicht? Ich diskutiere hier über das THREAD-THEMA!!!!!!
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Gut, setzen wir uns mit dem Thema auseinander.

Ein Thief-Entwickler sagt also, 20% mehr GPU-Leistung halte er für nicht unrealistisch.
Bekanntlich soll ja auch Thief mit/für Mantle kommen.

Also wird sich dieser Entwickler schon mal etwas mit Mantle auseinandergesetzt/beschäftigt haben.
Aus seiner Sicht, so wie er programmiert, glaubt er mit Mantle 20% mehr aus einer GPU herausholen zu können.

Was viele aber vergessen:
Programmieren ist wie eine Unterschrift.
Man kann am Code erkennen, wer ihn verbrochen hat.
Und das hat nicht nur was mit den Namen von Variablen zu tun.

Es gibt Entwickler, die finden "eleganten, schlanken" Code, um ein Progem zu lösen/zu bearbeiten.
Andere greifen auf immer die gleichen Befehle zurück, bauschen dadurch einen Quellcode unnötig auf, lösen Probleme mit der Holzhammer-Methode...

Das eine ist ein guter Programmierer, das andere eher nicht.

Die Frage ist, in welche Kategorie fällt unser Thief-Entwickler hier?

Er kann sich vorstellen, das er, mit seinem Wissen und Können, 20% mehr herausholen kann.
Das heißt andere, schlechtere holen 0% mehr aus/mit Mantle heraus.
Andere vielleicht sogar mehr.

20%, das ist ein fünftel, das halte ich schon für viel, als 30 werden 36fps, aus 60 werden 72 (eine weitere "magische" Marke bei der Bildwiederholungsfrequenz), aus 100fps werden 120 (na, da lohnt doch jetzt ein 120Hz-Monitor)...

Und entgegen HomboyST's Aussage gibt es schon einen recht schmalen Grat zwischen spielbar, gerade noch spielbar und unspielbar. Dieser Grat ist natürlich nicht genau ein Bild pro Sekunde mehr breit udn auch abhängig vom Spiel.
Ein Spiel wie Enemy Unknown macht mit 10fps keine Spaß mehr, mit 12 auch nicht, mit 16 kann man (na gut: ICH) aber schon leben. Ein Spiel wie Dragon Age geht mit 18fps nicht, aber 24 sind okay. Mass Effect geht mit 24 gerade noch, mit 30 ist es absolut okay. WoT geht mit 30fps gerade noch so, 36 sind schon angenehmener. Ja, das bezieh ich immer auf mich, denn es geht hier um das physiologische Empfinden, das kann man nicht objektiv messen und erfassen, was flüssig erscheint und was nicht. Aber bei dieser Diskussion rennt man in diesem Forum gegen Wände, es gilt schneller, höher, weiter, wer mit weniger als 60fps zockt sollte nach allgemeiner Meinung hier dringend zum Augenarzt und es werden hier eh überwiegend Shooter mit 120fps und mehr gespielt. RPGs, Strategie, MMOs etcpp sind nur eine Randerscheinung, tschuldigung, ich vergaß... :schief:
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

@ X-CosmicBlue

Wie vorhin schon erwähnt, stellt sich aber die grundsätzliche Frage, wie die Entwickler Mantle einsetzen.

Für mehr Fps?
Oder mehr Bildqualität?

In Fall 1 ist der Nutzen klar. Über mehr Fps kann man sich natürlich freuen.
In Fall 2 wird es schwierig zu beurteilen, denn diese Frage wirft neue Fragen auf. Wie gut können die Spiele mit Mantle aussehen und was kostet das Plus an Optik an Leistung? Und ist der optische Unterschied, der sich möglicherweise erzielen lässt, überhaupt deutlich sichtbar?
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Ich möchte mal behaupten, das die wenigsten Entwickler für Mantle zusätzliche optische Effekte etcpp einbauen werden. Und noch garnicht höherauflösende Texturen oder so.
Man wird das Leistungsplus einfach nutzen, um eine Bildqualität, die unter DX ruckelt, wie zB SSAO+SSIL+diverse AA-Modi, unter Mantle flüssiger anzeigen zu können.
Oder anders ausgedrückt: Unter Mantle wird der Spieler mehr grafische Optionen aktivieren als unter DX, einfach, weil "es geht".
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Aber genau das ist der Knackpunkt der 20% Aussage. Wenn ein Game mit 30 Fps und beispielsweise FXAA läuft, dann reicht das prognostizierte Plus von Mantle eben nicht, um dann plötzlich mit Super Smapling o.Ä. spielen zu können. Dafür sind die Bildverbesserer, die wirklich sichtbare Vorteile bringen, einfach viel zu Leistungshungrig. Und deswegen würde ich mir diesbezüglich nicht zu viele Hoffnungen machen.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Ganz ehrlich, dann deaktiviert man FXAA wieder, bekommt dann noch ein kleines Leistungplus und dann reicht es vielleicht für 2xMSAA, was immer noch besser aussehen kann als FXAA.
Oder es reicht, um die Partikeleffekte von "Medium" auf "High" zu setzen. Oder für dynamische Lichtquellen, während man vorher nur statische hatte.
Oder man kommt damit doch über eine magische Grenze bei den fps und kann nun mit einem Mal V-Sync nutzen.
Es gibt diverse Fälle, die mir einfallen, wo man sich über 20% mehr freuen kann, da würde ich mir schon Hoffnung machen.
Diese Hoffnungen gelten aber auch nur für Low-Bugdet- und Midrange-Hardware, denn ich seh aber auch, das diejenigen unter uns, die mit 144Hz auf UHD mit 144+ fps spielen...das denen Mantle nichts bringt und hier eher skeptisch sind :ugly:
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

UHD mit 144+ FPS dürfte noch ein paar Jährchen dauern :D

----

Ich bin in diesen Dingen einfach eher Realist als Optimist. Ich freue mich, über jedes Plus das Mantle bringt oder bringen könnte. Nur denke ich halt, dass Viele sich von Mantle einfach zu viel versprechen.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Ich frage mich warum Anderson von Dice noch keine Prognose wagen möchte, wie viel BF4 durch Mantle an Performance gewinnt, obwohl er nun schon wesentlich länger damit arbeitet. Und nun kommen die Entwickler von Thief und halten 20% für nicht unrealistisch. Zugegeben, die Prognose ist sehr vage und unverbindlich. Irgendwie bleibe ich auch weiterhin skeptisch. Die Äußerungen sind alle sehr vage und niemand scheint in der Lage zu sein, konkretes zu sagen, selbst dann nicht, wenn man mit der Implementierung schon weit voran geschritten ist.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Gut, setzen wir uns mit dem Thema auseinander.

Das wird schwierig ohne vernünftige Grundlage ;)
Im Prinzip handelt es sich bei der Frage: "Wie gut/schnell ist Mantle?"
...um ein vergleichbares: "Gibt es einen Gott?"

Die richtige Antwort ist laut momentanem Stand ein reiner Glaubsenfaktor!


Ein Thief-Entwickler sagt also, 20% mehr GPU-Leistung halte er für nicht unrealistisch.
Bekanntlich soll ja auch Thief mit/für Mantle kommen.

Also wird sich dieser Entwickler schon mal etwas mit Mantle auseinandergesetzt/beschäftigt haben.
Aus seiner Sicht, so wie er programmiert, glaubt er mit Mantle 20% mehr aus einer GPU herausholen zu können.

Auf den bisherigen Konferenzen und Vorstellungen von Mantle sieht mir das aber noch nicht selbstsicher aus!
-Das große Fragezeichen ist noch, wie er auf diesen Wert von 20% kommt.

Unter welchen Bedingungen sind die 20% zustande gekommen?
-Sind es generell 20%?
-Sind 20% das Maximum oder Mittel?
-Unter welchen Auflösungen und Qualitätseinstellungen greift diese Aussage?

Mir ist das so vage wie die Lottozahlen von morgen!


Was viele aber vergessen:
Programmieren ist wie eine Unterschrift.
Man kann am Code erkennen, wer ihn verbrochen hat.
Und das hat nicht nur was mit den Namen von Variablen zu tun.

Da ist etwas wahres dran! Leider verderben viele Köche bekanntlich den Brei.
-Bei Großprojekten wie Mantle oder einer Spieleprogrammierung allgemein ist es sogar noch schlimmer!

Da wird Code von ein paar tausend Zeilen schnell zum übelsten Softcode-Jungle.
-Aufgrund der Unfähigkeit der Programmierer nicht anständig zu dokumentieren können/wollen, wird das mit der Zeit immer schlimmer! Einer der Gründe warum Windows und Battlefield bei jeder Version schlimmer werden...


Es gibt Entwickler, die finden "eleganten, schlanken" Code, um ein Progem zu lösen/zu bearbeiten.
Andere greifen auf immer die gleichen Befehle zurück, bauschen dadurch einen Quellcode unnötig auf, lösen Probleme mit der Holzhammer-Methode...

Das eine ist ein guter Programmierer, das andere eher nicht.

Die Frage ist, in welche Kategorie fällt unser Thief-Entwickler hier?

Ob man gut ist oder nicht spielt hier wohl weniger eine Rolle.
-Der entscheidene Faktor ist, wieviel Ressourcen in die Programmierung gesteckt werden - sprich Geld/Zeit, Personal und Hardware.

Wenn z.B. das Management nicht mitmacht (siehe EA mit DICE), nutzen dir die besten Programmierer nichts. Dann wird das Baby halt als Frühgeburt auf die Welt gebracht und nach Release künstlich am Leben erhalten.


Er kann sich vorstellen, das er, mit seinem Wissen und Können, 20% mehr herausholen kann.
Das heißt andere, schlechtere holen 0% mehr aus/mit Mantle heraus.
Andere vielleicht sogar mehr.

Das dürfte die große Schwäche an Mantle sein. Nicht nur, dass man AMD-Hardware mit GCN benötigt! Nein, man braucht auch noch Entwickler, die ihr Handwerk blind verstehen und ausüben können.

Ich könnte hier und jetzt eidesstaatlich versichern, in den letzten 10 Jahren kein Projekt mit "perfekter Programmierung" gesehen zu haben. Genau dahin will AMD die Entwickler aber schicken.

-Mir graust es jetzt schon, wenn uns die Spiele wegen Programmierfehler um die Ohren fliegen. Die aktuellen Kunden von Betafield 4 können da ein Lied singen. Vor allem da die Entwickler mit Mantle noch mehr Möglichkeiten bekommen, das Spiel zu verhauen.


20%, das ist ein fünftel, das halte ich schon für viel, als 30 werden 36fps, aus 60 werden 72 (eine weitere "magische" Marke bei der Bildwiederholungsfrequenz), aus 100fps werden 120 (na, da lohnt doch jetzt ein 120Hz-Monitor)...

Bei dem potentiellen Aufwand sind 20% geradezu lächerlich wenig!
-Erst hieß es großspurig es können Steigerungen von bis zu 50% mit Mantle möglich sein. Jetzt sind es auf einmal nur noch 20%. Was kommt demnächst? Die Ankündigungen von AMD man wolle die Nvidia GTX Titan "zerstören und lächerlich machen" wirken da plötzlich wie Größenwahnsinn.

Falls Intel genau so handelte, würden sie ständig AMD ihre AVX2-Benchmarks unter die Nase reiben.
Darüber hinaus löst Mantle immer noch nicht die üblichen Gamerprobleme. Selbst mit 144 Frames und einem entsprechenden Monitor wäre AMD nicht gleichwertig mit z.B. Nvidias G-Sync.


Ich frage mich warum Anderson von Dice noch keine Prognose wagen möchte, wie viel BF4 durch Mantle an Performance gewinnt, obwohl er nun schon wesentlich länger damit arbeitet. Und nun kommen die Entwickler von Thief und halten 20% für nicht unrealistisch. Zugegeben, die Prognose ist sehr vage und unverbindlich. Irgendwie bleibe ich auch weiterhin skeptisch. Die Äußerungen sind alle sehr vage und niemand scheint in der Lage zu sein, konkretes zu sagen, selbst dann nicht, wenn man mit der Implementierung schon weit voran geschritten ist.

Ich nehme an, Mantle ist noch in einem relativ frühen Stadium.
-Eventuell haben AMD, DICE & Co. gerade die Planungsquase hinter sich und haben wie Gerüchten zufolge erst letztes Quartal mit der Implementierung angefangen.

Trotz aller Wünsche und Vorstellungen muss man eines Bedenken:
-Mantle ist kein Wunder, sondern eine reine Bandbreiten- und Lastverschiebung

Alles was man damit erreicht ist eine Verringerung des Overheads. Das heißt die AMD-Lösung kann niemals schneller werden als 100% der Hardware. Sofern ich richtig informiert bin, arbeitet DirectX nur mit 60% Leistung, bei 40% Overhead. Das wären also maximal +40% Leistung die man "theoretisch" noch herausholen könnte.

Dieser Fall wird aber niemals eintreffen, denn die 100% schafft nicht einmal Mantle. Dafür müssen sich die Programmierer dann aber ins Zeug legen als ob es um ihr Leben ginge = unrealistisch!
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Es ist gut, dass DirektX mit Mantle nun Konkurrenz bekommt. Man hat ja gesehen, wie sich der Bereich ansonsten so
weiterentwickelt hat - da war gähnender Stillstand; wie zuzeiten der DDR. Und dann immer diese elende Bindung an das nächste Windows.
Konkurrenz belebt das Geschäft, und das ist gut so !
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Bisher gibt es keine Infos über Mantle in Linux. SteamOS ist eine Linux-Distribution und baut wohl auf OpenGL auf. In diesem Bereich ist AMD leider weit zurück. Mantle müsste sich erst beweisen um in die SteamBoxen zu wandern.
Doch Mantle soll auch für Linux und MacOS kommen. Gab dazu eine Aussage von einem AMD Mitarbeiter.

Und "beweisen" muss Mantle bzgl SteamBox gar nichts. Das ist Standardhardware mit einem mehr oder weniger Standard Linux in einem custom Gehäuse.

Natürlich für uns Gamer (mit AMD-GPU/APU/CPU) wäre das was tolles.
Allerdings ist das bei dem potentiellen Mehraufwand für die Programmierer ein Witz!
Und das kannst du jetzt beurteilen weil?

Ach ja richtig, sehr wahrscheinlich gar nicht, weil du vermutlich selbst noch nie etwas entwickelt hast...

Gerade das Mantle eben NICHT in BF4 implementiert wurde, sondern in die Frostbite-Engine, die BF4 nutzt ist hier ein wichtiger Punkt. Die Hauptarbeit wird in der Engine gemacht bzgl Mantle. Wenn die da keinen Mist gebaut haben, sollte es für die Nutzer der Engine keinen Unterschied machen, ob es jetzt DX oder Mantle nutzt. Bei der Nutzung von MAntle stehen eventuell nur noch mehr Parameter und oder Api-Calls zur Verfügung.

Und das ist ein entscheidender Unterschied. Dadurch, das es in einer Engine drin steckt, die lizenziert werden kann, wird es für die Nutzer dieser Lizenz keinen so großen Aufwand bedeuten. Die werden halt die Engine verwenden und gut ist. Ob die API-Calls jetzt auf Mantle, DX oder auf Schies-mich-tot aufbauen, ist für die völlig belanglos.

Die Frage ist doch eher, wieviel Aufwand die Entwickler tatsächlich in dieses "Leistungsplus" pumpen müssen. Immerhin ist Mantle eine eigene API und muss zusätzlich zu den etablierten Standards dazu programmiert werden. In Zeiten von knappen Ressourcen zweifle ich wirklich stark daran!
Kommt wie gesagt darauf an, wie die Engine geschrieben ist. Bei den Sachen, wo das Grundgerüst der API-Calls einfach nur ausgetauscht werden kann, wird der Aufwand genau 0% betragen.

So wird man aber auch ehrlicherweise natürlich nicht das Maximum raus holen können, es sei denn die FB-Engine ist von Grund auf erstmal auf Mantle gebaut worden und dann die entsprechenden Sachen mit DX nachgebaut worden. Davon gehe ich aber eher nicht aus.

Einige % werden den Entwicklern aber sicherlich einfach vor die Füße fallen ohne Zutun. Dafür lizenziert man halt auch Engines.

Bei dem ganzen Thema kann ich nur den Kopf schütteln!
AMD versteift sich zu sehr auf Nebenkriegsschauplätze, statt sich um die Hauptpunkte zu kümmern. Noch ist Spielraum in der Hardwareentwicklung. Ich bin der Ansicht sie gehen die Software-Optimierung viel zu früh an. Um einen solchen neuen "Standard" durchsetzen zu können muss man viel Geld in den Markt pumpen. Geld das AMD aktuell einfach nicht hat....
Ähm... Ja, du hast welche Expertise nochmals um beurteilen zu können, wieviel Spielraum man in der Hardwareentwicklung hat? :schief:

Software-Optimierungen sind IMMER! sinnvoll. Ein zu früh kann es da NIE geben, und wir sehen doch heute schon, dass die HArdwareentwicklung immer langsamer wird, einfach weil wir an Grenzen stoßen....

AMD hat durchaus auch einen guten Partner für die Entwicklung von Mantle. Dice verkauft halt Engine-Lizenzen, und mit einer API wie Mantle können Sie halt eine bessere Engine bauen, als die Konkurrenz ohne so eine API. Du kannst gift drauf nehmen,d ass die MAcher der Unreal-Engine usw zähneknirschend dasitzen werden. DICE spielt hier nämlich mit ungleichen Waffen um den Kampf der Lizenznehmer von Grafik-Engines....

Genau das treibt DICE aber eben auch an, Mantle möglichst weit zu verbreiten und gut dastehen zu lassen. Sie haben das aktuell eben exklisiv und müssen es auch ausschlachten.

Und ganz abgesehen davon, können heutige GPUs SEHR SEHR SEHR viel mehr als man über APIs wie DX ansprechen kann...

Das ist absolutes Risikokapital. Im schlimmsten Fall könnten sie wirklich daran Pleite gehen!
Hirngespinste, mehr kann man dazu nicht sagen. An sowas verschluckt sich ein Konzern wie AMD nicht. Wäre dem so, würde es AMD shcon seit einem Jahrzehnt nicht mehr geben...

Leider ist DirectX ein Quasi-Standard, den man schlecht ignorieren kann. Bis AMD sich mit Mantle durchsetzen "könnte", wird noch einige Zeit vergehen.
Für einen Lizenznehmer eine Grafik-Engine spielt das aber eben genau gar keine Rolle....

Umsonst werden die Entwickler das sicher nicht machen! Dazu noch muss AMD wertvolle Ressourcen abstellen um die interessierten Studios zu unterstützen. Das können Geldmittel ebenso wie eigenes Personal sein. Selbige fehlen dann für andere Projekte. AMD hat genug Baustellen, um die sie sich kümmern müssen!
Eher DICE wird Ressourcen abstellen, eben weil Sie die Engine zur Lizenzierung anbieten. Zudem haben Entwickler schlicht ein Interesse daran, es zu nutzen.

Die letzten paar Prozent Optimierung verschlingen unglaublich viele Ressourcen. Wenn du da 20% relativ einfach serviert bekommst, dann wirst du das gerne annehmen, und halt andere Optimierungen weglassen, bei denen weniger bei rauskommt bei gleichem Zeitaufwand.

Es gibt doch zwei Situationen:
1. Ich muss Performance XY erreichen. Schaffe ich das mit weniger Aufwand, hör ich halt vorher auf und freue mich über das gepsarte Geld
2. Ich habe nur Geld/Zeit XY zur Verfügung und will die beste Peformance rausholen die ich kann. Da freu ich mich halt über etwas mehr Performance als ohne.

In beiden Situationen habe ich einen Mehrwert daraus.

Iwo!
Die besagten 20% gibt es nur in Spielen mit Mantle-API. Alle anderen Spiele werden die üblichen Leistungswerte aufweisen. In Benchmarks wird Mantle nur den Durchschnitt verhageln und manche Karten besser dastehen lassen als sie eigentlich sind.
Wieso "verhageln"? :ugly:

Man steht halt besser da. Mantle ist da nichts anders, als wenn AMD oder nVidia sich hinsetzen und die Shader optimieren über die Treiber....

Verbieten wir das jetzt auch den Herstellern? :ugly:

Das ist genau so als würde Intel nur noch auf Ergebnisse mit AVX2 bestehen, obwohl die Prozessoren ohne wesentlich weniger leisten. In nächster Zeit spielt Mantle überhaupt keine Rolle. Die Verfügbarkeit von unterstützten Spielen wird ähnlich schlecht sein wie die Anfangszeit von PhysX von Nvidia.
Nein ist es nicht. Du bestehst darauf, dass eine Spiel, welches AVX oder SSE nutzt ohne diese Funktionen gebencht werden muss? :schief:

Selbst 20% sind "nichts".
WHAT? :dumm:

20% sind der Unterschied zwischen
HD7950 Boost und HD7970GHz
HD7970GHz und 290X
HD7970GHz und GTX Titan
290X/GTX Titan und HD7990

20% sind also SEHR viel. Das ist so ungefähr das was man oft als Maximum aus dem OC mit nem normalen Kühler raus bekommt. DAs ist sehr oft der Unterschied zwischen einer/zwei Karten besser oder schlechter, und dafür zahlen die Leute schnell mal 100€ mehr!

20% einfach so wegwischen ist total lächerlich. Wenn dem so wäre, brüchten wir gar keinen Ton über OC verlieren, und ich glaube mit der Meinung wärst du hier im Forum ziemlich allein, und das zurecht.

Es wird nur bewirken, dass AMD-Karten wesentlich unstetiger bei der Beurteilung werden!
Weil?
-Nvidia scheint momentan stark den Fokus auf OpenGL zu verlegen. Mit Maxwell kommt Unified Memory und angeblich wollen sie CUDA hardwarenäher verlegen.
Eher genau das Gegenteil bei CUDA. Sie wollen die Hardware stärker abstrahieren. Nur mal so am Rande.. :schief:

Dann aber auf alle Schnittstellen wie DX11+ und OptenGL...
CUDA hat nichts mit DX11+ oder OpenGl zu tun. Und Unified Memory wird nicht für DX11+ und auch nicht für OpenGL kommen.

-Intel brütet wie ein Wahnsinniger beim Stromverbrauch und der APU-Leistung. Wenn das so weiter geht, verliert AMD noch die letzte Bastion!
Jaja, AMD geht unter, in den nächsten 12 Monaten, die Leier kennen wir schon gefühlt seit 10 Jahren :schief:

Ich sehe hier Gefahr für AMD!
Sie müssen dringen die Kernbereiche stärken und nicht "ausprobieren".
Und genau das machen Sie doch....

Bloß nicht, die sollen mal wie in der Vergangenheit ihre eigene Suppe kochen.
What? Warum das denn? :ugly:

DAfür hätte ich gern eine Begründung

Hah, wenn es denn so einfach wäre!
Programmierer haben in der Wirtschaft wenig zu sagen. Das sind eher die Manager und Bosse, die den Ton angeben. Für die zählt nur ob der Rubel rollt oder nicht. Da kann Mantle noch so viel versprechen... wenn es mehr kostet, wird es nicht gemacht - fertig!
Der Chef wird keinem Entwickler vorgeben, was er zu nutzen hat, um das Ziel zu erreichen. Wenn der Entwickler sagt, er schafft es durch XY in weniger Zeit oder mit einem besseren Ergebnis, dann wird jeder halbwegs vernünftige Chef dem nicht im Wege stehen...

Zumal eben NOCHMALS! erwähnt sei, dass die Frostbite Enginge Mantle von sich aus mitliefert... Die Frage stellt sich da also gar nicht für Lizenznehmer, ob Sie Mantle nutzen wollen oder nicht. Sie tun es einfach.

Das ist jetzt nicht meine Gehässigkeit, sondern wirklich objektiv!
-Falls die Entwickler nicht gleichzeitig die Firmenchefs sind, sehe ich da wenig Chancen!
Und du hast da ja auch voll die Expertise, weil du Chef bzw Entwickler bist ;)

Das nutzt alles nichts, wenn die Hardware deswegen auf der Stelle tritt!
Dier Hardware gerade bei den GPUs ist der Entwicklung der APIs um JAHRE! voraus... Es wird Zeit da endlich mal was zu tun...

Mantle schaufelt im Bestfall laut Theorie ein paar ungenutzte Ressourcen frei. Dazu müssen aber alle Bedingungen erfüllt sein.
-Schneller wird die Hardware dadurch nicht. Das macht man normalerweise nur, wenn die Hardware bereits am Limit läuft. Der Punkt ist aber noch lange nicht gekommen.
Mantle ermöglicht neue Konzepte und Algorithmen. DAmit kann man ganz anders Probleme angehen und auch umgehen.

Das ist ein bischen so, als ob du einen Dual-Core hast, die Software aber nur Single-Core unterstützt an sich, durch ne neue API (Mantle) aber plötzlich auch der zweite Core nutzbar wird. Die HArdware wird dadurch auch nicht schneller, aber deine Programme dafür schon sehr ;)

Ich hoffe du verstehst das Beispiel.

Bitte was? Ein i5-2500(k) reicht locker für alles aus.
In der Theorie hört sich alles gut an (sogar Bulldozer)!
Nur das wenige Leute etwas in der LEistungsklasse einer 2500k haben, und gerade der Mobilebereich SEHR davon profitieren wird.

Du vergisst hier zu gerne, dass Mantle sich bisher nur auf Spiele auswirkt. Auf dein Gesamtsystem hat das wenig Auswirkungen! Mit einer schmaleren CPU/GPU ist dein System immer noch auf dem gleichen Stand wie vorher, ob Mantle oder nicht.
Und das hat jetzt welche Relevanz? Wenn ich zocken will, dann interessiert es mich doch einen scheis, ob das auch wo anderes was bringt oder nicht. So lange meine Games mehr FPS haben, ist für mich das Ziel erreicht.

Es wäre eher angebracht, dass die Programmierer einmal wieder aufhören einfach nur minderwertigen Code wie bei Battlefield 4 hinzuklatschen und sich im Vorfeld gedanken machen.
-Alle klatschen hurra und Beifall, weil "weniger Aufwand", "schnellere Implementierung" und "mehr Performance" versprochen wird.
Träum weiter :rolleyes:
Die tun das ja nicht aus Spaß, sondern einfach weil Sie nicht mehr Zeit haben, um das besser zu machen. Wenn Sie ne bessere API haben, die ihnen erlaubt schneller die nötige Performance zu erreichen, dann werden Sie eventuell die Zeit nutzen können um die Bugs mehr zu fixen.

Die Diskussion um Zuwächse bei Verwendung von Mantle ist wie immer sehr einseitig!

Die 20% Zuwächse im Vergleich zu DirectX bekommt man heutzutage schon mit OpenGL - und das ist keine Low-Level-API(!). Die Entwickler bräuchten sich noch nicht einmal in eine neue Schnittstelle einarbeiten. Dafür müssten sich Nvidia und AMD nur mit der Khronoss Gropu eingen und schon hätte man einen neuen Standard/Level.
Naja, soo einfach ist es nicht aus OpenGL 20% Mehr raus zu holen als aus DX11. DX hat sich SEHR weiterentwickelt zu seinen Anfängen, UND es erfährt sehr viel mehr Liebe als OpenGL von den GPU-Herstellern in den Treibern....

Zudem ist bei OpenGL das Problem mit den Extensions nicht unwesentlich.... Wenn du wirklich alles raus holen willst, musst du wieder für einzelne Architekturen optimieren. Da haste dann auch keinen großen Vorteil mehr da im Vergleich zu Mantle usw.

-Der Vorteil wäre die plattformunabhängigkeit.
Nicht wirklich mehr als mit Mantle wie gesagt...

Das Problem ist hier vor allem, das man sich scheins mit nVidia nicht einigen kann. Die sind, was man so am Rande mitbekommt bei DX immer eine Bremse, und auch ansonsten bei offenen Standards eher ein Klotz am Bein, der auf die Bremse tritt, als aktiv mitarbeitet und versucht den Standard nach vorne zu bringen... Die schielen halt immer auf ihre propritären SChnittstellen mit denen Sie sich versuchen einen Vorteil zu verschaffen über die Konkurrenz. Das gelingt aber nur, wenn die offenen STandards nicht so gut sind, und durch blockieren und bremsen erreicht man eben genau das...

Bisher wird Mantle nur auf Windows genannt. Auf Konsole ist Mantle ja schon abgeharkt und auf Linux/MAC noch fraglich.
Linux und MacOS wurde bereits bestätigt.

Außer der Geschwindigkeit redet niemand über die wirklich wichtigen Punkte:
-Wie ist die Bildqualität?
-Anfälligkeit für Flimern?
Weil das auch NICHTS mit ner API zu tun hat...

-Welche Effekte/Techniken bringt Mantle nativ mit?
vermutlich gar keine. So was ist nicht die Aufgabe einer API.

Bei Glide war genau dieser Faktor enorm. Die Bildqualität sucht heute noch Ihresgleichen. Ich bezweiflich hier wirklich stark, dass Mantle direkt bei Start eine vergleichbare Qualität wie die etablierten Grafikschnittstellen aufweisen kann. Das muss sich erst im Laufe der Zeit entwickeln.
Das lag aber an anderen Dingen. So was in der Art ist aber durch die Nutzung bisher nicht genutzer Hardware besser wird.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Nur so viel: Hier in diesem Thread, und das steht auch so in der Überschrift, geht es nicht um +10-15 Fps. Hier geht es um 20%. ToBeFr33 redete sogar nur von 15%. Wie viel Fps plus hast du also, wenn dein Spiel ohne Mantle mit 30 Fps läuft?

Manche verstehen es auch einfach nicht.
Wenn dein Game JETZT mit 30 fps läuft ist das grottig ! 15% Mehrleistung von Mantle macht 34 fps
deine 10-15 Frames mehr wären 33 - 50 % Mehrleistung

Der Punkt ist doch: wie viel Geld muss ich im Normalfall hinlegen, um ein Plus von 20%, seien es jetzt 36 statt 30 oder 120 statt 100 FPS, zu bekommen? Schauen wir auf den Grafikkartenmarkt: Beispielsweise 200 Euro Aufpreis um eine GTX780 statt einer GTX770 zu kaufen. 20 Prozent klingt nach nicht viel, aber in der Realität bezahlen Leute einen Haufen Geld für diese 20 Prozent. 20 Prozent aus dem Nichts herzuzaubern, selbst nur in Extremfällen - was gibts daran zu meckern?
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

Das wird schwierig ohne vernünftige Grundlage ;)
Richtig, aber wie ja zuvor so schön betont wurde, es geht bei diesem Thema ausschließlich um das, was dieser eine Thief-Entwickler sagt.

Im Prinzip handelt es sich bei der Frage: "Wie gut/schnell ist Mantle?"
...um ein vergleichbares: "Gibt es einen Gott?"
Das mußt Du mir näher erklären.
Ich sehe in Mantle nicht den Gott der Programmierung oder den Gott aller APIs.

Die richtige Antwort ist laut momentanem Stand ein reiner Glaubsenfaktor!
Das seh ich nicht so, man kann aufgrund bisher gemacht Aussagen und Präsentationen realistische Spekulationen und Schätzungen wagen.
Das hat nichts mit Glauben zu tun, ob man NVidia oder AMD mehr mag. Man muß einfach einmal ganz tief in sich gehen, jegliche persönlichen Gefühle und Präferenzen beiseite schieben und sehen, das man bisher weiß.

Auf den bisherigen Konferenzen und Vorstellungen von Mantle sieht mir das aber noch nicht selbstsicher aus!
Selbstsicherheit kann auch nur ein schein sein.
Außerdem, wer steht bei Konferenzen und Vorstellungen vorne? Richtig, Menschen, die einem etwas verkaufen wollen, wie toll, wie schön, wie gut etwas ist.
Das sind nicht immer Menschen, die auch wirklich Ahnung von der Materie haben. Das man sich dann mit konkreten Zahlen bedeckt hält, sollte klar sein, oder?
Hier haben wir jetzt einen an der Mantle-Entwicklung unbeteiligten Programmierer, der zukünftig mit Mantle arbeiten soll, das ist etwas ganz anderes.

-Das große Fragezeichen ist noch, wie er auf diesen Wert von 20% kommt.
Wie kommt man nach geschriebener Mathe-Klausur darauf zu sagen "Jupp, das wird wohl ne 2"?
Wie erstellt man vorraussichtliche Bauphasen bzw Abgabetermine?
Wie schätzt man die Steuereinnahmen für das kommende Jahr?
Man geht an sowas mit den Erfahrungen der letzen Jahre, der letzten Male ran.
In diesem Fall wird der Entwickler wohl schon mal die Dokus zu Mantle gesehen haben und kann daher abschätzen, was er anders machen muß und was am Ende rauskommen kann.

Unter welchen Bedingungen sind die 20% zustande gekommen?
-Sind es generell 20%?
-Sind 20% das Maximum oder Mittel?
-Unter welchen Auflösungen und Qualitätseinstellungen greift diese Aussage?
Irrelevant.
Wie ich schon schrieb, codet jeder Programmierer etwas anders. Jedes Spiel ist auch etwas anders (man muß sich ja nur Überlegen, wie das mit den DrawCalls ist, davon profitieren nur Spiele, die auch wirklich viele Objekte haben. Ein Spiel wie Limbus wird diesen Vorteil kaum nutzen können).
Man kann festhalten, das dieser _eine_ Entwickler glaubt, das _er_ 20% mehr Leistung aus einer GPU holen kann.
Das hat dann nichts mit Auflösungen oder Einstellungen zu tun.

Mir ist das so vage wie die Lottozahlen von morgen!
Natürlich ist es vage. Es ist die Aussage _eines_ Programmierers.

Ob man gut ist oder nicht spielt hier wohl weniger eine Rolle.
-Der entscheidene Faktor ist, wieviel Ressourcen in die Programmierung gesteckt werden - sprich Geld/Zeit, Personal und Hardware.
Beides spielt eine Rolle. Wer gut und sauber programmiert, die benutzbaren Befehle kennt und diese optimal nutzt, bekommt in gleicher Zeit (und damit den gleiche Kosten) mehr raus.
Dazu muß man aber ein guter Programmierer sein.

Wenn z.B. das Management nicht mitmacht (siehe EA mit DICE), nutzen dir die besten Programmierer nichts. Dann wird das Baby halt als Frühgeburt auf die Welt gebracht und nach Release künstlich am Leben erhalten.
Ja, gut, das das aber kein Mantle-spezifisches Problem ist :schief:

Das dürfte die große Schwäche an Mantle sein. Nicht nur, dass man AMD-Hardware mit GCN benötigt! Nein, man braucht auch noch Entwickler, die ihr Handwerk blind verstehen und ausüben können.
Es ist genauso die Schwäche von DX oder OpenGL. Wer die API nicht richtig kenn/nicht richtig nutzt, wird immer langsamen, uneffektiven oder gar fehlerhaften Code (grafische Glitches) erzeugen.

Ich könnte hier und jetzt eidesstaatlich versichern, in den letzten 10 Jahren kein Projekt mit "perfekter Programmierung" gesehen zu haben. Genau dahin will AMD die Entwickler aber schicken.
Den perfekten Code gibt es nicht.
Und ich sehe auch nicht, wie AMD da die Entwickler hinschicken will.
Mantle soll es einfacher machen, die Hardware vollständiger und optimaler auszunutzen bei gleichem Kenntnisstand und Können beim Programmieren.

-Mir graust es jetzt schon, wenn uns die Spiele wegen Programmierfehler um die Ohren fliegen.
Das tun sie doch jetzt schon :ugly:

Vor allem da die Entwickler mit Mantle noch mehr Möglichkeiten bekommen, das Spiel zu verhauen.
Wie kommst Du darauf?
Mantle so das programmieren nicht erschweren, sondern einfacher machen.

Bei dem potentiellen Aufwand sind 20% geradezu lächerlich wenig!
Wenn das Programmieren für Mantle wirklich einfach wird, ist der Aufwand geringer als zuvor, als man für DX programmierte. Dann noch zusätzlich 20% mehr fps...na, das ist doch super.

-Erst hieß es großspurig es können Steigerungen von bis zu 50% mit Mantle möglich sein. Jetzt sind es auf einmal nur noch 20%.
Du kannst doch nicht Äpfel und Birnen vergleichen.
Wenn der selbe Typ, der die 50% damals in den Raum geworfen aht, nun sagen wird "Naja, gut, es sind nur 20%", würde ich Dir recht geben.
Oder wenn das dieser eine Entwickler, der hier im Artikel vorkommt, gewesen wäre, der damals gesagt hat, es können 50% sein, dann auch.
Aber es sind nunmal zwei unterschiedliche Menschen, mit unterschiedlichen Erfahrungen was das Porgrammieren angeht, der eine soll Mantle präsentieren, der andere damit arbeiten.
Das kann man nicht vergleichen.

Was kommt demnächst? Die Ankündigungen von AMD man wolle die Nvidia GTX Titan "zerstören und lächerlich machen" wirken da plötzlich wie Größenwahnsinn.
Das wirkte sie von Anfang an.
Ich bin aber inzwischen so weit das sich glaube, das die 290x sich mit Mantle wirklich deutlich von der Titan absetzen kann.

Falls Intel genau so handelte, würden sie ständig AMD ihre AVX2-Benchmarks unter die Nase reiben.
Hä? Wie meinen?

Darüber hinaus löst Mantle immer noch nicht die üblichen Gamerprobleme. Selbst mit 144 Frames und einem entsprechenden Monitor wäre AMD nicht gleichwertig mit z.B. Nvidias G-Sync.
Inwiefern?

Ich nehme an, Mantle ist noch in einem relativ frühen Stadium.
-Eventuell haben AMD, DICE & Co. gerade die Planungsquase hinter sich und haben wie Gerüchten zufolge erst letztes Quartal mit der Implementierung angefangen.
Ich geh auch mal davon aus, das die aktuelle Mantle-Version nicht der letzte Stand der Dinge für die Ewigkeit sein wird.

Trotz aller Wünsche und Vorstellungen muss man eines Bedenken:
-Mantle ist kein Wunder, sondern eine reine Bandbreiten- und Lastverschiebung
Äh, nein.
Alles, was wir bis jetzt wissen, ist, dass der Overhead verringert wird.
Damit wird Bandbreite nicht verschoben, sondern "gespart".
Außerdem wissen wird, das mehr DrawCalls möglich sind.
Von irgendeiner Last wissen wir noch garnichts.

Alles was man damit erreicht ist eine Verringerung des Overheads. Das heißt die AMD-Lösung kann niemals schneller werden als 100% der Hardware. Sofern ich richtig informiert bin, arbeitet DirectX nur mit 60% Leistung, bei 40% Overhead. Das wären also maximal +40% Leistung die man "theoretisch" noch herausholen könnte.
Schuldigung, aber das ist Blödsinn.
Natürlich kann eine Hardware nicht mehr leisten, als das, wofür sie konzipiert wurde. Virtulle Transistoren wird man kaum erfinden können.
Der Punkt ist einfach folgender:
DX muß zu sämtlicher Hardware kompatibel sein, darum kommen zB bei der Berechnung von Grafiken nur Befehle zum Einsatz, die sowohl NVidia- wie auch AMD-GPUs kennen (und S3 und Matrox und Intel und so weiter).
Mit diesen Befehlen mögen sich alle Aufgaben bewältigen lassen, aber umständen muß, um ein Problem zu lösen, das Ergebnis eines Befehls an einen weiteren weitergegeben werden. Das sorgt dafür das die GPU einige Takte lang an ein und der selben Aufgabe arbeitet.
Wenn nun aber die GPU einen Befehl kennt, den DX nicht kennt, die das gleiche Problem in einem Zug berechnet, dann erhält man früher/schneller das Ergenis und wieder freie Resourcen für den nächsten Befehl.
Hier setzt Mantle eigentlich an.
Dabei fällt quais neben der Overhead von 40 auf 8%, das heißt aber nicht, das man 32% mehr Leistung bekommt, weil der Overhead nur ein Teilaspekt des ganzen Renderingvorgangs ist.
Ich werfe jetzt mal ne Zahl als Beispiel in den Raum, bitte nicht drauf festnageln: 10% weniger Overhead = 1% mehr fps.
Und dann kommen noch die DrawCalls dazu. Statt maximal 10k wie bei DX sollen es 100k sein.
Auch hier werfe ich jetzt einfach mal eine Zahl in den Raum: Verdoppelung der genutzten DrawCalls = 2% mehr fps.
Also bitte nicht falsch verstehen, DX nutzt eine Grafikkarte schon zu 100% aus, nur halt nicht effezient.
Mantle soll das ändern.

Dieser Fall wird aber niemals eintreffen, denn die 100% schafft nicht einmal Mantle. Dafür müssen sich die Programmierer dann aber ins Zeug legen als ob es um ihr Leben ginge = unrealistisch!
Siehe den Absatz zuvor.
Mantle nutzt die 100% einfach effezienter aus. Oder zumindest soll Mantle dies tun.
Ob und in wie weit das wirklich zutrifft, das bleibt abzuwarten.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

20 Prozent aus dem Nichts herzuzaubern, selbst nur in Extremfällen - was gibts daran zu meckern?

Ich meckere doch gar nicht. Wenn ich meckere, dann hört sich das anders an :D

Und die vermeintlichen 20% werden ja nun nicht aus dem Nichts hergezaubert. Das Spiel muss erst mal mit Mantle programmiert werden, und das kostet Zeit und Geld.
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

@Skysnake
Naja bestätigt ist es noch nicht, dass Mantle auf Linux laufen soll. bisher scheint dies nicht mehr als eine Vision zu sein. Siehe dazu dass Interview mit Andersson, das auf Heise veröffentlicht wurde. Und Manlte macht es laut Andersson nicht einfacher oder schneller eine saubere Portierung von Konsole auf den PC hinzubekommen. Das dürfte dann bei PC Exklusivtiteln sogar noch mehr Aufwand bedeuten:

c't: Die Konsolenspiele von Xbox One und Playstation 4 sind auf die GCN-Architektur optimiert. Ist es einfacher, derartige Spiele auf Mantle zu portieren statt auf Direct3D?

Andersson: Wen man schnelle Resultate sehen will, ist es auf Direct3D vielleicht einfacher. Aber wenn man es richtig machen will im Bezug auf Performance, Detailgrad und Robustheit, hat Mantle bei anspruchsvollen Spielen klare Vorteile – auch wenn das Portieren wahrscheinlich etwas länger dauert.

Quelle: APU13: Der Battlefield-Schöpfer über AMDs 3D-Schnittstelle Mantle | heise online
 
AW: Thief-Entwickler: 20 Prozent mehr GPU-Leistung danke Mantle "nicht unrealistisch"

APU13: Oxide fait exploser la limite CPU avec Mantle - Cartes Graphiques - HardWare.fr
APU13: Oxide fait exploser la limite CPU avec Mantle

http://www.hardware.fr/medias/photos_news/00/43/IMG0043518_1.jpg

Die EX-Macher von civilizationV Oxide Games werden uns im ersten Quartal2014 eine Android Demo (StarSwarm) presentieren die uns die Leistungkraft von Mantle zeigen wird,
gerade Civilization ist doch ein Paradebeispiel von einem CPU Killer und wenn die behaupten man könnte die volle Leistung eines i7-4770 / R9-290x Systems (DX11),
auch mit einem gedrosselten System FX8350 @2,0ghz und R9-290x (Mantle) hinbekommt ist es schon toll,
weil der CPU wird in 5 Jahren die Bremse werden, weil es keine grossen Taktsteigerung mehr geben wird.
 
Zurück