Würd mich jucken wie smooth die API dann läuft.
Man entsinne sich nur an 3DFXs eigenes Glide. Dagegen war DX eine Ruckel Zumutung trotz stabilen fps wie das heutige mikroruckeln. Es ist nur nicht jedem aufgefallen.
Naja, Ruckeln war weniger das Problem als vielmehr der gravierende Unterschied in der Bildqualität und Kantenglättung. Das war so extrem, dass man es mit bloßem Auge sehen konnte.
Ruckler und Lags wie wir es heute kennen, gab es nicht unbedingt weniger. Wenn man ausreichend bestückte Hardware hatte, fiel das garnicht auf. Manche Games wie Unreal konnte man sogar mit Software-Renderer spielen. Natürlich war das nicht vergleichbar, aber es ging! So einen Vorsprung wird sich Mantle niemals erarbeiten können.
Zudem die ganzen Effekte, die unter Glide damals weit aus besser liefen und besser aussahen. Z.B, der Rauch unter dx bei NFS3 war ja wirklich eine Katastrophe "G"
Hofen wir das beste. Wenn es wie mit Glide wird, kommt ein Crossfire Gespann in meinen Rechenknecht.
Ich bin mir hierüber noch nicht sicher. Die ganzen Effekte wurden alle hart von den Entwicklern erarbeitet. Heutige Titel sind von der grafischen Qualität einfach viel zu hoch. Ein paar weitere Effekte fallen da nicht mehr auf!
Bei Spielen wie Crysis oder Battlefield hat man schon relativ gute Grafik. Da kann man nicht mehr viel verbessern. Einzig in Phsyik (z.B. zerstörbare Umgebung), KI der Gegner und Einheiten sowie komplexer Lichtberechnung können noch Fortschritte erzielt werden.
Bei Physik wird AMD nicht punkten, denn sie besitzen noch nicht einmal eine Physikengine wie PhysX. AMD hat bisher immer fremde Technologien wie HAVOK lizentsiert. Bei der neuen Ruby-Demo war es soweit ich weiß von der Cryenginge benutzt.
Die Annahme ist schlichtweg falsch, nur die Engine Entwicklungszeit erhöt sich, bzw. eigentlich erhöht sich lediglich die Entwicklungszeit vom 3D Renderer. Ob verdoppeln oder verdreifachen weiss ich nicht, den Meisten Spielentwicklern ist das aber egal, die benutzen eh vorgefertigte Engines (UE4, cry Engine 3, Frostbite 3).
Dein "nur" kostet aber mindestens 50% der gesamten Entwicklungszeit. Solange man nicht wie Activision in Call of Duty zwei Studios abwechselnd dasselbe Spiel entwickeln lässt, so dass es jedes Jahr erneut erscheinen kann, verlängert sich definitiv die Entwicklungszeit.
Mit vorgefertigten Engines erreicht man nicht das Maximum einer Low-Level-API. Ich bezweifle stark, dass es so einfach ist!
Zu Zeiten von GLIDE gab es noch deutlich mehr Grafickchiphersteller als heute, Heute gibt es noch 3 Nennenswerte im Spielebereich.
Intel ist noch nicht nennenswert, aber bald. Die Zeiten von Glide waren eine Pionierzeit. Als der Umschwung auf richtige 3D-Grafikkarten kam, ist 3dfx daran zugrunde gegangn wie viele andere Hersteller auch. Auch wenn ich ein großer Fan und bewunderer dieser tollen Grafikschmiede bin, hatte ich damals das Gefühl nach der Voodoo 2 kam nichts mehr vernünftiges nach.
Jede neue Karte hatte irgendwelche Nachteile und das Fehlen von T&L hat letztendlich den Untergang von 3dfx bekundet. Das und eine Menge Managementfehler.
Die AMD API soll sehr nahe an denen der Konsolen sein, sonst hätte AMD den Schritt doch gar nicht gewagt. Oder glaubst, die wissen nicht, dass sie Anfang 2014 vielleicht nen PC Marktanteil von 10% (GCN bei Spielern) haben? Somit sollte die Umsetzung eines Spiels, das sowieso schon auf Konsolen erschienen ist nicht so aufwendig sein, wie das z.B. bei ner Nvidia-Eigenen Low Level API sein würde. Aber genaueres wird die Zeit zeigen.
Du verkennst die Lage von AMD vielleicht ein wenig. Ihnen blieb nur die Flucht nach vorne. Bei den CPUs hat sie Intel vor Ewigkeiten bereits meilenweit abgehängt. Einzig die Grafiksparte hält das Unternehmen noch irgendwie über Wasser. Also musste AMD handeln. Die Konsolendeals kamen nur zufällig. Das kann sich in ein paar Jahren theoretisch wieder ändern.
Vergleiche doch nur einmal die Qualität zwischen PC und Konsolenversion in Battlefield. Sobald du die Versionen nebeneinander hältst, trifft dich der Schlag. Das ist so übel, man bekommt fast schon zustände.
Der Vorteil von Mantle als Low-Level-API ist einzig die Verringerung von Overhead. Das heißt weniger Verwaltungsaufwand, den andere APIs wie DX und OpenGL haben. In der Theorie kann der Entwickler auch neue Effekte für die Grafikkarte programmieren. Die sind dann aber nur für AMD-Karten ab einem gewissen Stand.
--> Bei gleichem Aufwand könnte man auch für die anderen Schnittstellen entwickeln. Vor allem bei Crossplattformtiteln wäre das vorteilhaft. OpenGL wäre dafür ein Kandidat! Mantle muss sich in dieser Hinsicht erst noch beweisen.
Ich wiederhol's gern nochmal, das ist ungefähr der Unterschied einer GTX770 und einer 780. Weißt du was die beiden für nen preislichen Unterschied haben? Aber auch hier wissen wir natürlich nicht, ob es tatsächlich so viel ist oder sogar (zwar eher unwahrscheinlich) mehr.
Im Prinzip ist der Unterschied nur marginal! Selbst mit einer GTX660+ kann man fast alles flüssig in Full-HD spielen. Der Unterschied kommt halt von den Bildverbesserungen. Sofern man nicht alles auf Max + SGSSAA + HBAO(+) + Downsampling spielt, braucht man keine Überkarte.
Auf der besagten Veranstaltung ging es um neue Bildschirmtechnik namens G-Sync von Nvidia, die quasi die 60Hz-FPS-Grenze abschafft. Demnach ist es unwichtig ob du 40, 60 oder 120 Frames hast. Als Techniker bin ich an solchen Verbesserungen mehr interessiert als einer zusätzlichen API.
Normalerweise schlägt eine Hardwarelösung immer die Softwarelösung. Beide Technologien lösen spezifische Probleme. Mantle ist gerade
erst in den Startlöchern und wird Gerüchten zufolge sogar verschoben. AMD muss hier erst liefern und noch dazu Details liefern. Bisher diskutieren wir nur aufgrund den Versprechungen von AMD und Dice.
Viele Entwickler sind skeptisch und wollen eigentlich keine neue API haben. Die jetzige Situation ist kompliziert genug für sie!