Nvidia-Event: Fan bringt mit Frage zu AMDs Mantel Spieleentwickler in Verlegenheit

Ich meine in Erinnerung zu haben das ich damals irgend einen Artikel gelesen hatte wo gesagt wurde das DX10 prinzipiell auch auf XP nutzbar gewesen wäre und es eben kein rein technischer Grund sei warum DX10 nicht für XP gebracht worden ist. Vielmehr steckte wohl dahinter das MS einfach die User dazu bewegen wollte nach der langen Zeit von XP auf ein neues OS umzusteigen. Ich weiß aber nicht mehr wo ich das gelesen hatte...

Ist ja auch so, außer das DX11.1 und DX11.2 die eine oder andere Sache leicht beschleunigen bringen beide Versionen nichts relvantes was nicht auch mit DX11.0 machbar wäre. Das diese maginalen Verbesserungen anscheinend auch keine Implementierung Wert sind sieht man ja auch an den Entwicklern, oder kennst du einen Titel der bis jetzt released wurde, oder demnäst released werden soll der DX11.1 nutzen wird?

Ist im Prinziep wie mit DX10.1, das hat auch nur AMD unterstützt, Nvidia hatte damals auch nur DX10.0 Support, trotzdem gab es außer glaube bei Stalker keinen Titel der das genutzt hätte und ich meine mich zu erinnern das sich AMD bei Stalker Clearing Sky sogar noch bzgl. DX10.1 eingekauft hätte.

Nvidia bremmst da also garnichts. Es ist schon MS die sich da einfach nicht bewegen.

Wer implementiert denn schon solche Features wenn es Nvidia nicht unterstützt. Das übliche Henne Ei Problem. Da müssen die Hardware Hersteller vorrangehen, vorallem solche die so ein Standing wie NV haben. Sorry.
 
Es kommt eben darauf an um wie viel Mantle nun schneller ist als DX11.1 bei gleicher Optik. Sollten AMD Karten unter Mantle tatsächlich 50% (oder gar noch mehr) schneller sein würde ich sicher zu einer 290X greifen, da ich die nächsten 2 Jahre eh hauptsächlich BF4 spielen werde.
 
Waren da nicht von 20-30% Mehrleistung durch Mantle die Rede?
Von einer konkreten Zahl war überhaupt nie die Rede, außer das AMD gesagt hat, dass man für 2-4% (Einstellige Zahlen hat AMD genannt) sich nicht die Mühe gegeben hätte eine neue API zu definieren.
Der Leistungszuwachs liegt also klar höher, aber um wie viel muss man abwarten.

Der Leistungszuwachs wird von Spiel zu Spiel auch unterschiedlich ausfallen, auch von Stelle zu Stelle.
 
20-30% ist halt der Unterschied zwischen GTX770 und 780, also im High-End Bereich legt man für so eine Leistungssteigerung sonst einiges an Geld hin. (wenn sich diese, in den Raum geworfenen Zahlen, bewahrheiten sollten)

Mich interessiert's aber am meisten für Kaveri. Mit Richland war BF3 schon äußerst flüssig spielbar bei 720p und low. Wenn Kaveri schneller und zusätzlich durch Mantle nochmal gepusht wird, steht BF4 und Generals 2 auf nem HTPC auch in 1080p evtl nichts mehr entgegen. (man darf ja träumen ;) )
 
dice wurde doch eh von amd gekauft damit die mantle einführen, scheinbar auch noch nicht so lange her, sonst wäre mantle ja schon bei game release dabei und müsste nicht noch erst nachgepatcht werden...
halbes jahr nach release wirds bf4 dann auch im never settle geben...

nv und amd sollten eher besser zsm arbeiten (software) um so den pc allgemein zu pushen und entwicklern einiges an optimierungsarbeit abzunehmen....
 
dice wurde doch eh von amd gekauft damit die mantle einführen, scheinbar auch noch nicht so lange her, sonst wäre mantle ja schon bei game release dabei und müsste nicht noch erst nachgepatcht werden...
halbes jahr nach release wirds bf4 dann auch im never settle geben...

nv und amd sollten eher besser zsm arbeiten (software) um so den pc allgemein zu pushen und entwicklern einiges an optimierungsarbeit abzunehmen....

Naja warum auch nicht?
Sonst macht ja nie einer den ersten Schritt. Sonst wäre OpenGL wohl auch schon weiter verbreitet und es gebe mehr Games für Linux und co.
Für AMD ist es wie ne Werbeausgabe und wenn es wirklich ne ansehnliche Leistung im Vergleich zu DX erreicht, dann wird es sich auch von allein verbreiten und dass man nun BF4 auch noch verschiebt, nur damit die API noch mit dabei ist, wäre auch sinnfrei und würde nen Vermögen kosten.
AMD hat es ja auch nicht gerade früh präsentiert, auch wenn Entwickler wohl schon länger Bescheid wussten - zumindest DICE.

edit: Würde mich außerdem auch nicht wundern, wenn Nvidia dafür gezahlt hätten, dass die dort hinkommen, bzw PhysX etc mit einbinden.
 
Es ist ohne Frage besorgniserregend, da wird zuviel (seitens Amd) auf eine klare "Trennlinie" zwischen Intel - AMD Komponenten hingearbeitet, .
Ich möchte mir aber keine AMD Karte kaufen, damit ich zb. in Bf 4 / 10-15 Fps mehr habe nochdazu am besten den I5 gegen einen 8350 Tauschen, damit die Gpu dann auch wirklich ihre Leistung zeigt....:daumen2:

Was ist mit G-Sync? Da wird zuviel (seitens NVidia) auf eine klare "Trennlinie" zwischen AMD - NVidia Komponenten hingearbeitet, noch dazu wollen Sie dies nun auf alle Spiele ausdehnen.
Ich möchte mir (neben einen oder mehreren neuen TFT´s) keine NVidia Karte kaufen müssen, nur um Lagfrei zocken zu können
 
Es kommt eben darauf an um wie viel Mantle nun schneller ist als DX11.1 bei gleicher Optik. Sollten AMD Karten unter Mantle tatsächlich 50% (oder gar noch mehr) schneller sein würde ich sicher zu einer 290X greifen, da ich die nächsten 2 Jahre eh hauptsächlich BF4 spielen werde.

Was hast du denn für Vorstellungen?
Ich schätze ja das es irgendwo zwischen 10-30% bringt, würde eher behaupten das es Richtung das erste geht also 10-15%.
 
Eine low-level-api, die sich erstmal auf AMD Hardware beschränkt, ein neuer Displaystandard, der sich auf NVIDIA Hardware beschränkt. DirectX Features, die sich nur auf MS' neustes OS beschränken.
Die Konkurrenz belebt nicht nur das Geschäft, sondern auch die Beschränkungen. Ich sehe schon IKEA als Neueinsteiger in der Gamingsparte - mit vielen neuen Schränken im Angebot.
 
Eine low-level-api, die sich erstmal auf AMD Hardware beschränkt, ein neuer Displaystandard, der sich auf NVIDIA Hardware beschränkt. DirectX Features, die sich nur auf MS' neustes OS beschränken.
Die Konkurrenz belebt nicht nur das Geschäft, sondern auch die Beschränkungen. Ich sehe schon IKEA als Neueinsteiger in der Gamingsparte - mit vielen neuen Schränken im Angebot.
Um jetzt etwas aus Spaß Amok zu laufen:

Hoffentlich verreckt AMD, Intel kauft Nvidia auf und vervollständigt sein Monopol.
Kauf ich mir dann eine Intel APU für 1000 Euro, besser als 3 x 300 Euro Einzelteile zu kaufen, um unterschiedliche Vorteile zu nutzen. :P

Nein, egal wie rum, es gäbe immer etwas zu meckern. ;)
 
Um jetzt etwas aus Spaß Amok zu laufen:

Hoffentlich verreckt AMD, Intel kauft Nvidia auf und vervollständigt sein Monopol.
Kauf ich mir dann eine Intel APU für 1000 Euro, besser als 3 x 300 Euro Einzelteile zu kaufen, um unterschiedliche Vorteile zu nutzen. :P

Nein, egal wie rum, es gäbe immer etwas zu meckern. ;)

Absolut. Da wär mir das Meckern mit der 1000€ APU aber lieber ;)
 
Wenn Unternehmen sich wieder auf den Kunden und nicht auf den schnellen Dollar besinnen, dann kann auch Nvidia seine eigene API rausbringen und die Entwickler könnten beide unterstützen so viel Entwicklungsarbeit kanns ja nicht sein.

Alles bloß keinen neuen API-Krieg! Die Entwickler brauchen in der Neuzeit immer mehr Ressourcen um die Implementierung auf mehreren Plattformen durchführen zu können. Die Plattformen mit dem größten Aufwand wird meistens falls gelassen. Häufig ist das der PC(!).

Die Entwicklungsarbeit verdoppelt sich grob bei jeder zusätzlichen API! Du musst alles doppelt und dreifach machen. Kein Entwickler kan sich das auf Dauer leisten.


Der Engine beizubringen mit Mantle , OpenGL und Nvidia API umzugehen kann nicht so schwer sein.

Natürlich ist das möglich, nur die Frage ist wie viel Aufwand wird dafür benötigt. Sowohl OpenGL als auch DirectX sind Standards. Microsoft und die Chronos Groups erweitern in gewissen Zeiträumen den Funktionsumfang und die Fähigkeiten der jeweiligen API. Wobei hierbei noch gesagt werden muss, dass OpenGL Plattform-offen ist, das heißt es funktioniert bei so gut wie jedem Betriebssystem.

AMD Mantle und Nvidia's potentielle API wären nur für die eigene Hardware geeignet. Das hieße beide liefen nur auf den Karten des jeweiligen Herstellers. Die Entwickler müssen dies zusätzlich zu den normalen APIs entwickeln und dazu noch die spezifischen Vor- und Nachteile in Betracht ziehen.

Taucht irgendwo im Spiel ein Fehler auf, geht die große Suche los:
-Ist der Fehler nur in der Engine oder muss er in jeder API einzeln abgefrühstückt werden.
-Funktioniert ein Fix für alle APIs oder muss man jede einzeln individuell anpassen

Debugging wird da zur reinen Freude .... das möchte ich niemandem zumuten!


Damals hat man gejubelt wenn sich ein Titel über 3 Millionen mal verkauft hat heute ist das nur Negativ.

Damals waren die Titel auch nicht so aufwendig wie heute. Alte Klassiker konntest du zu der Zeit fast noch alleine schreiben. In heutigen Produktionen geht das Budget locker bis zu 100 Millionen Dollar/Euro. Für die Zwischenvideos braucht es richtige Renderstudios etc... etc..

Da lohnen sich 3 Millionen verkaufte Exemplare fast garnicht mehr! Das ist mitunter ein Grund weshalb der Fokus so stark auf den Konsolen liegt. Einfach weil dort die Absatzmenge höher ist als auf dem PC!


Jungs Mantle ist Klasse aber Pssst wir sind hier auf einer "NVIDIA Veranstaltung", merkt Ihr wat.

Bitte keine Verallgemeinerungen! Niemand weiß wie sich Mantle entwickelt noch was die Schnittstelle eigentlich genau bringt. Auch wenn es eine Nvidia-Veranstaltung war, haben sie diese wichtigen Programmierer bzw. Firmenchefs zusammengefunden. Das ist ein einmaliges Event.

Gerade John Carmack ist alles andere als voreingenommen und spricht mehr aus technischer Sicht. Er ist wohl einer der neutralsten Entwickler in der Szene.

Johan Andersson von DICE hat natürlich seine Entscheidungen und sein "Produkt" verteidigt... das war nicht anders zu erwarten. Dennoch muss man ihm zugute halten, dass er die Eier hat sich auf eine Nvidia-Veranstaltung zu setzen, obwohl er mit AMD im Bett ist.

Epic Games Gründer Tim Sweeney ist da irgendwo in der Mitte der Meinungen. Auch wenn er über die möglichen Vorteile nachdenkt, graut es ihm vor einer weiteren API. Er hat das alles schon seit den 90ern miterlebt und will da auf keinen Fall wieder hin. Die Absage ist daher verständlich.

--> Informier dich besser einmal, bevor wieder so dämlich Aussagen kommen! Schau dir den Stream nochmal an.


Ich bin mir ziemlich sicher gelesen zu haben, dass Mantle einfach in andere Betriebssysteme integriert werden kann. Auch Linux wurde genannt, was wiederum kein wörtliches Versprechen ist, dass sie es auch tun werden.

Prinzipiell kannst du überall eine API integrieren. Leider musst die die "Schnittstelle" immer an die Gegebenheiten anpassen. Die gleiche API von Windows lässt sich nicht 1:1 in Linux verpflanzen, weil die Betriebssysteme zu unterschiedlich sind.

Viele Faktoren spielen hier eine Rolle:
-Treibermodell
-Dateisystem
-Grafische Oberfläche
-Renderpfade
-Berechtigungen
...

Das müsste AMD alles anpassen und bei jeder neuen Version oder Updates wie Windows 8.1 wieder Hand anlegen. Das ist ein reines Hase -> Igel Prinzip. Da AMD eigentlich keinen Einfluss auf die Betriebssysteme hat und auch nie bekommen wird, ist das ein äußerst kritischer Weg.

Microsoft wird alles andere tun als sich von AMD in die Karten sehen lassen. Bei Linux herrscht das reinste Chaos. Bei Ubuntu hat Canonical die Finger im Spiel, Valve mischt demnächst mit SteamOS mit. Alleine die grafischen Oberflächen KDE und GNOME spaltet die Community. AMD hat nicht die Marktmacht um alles durchzusetzen.


Was hast du denn für Vorstellungen?
Ich schätze ja das es irgendwo zwischen 10-30% bringt, würde eher behaupten das es Richtung das erste geht also 10-15%.

Naja, bei dem potentiellen Aufwand wäre das überhaupt nicht viel!

30% von 10 FPS = + 3 Frames (=13 Frames)
30% von 20 FPS = + 6 Frames (=26 Frames)
30% von 30 FPS = + 9 Frames (=39 Frames)
30% von 40 FPS = +12 Frames (=52 Frames)
30% von 50 FPS = +15 Frames (65 Frames)
30% von 60 FPS = +18 Frames (78 Frames)

--> Die Werte dürften dazu noch stark von der Auflösung und verwendeter Engine abhängen. Ich glaube nicht, dass 4k UHD-Spiele so extrem zulegen werden.

Also ich weiß ja nicht, ob sich das lohnt. Wenn man nicht unbedingt auf harte Benchmark-Ergebnisse wert legt, ist das nicht gerade attraktiv für die Entwicklerstudios. Letztendlich ist es eh nur AMD-relevant, da es höchstwahrscheinlich erst einmal die eigenen Karten bevorzugt (low-level =hardwarenahe).
 
Zuletzt bearbeitet von einem Moderator:
Zurück