Star Citizen: Entwickler setzt auf AMD Mantle - Thief-Entwickler ebenfalls dabei

Hinzu kommt, dass bei den Konsolen ja oftmals von bis zu 100% Leistungszuwachs durch die Low Level API gesprochen wird. Dagegen wirken 20% recht mickrig.

Allerdings wird hier bei neuen Generationen immer davon gesprochen, dass sich die Entwickler erst über Jahre an die neue Programmierung gewöhnen müssen. Nen zehn prozentiger Zuwachs bei BF4 muss nicht unbedingt bedeuten, dass nicht wer anders 30% rausschlagen kann.
50% wäre ja übel krass und halte ich für unrealistisch. Dann würde ne 7950 für 180€ an ner GTX780 vorbei ziehen, dann kann Nvidia seinen Laden aber dicht machen. :)
 
Hinzu kommt, es wurde gesagt, dass man die Leistung von 2018 demnächst dank Mantle daheim haben wird.
Wenn wir davon ausgehen, dass mit jeder neuen Grafikkarte in etwa jährlich 20% drauf kommen, wären das in 4 Jahren 80% mehr Leistung und gehen wir mal davon aus, dass maßlos übertrieben wurde, sind je nach Szenario oder Hardware 50% vllt möglich, natürlich wird genau die Hardware und das Szenario gewählt werden, was dies am extremsten aufzeigt.
Also wäre mein Tip 50% rum, also statt 30 FPS 45 FPS usw.
Also lasset das Ratespiel beginnen und den Rubel rollen, Fuffi Euro auf Fuffi % mehr Leistung :D
(Je nach Hardwarekonfiguration und Szenario)
 
Ich sage 30-40%, wer bietet mehr?

Als Einsatz biete ich 4 Porter Kirsche. :ugly:

20131031_201430.jpg
 
20% ist für mich die kritische Schwelle. Alles unter 20% wäre ein Flop und den Mehraufwand nicht wert (spräche aber für die Performance DirectX 11 Schnittstelle!). In vielen Spielen entsprechen 20% mehr Performance nicht mal dem Sprung von Ultra auf High Quality.

Das hängt von der jeweiligen Spieleengine ab, in weit Diese durch schlechte Paralisierung der Engine die CPU als Flaschenshals entlarvt. Die besten Beispiel sind hier Skyrim, Rome2 oder Witcher2 usw.
Wenn bei diesen Games Mantle eingreifen würde, kannst du sogar bei einer 8 Kern/Threat CPU von 70% aufwärts ausgehen.

Bei BF4 komme ich meist nicht über 80% CPU-Auslastung. Dort sind die 20% durch Mantle realistisch, wovon die Grakas dann wiederum profitieren würden.
Wobei das Game recht gut mit Mehrkern-CPUs scaliert, sehe ich dort noch jede Menge ungenutzes Potenzial auf der Strecke liegen.
 
Oh mans chon wieder? :ugly:
Übrigens landen die ersten 290er so langsam in Geizhals und der Gibbo meinte im overclockers Forum, dass entweder um 5 Uhr morgens oder um 8 Uhr englischer Zeit die Teile bei denen im shop landen werden und man sehr positiv über den Preis überrascht werden wird...
Bei uns sind die Preise leider recht teuer und ich hoffe dies wird sich schnell ändern ...
 
nVidia soll mal ruhig auch son Teil entwickeln, dann kommt man endlich von MS los. Dieser ständige zwang, sich ein neues OS kaufen zu müssen weil das neue DirectX beim alten angeblich nicht geht, geht mir auf den Sack.

Damit werden die nicht durchkommen, siehe allein schon PhysX, bei AMD sieht das anderes aus, da die jetzt den Konsolenmarkt bedienen, habe die es leichter es durchzusetzen

Es ist garnicht nötig von MS loszukommen. Ich bin zufrieden mit der Situation, wie sie ist. MS hat nur den Rattenschwanz von DX 9 abgeschnitten und bei DX 10 einige Ansätze von Grund auf neu umgesetzt. Ich bin mir nicht sicher, dass die von dir vorgeschlagene Situation besser wäre.
Erst Windows XP 2002 und dann Windows 7 2009 nennst du ständig? :ugly:

DX10, WTF, welches Spiel läuft schon auf DX10, es war mal kurzzeitig der Fall, bis es wieder in die Versenkung verschwand.

Also wären künftige High-End NVIDIA Karten nur noch Mid-Range Karten wenn Mantle einschlägt? :ugly:

AMD sagt, das es 9x mehr Draw Calls pro Sekunde bewältigen kann als DX 11 und auch höhere Grafikleistung durch direkten Zugang zu allen GPU - Features sowie neue Rendering - Techniken ermöglicht.

Ausserdem soll das Zusammenspiel von CPU und GPU optimiert werden dadurch, das heisst das AMD CPU´s, denke auch die Intel CPUs an Leistung zu legen werden.

Sollte es stimmen, wird Mantle der Durchbruch werden.

Weil das der Firmenpolitik/philosophie bis vor 1-2 Jahren entsprechen würde?

AMD wendet sich von der Firmenpolitik ab, welcher der so manch einer sie zu schätzen weiß, und auch mal das eine oder andere % Performancenachteil in Kauf nimmt, einfach weil Sie eine gewisse Firmenpolitik vertreten haben, die unterstützenswert war. Das ändert sich aber im Moment...


Also ich würde die Architektur von nVidia jetzt nicht als die bessere bezeichnen. GCN ist in sehr sehr sehr sehr vielen Punkten eine sehr schöne und durchdachte Architektur, auf der man sehr schön aufbauen kann. Bei nVidia gibt es da schon mehr trickserei und Unschönheiten, an denen man sieht, das man manch alten Pferdefuß noch mit sich rum schleppt. Was nVidia aber schafft ist ne gute Workdistribution und bzgl Front-/Backend sind Sie auch ganz gut aufgestellt. Da muss GCN einfach noch reifen. Wenn ich mir aber aussuchen könnte, welche Architektur ich für die nächsten 5 Jahre als Grundlage nehmen würde, wäre dies ganz klar GCN. Die Architektur ist einfach zu schön in vielen Details, und es gibt auch noch viele Sachen, die über die APIs leider noch gar nicht genutzt werden können. Da steckt noch verdammt viel Potenzial drin für die nächsten Gens..

Und was hat das AMD eingebracht, leider nicht viel

Und ich meine mit der besseren Architektur, gesehen auf Lautstärke und Verbrauch, man musste keine überdimensionalen Kühler verbauen um die Karten leise zu bekommen, und der Verbrauch ist auch niedriger

Aus diesem Grund hatte ich mir den Kepler geholt, leider war ich von Anfang an sehr unzufrieden, nicht mehr zu vergleichen mit meiner alten GTX 260 1. Generation, wenn AMD es endlich schafft ihr Paket besser abzurunden, kann ich mich dazu hinreißen lassen nach meiner letzten ATI X850XT PE(die auch schon jenseits von gut und böse war) wieder eine rote zu kaufen.
 
Soll ja Leute geben, die für 10% Mehrleistung 100€ mehr ausgeben, warum sollte Mantle dann bei 10% ein Flop werden ?

Unabhängig von der Beschränkung auf GCN, ist AMD den richtigen Weg gegangen. Ob die Firmenpolitik jetzt drunter leidet oder nicht sei auch mal dahingestellt. Es sollte viel mehr auf dieser Ebene optimiert werden, dadurch steigert man den Wirkungsgrad der GPU. Abgesehen davon lebt man nicht von den paar Kunden, die AMD aufgrund ihrer Firmenpolitik unterstützen.

nVidia tut bis heute auch nichts anderes als die Gamer für sich zu gewinnen und steckt den Finger jetzt auch noch in Monitore. Für den Einheitsbrei ist sowas natürlich nicht gut, aber die Technik an sich wird dadurch verbessert und daran ist in erster Linie nichts verkehrt. Mantle ist auf keiner Ebene ein Nachteil für die grünen Jungs. Durch die Implementierung wird die GraKa des anderen Lagers ja nicht "verschlechtert", sie bleibt so wie sie ist.
AMD Karten wurden ja auch nicht zu Krüppel, wenn ein Spiel auf NV GPU optimiert wurde und auf dieser mit 10% besser lief !?

Den Entwicklern ist es selbst überlassen Mantle zu implementieren und allem Anschein nach soll das ja kein großer Aufwand sein. Warum soll der Coder das nun ablehnen, wenn er weiss, dass er dadurch höchstwahrscheinlich mehr Verkaufszahlen erreicht ?

Alles richtig gemacht AMD. Weiter so!
 
Als ob NV nichts gewusst hat. Das war doch letztes Jahr als mehrere Mitarbeiter von AMD zu NV gewechselt sind und tausende Dokumente mitgenommen haben. Ich glaube nicht dass NV ahnungslos war.
Was den proprietären Mist angeht, die Kunden wollen es doch. Jahrelang den Mist kaufen und jetzt schreien wenn die Konkurrenz auch einen Mehrwert bietet ist einfach nur arm.
 
ich frage mich nur, widerspricht eine low level api nicht dem system von windows? eigentlich soll es doch gar keine api ermöglicht, werden direkt auf die hardware zuzugreifen... quasi umgehen die damit jegliche schutzsysteme des bs... und sobald das draußen ist, werden doch alle hacker und cracker der welt das untersuchen, nur um dann via low level attacken, malware, trojaner und sonstwas für schund ins system zu schleusen,. vorbei an allen layern und schutzsystemen... und wenn das ach soviel besser als dx ist, warum arbeitet amd dann nicht mit ms zusammen um eben dx zu verbessern?

für mich ist das ein rückschritt in die glide, dx, d3d, opengl zeit, wo man noch wie bei unreal den renderer selbst wählen konnte, je nachdem welche hardware man hat... sollte nich eigentlich der pc den konsolen angeglichen werden, um den spielern ein einfacheres spielen zu ermöglichen? jetz muss man sich damit auch noch auseinandersetzen... naja ich bin da mehr als skeptisch..
 
Das hängt von der jeweiligen Spieleengine ab, in weit Diese durch schlechte Paralisierung der Engine die CPU als Flaschenshals entlarvt. Die besten Beispiel sind hier Skyrim, Rome2 oder Witcher2 usw.
Wenn bei diesen Games Mantle eingreifen würde, kannst du sogar bei einer 8 Kern/Threat CPU von 70% aufwärts ausgehen.

Bei BF4 komme ich meist nicht über 80% CPU-Auslastung. Dort sind die 20% durch Mantle realistisch, wovon die Grakas dann wiederum profitieren würden.
Wobei das Game recht gut mit Mehrkern-CPUs scaliert, sehe ich dort noch jede Menge ungenutzes Potenzial auf der Strecke liegen.
Mantle wird ja nicht nur die GPU Effizienz steigern, sondern auch die CPU Last mindern, ergo könnte am ende sogar trotz mehr FPS die CPU Auslastung sinken.


Ich sage einfach 60% um mein Porter Kirsche ausm Kühlschrank loszuwerden, ich mag das Zeug einfach nicht :ugly: Habe aber noch 6 Flaschen :schief:
Was wenn du recht behalten solltest?:ugly:


@ger-bockwurst, Ja: mantle ist wie Glide, aber die gesamte Umgebung hat sich in den letzten 15 Jahren massiv geändert.
 
ich frage mich nur, widerspricht eine low level api nicht dem system von windows?
An sich ja, wobei die Lowlvl Zugriffe es ja eh immer geben muss, die sind halt nur hinter APIs und Treibern versteckt.

eigentlich soll es doch gar keine api ermöglicht, werden direkt auf die hardware zuzugreifen...
Jaein.

Wenn du z.B. Infinibandtreiber hast, dann ist das GENAU das was du haben willst. Du packst die Treibergeschichten in den Userspace, damit du keine OS-Traps auslösen musst, die Leistung kosten.

quasi umgehen die damit jegliche schutzsysteme des bs...
Nein....

und sobald das draußen ist, werden doch alle hacker und cracker der welt das untersuchen, nur um dann via low level attacken, malware, trojaner und sonstwas für schund ins system zu schleusen,. vorbei an allen layern und schutzsystemen...
Nein, du hebelst die Schutzsysteme nicht aus. Wenn du in die Register der GPU irgendwelchen scheis rein schreibst, dann haste halt Pech gehabt, wenn das Ding abstürzt, viel mehr kannste da aber nicht machen.

Und ansonsten unterliegt die Speicherverwaltung ja DENNOCH! noch dem OS. Das OS ist immer der Einzige, der die Speicherverwaltung übernehmen darf. Durch die lowlvl Zugriffe auf die Hardware ergeben sich in modernen systemen meines Wissens nach keine Nachteile. Mir fällt zumindest jetzt nichts ein.

und wenn das ach soviel besser als dx ist, warum arbeitet amd dann nicht mit ms zusammen um eben dx zu verbessern?
Schau dir an, was nVidia macht mit DX. Die unterstützen das auf das Sie bock haben. nVidia ist was Standards anbelangt bekannt dafür kein angenehmer "Partner" zu sein. nVidia wird wohl lang genug gebremst haben, und inzwishcen hat AMD offensichtlich auch keinen großen Bock mehr darauf, sich immer wieder mit nVidia rum zu zanken.

für mich ist das ein rückschritt in die glide, dx, d3d, opengl zeit, wo man noch wie bei unreal den renderer selbst wählen konnte, je nachdem welche hardware man hat... sollte nich eigentlich der pc den konsolen angeglichen werden, um den spielern ein einfacheres spielen zu ermöglichen? jetz muss man sich damit auch noch auseinandersetzen... naja ich bin da mehr als skeptisch..
An sich teil ich da deine Ansicht. Man hätte es aber auch einfach mal bei DX schaffen können einige alte Zöpfe ab zu schneiden, und dem Standard einfach mehr Liebe zukommen zu lassen.

MS hat ja gezeigt, dass Sie es schaffen auch Optimierungen von DX von der XBone auf den PC zu bringen. DAs hätte nur schon VIEL früher passieren müssen. Aber so ist es halt, wenn man gegeneinander arbeitet und nicht miteinander... :daumen2: :kotz:
 
DirectX 11 baut auf den Änderungen in DX10 auf. Wir wissen ja alle, dass das ohne Tessellation wesentlich schneller ist als DX9, also hat es einiges gebracht.

Ja, aber wenn man eine DX10.x Karte hatte, schaute man jedesmal in die Röhre, da die Spiele nur ein DX9 oder DX11 Pfad hatten, das meine ich damit, DX10 war nur ein Übergang zu DX11 und verschwand auch sehr schnell wieder
 
Ob das wirklich schon im November kommt? Vielleicht hat Andersson sich nur im Monat vertan ^^
Wäre natürlich cool wenn der Zeitplan übertroffen wird.
 
läuft ja jetzt schon eigentlich gut, also performance technisch. Kann mir auch nicht vorstellen, dass sich da jetzt so viel ändern wird.
 
Zurück