AMD glaubt, dass Nvidia mit Fermi den Spielemarkt aus den Augen verliert

"Die Messe sei eine 180°-Drehung gegenüber dem Nvision-Event im Jahr zuvor, bei welchem Nvidia sich größtenteils auf den Spielermarkt konzentrierte."

Ach herrje, wie schrecklich, hat man es doch glatt gewagt den Focus einer Veranstaltung zu verändern und sich weniger auf Spiele und mehr auf Computing auszurichten - und das ohne AMD bescheid zu sagen :rolleyes:

Komisch, vor nem Monat hat AMD noch ganz andere Töne gespuckt:
AMD gegen Nvidia: Schwere Vorwürfe wegen angeblicher Benachteiligung in Batman, Resident Evil 5 und NFS Shift (Update: Stellungnahme vom Developer) - AMD, Nvidia, Batman: Arkham Asylum, NFS Shift, Resident Evil 5
Da klingt das irgendwie ganz anders ;)

Glaubt da ärgert sich jemand, nicht auch diesen Zug genommen zu haben - womit AMD dann wohl bei der nächsten Generation werben wird? ;)
 
Dann müsste Nvidia über TWIMTBP ja eigentlich schon für Fermi optimieren. :schief: Alles andere wäre eine Abkehr von den Gamern. *übertreib* :ugly:

B2T:
Recht hatter. In allen Events vor den Launches neuer Nv Generationen stand das Gaming im Vordergrund. Das hat auf der GTC gefehlt von vorne bis hinten. Nix mit Gaming, nur GPGPU Computing.
Ich wage zu behaupten, dass der Fermi ein super GPGPU Rechner ist, aber ein verdammt treiberabhängiger und mieser Gamer.
 
Ich glaube nicht, dass ATI den Zug verpennt. Denn NV muss erstmal auch nur annähernd die Rohleistung zeigen um sagen zu dass sie besser sind. Da sollte sich Fermi ersteinmal beweisen.

Aber ich glaube, das ATI durchaus Recht hat. NV sieht, dass sie auf dem Spielemarkt gegen sehr gute und vor allem extreme Kampfpreise seitens ATI längerfristig keinen Erfolg erzielen können ohne einen Strategiewechsel durchzuziehen. Denn auch Fermi wird wieder ein sehr teurer Chip. Aber nur weil ich vieleicht das eine Video in der Hälfte oder einem Viertel der Zeit konvertieren kann, bin ich als Spieler nicht bereit das doppelte oder gar dreifache zu bezahlen.
 
"Die Messe sei eine 180°-Drehung gegenüber dem Nvision-Event im Jahr zuvor, bei welchem Nvidia sich größtenteils auf den Spielermarkt konzentrierte."

Ach herrje, wie schrecklich, hat man es doch glatt gewagt den Focus einer Veranstaltung zu verändern und sich weniger auf Spiele und mehr auf Computing auszurichten - und das ohne AMD bescheid zu sagen :rolleyes:

Komisch, vor nem Monat hat AMD noch ganz andere Töne gespuckt:
AMD gegen Nvidia: Schwere Vorwürfe wegen angeblicher Benachteiligung in Batman, Resident Evil 5 und NFS Shift (Update: Stellungnahme vom Developer) - AMD, Nvidia, Batman: Arkham Asylum, NFS Shift, Resident Evil 5
Da klingt das irgendwie ganz anders ;)

Glaubt da ärgert sich jemand, nicht auch diesen Zug genommen zu haben - womit AMD dann wohl bei der nächsten Generation werben wird? ;)

Was heißt hier Zug? Spiele sollten auf allen Plattformen (gleich) gut laufen und nicht dermaßen von der Hardware abhängig sein. Am Ende führt das schon fast zu einem Zwang, sich bestimmte Hardware zu kaufen, wenn man ein Spiel/eine Software in bestmöglicher Qualität erleben will. :daumen2:

AV
 
@Feldwebel.Steiner80

Du hast noch immer nicht die Generation mit doppelter bis dreifacher leistugn genannt :P

Crysis ist für das, was es leistet gut programmiert.

ArmA dagegen eher nicht, besonders wenn man die Qualitätschwankungen im Spiel selbst noch beachtet.

GTAiV ist das Problem einfach die Konsolenherkunft und somit der nicht für PC ausgelegte Aufbau. Gerade das Multithreading des Games mach den meißten PCs zu schaffen (Weshalb auch mehr Kerne sehr viel mehr Performance bringen.)

Wie bereits gesagt sind GTAiV und ArmA beide stark von der CPU und nicht ovn der GPU abhängig.

ByTheWay: Du erinnerst mich an einen alten bekannten. Du ißt nicht zufällig gerne BioMüsli ? ;)
 
Was heißt hier Zug? Spiele sollten auf allen Plattformen (gleich) gut laufen und nicht dermaßen von der Hardware abhängig sein. Am Ende führt das schon fast zu einem Zwang, sich bestimmte Hardware zu kaufen, wenn man ein Spiel/eine Software in bestmöglicher Qualität erleben will. :daumen2:

AV

PCGH schrieb:
Update 6.10.2009:
Inzwischen meldete sich auch Batman-Publisher Eidos zu Wort. Auf der Webseite PC Perspective stellten die Entwickler klar, dass Anti-Aliasing in Batman überhaupt nicht geplant gewesen sei und Nvidia es quasi selbst eingebaut habe. Weiter schreibt PC Perspective, Eidos habe in der Email-Konversation, dass man selbst AMD auch die Möglichkeit angeboten habe, Entwickler ins Batman-Studio zu schicken. Diese Chance habe AMD jedoch nicht wahrgenommen.
dann würde ich sagen ist das aber nicht die schuld von nvidia das man ressourcen darin verschwendet das zumindest auf einer plattform spiele gescheit laufen

amd könnte ebenfalls ein solches entwicklerprogramm ins leben rufen tun sie aber nicht... also?
 
Hatte insgesamt 8 Karten von Nvidia, ich werde nie wieder eine Karte von denen kaufen. Aber trotzdem wird Nvidia mit Fermi den Spielermarkt nicht aus den Augen verlieren, dass können die sich garnicht erlauben.
 
Ich finden den Ansatz gut, denn wenn ich sehe wie spielend mein GTX285 auch große Videos in MP4 umwandelt (mit dem Programm Badaboom),
dann wünsche ich hierfür MEHR.
Ich bin ab und zu dabei AVCHD Videos in Full-HD zu schneiden und auf Blu-Ray auszugeben. Da ist selbst mein Phenom II X4 940 BE @ 3,6 GHz
hoffnungslos überfordert.
Ich will neben einer schnellen Gamerkarte auch eine haben mit der ich die brachiale Rechenleistung der Graka mit verwenden kann.

Mal davon abgesehn hat nv nicht gesagt das sie das Gaming weglassen, soondern nicht der Focus NUR auf Gaming liegt, was ja wohl ein Unterschied zu dem ist was die meinen.

Eine Graka (vor allen DX11) kann mehr als nur ein paar Pixel zaubern.
Schon jetzt kann man damit besser rechnen (bei einigen Sachen) als mit einer noch so schnellen 4 Core CPU.

Mal davon abgesehen ist der aktuelle AMD ein "aufgebohrter Chip der 4870", der von nVidia ist eine komplette Neuentwicklung.
Ich bin mal gespannt wie sich das entwickelt. Ich freu mich für AMD das die mal ne bessere Karte haben wie nv (war ja zuletzt bei der X1900XT der Fall)
und auch darauf wie dr komplett neu entwickelte Chip von nv aussieht.
Am Ende ist es immer das Gleiche, die Gewinner sind WIR. Denn Konkurenz belebt das Geschäft, und MUSS auch so beiben!!!
 
Zuletzt bearbeitet:
Nur mal ne dumme Frage, welches Argument würde man anbringen wenn nvidia nicht ein Wort zu der DP Leistung gesagt hätte? Fermi ist so ausgelegt das er 512 SP Berechnungseinheiten hat, was eine Steigerung von mehr als den 2 fachen bedeutet, wieso sollten diese Einheiten ineffektiver werden? :what:

Das man ausserdem noch die DP Leistung verdoppeln will, tut doch den Spielen nicht weh, die diese Einheiten in der Regel eh nicht verwenden.
 
Was heißt hier Zug? Spiele sollten auf allen Plattformen (gleich) gut laufen und nicht dermaßen von der Hardware abhängig sein. Am Ende führt das schon fast zu einem Zwang, sich bestimmte Hardware zu kaufen, wenn man ein Spiel/eine Software in bestmöglicher Qualität erleben will. :daumen2:
Der "Zug" ist GPGPU. Das AMD das natürlich nicht gefällt ist klar. Weder haben sie es geschafft eine stabile Plattform für ihre GPUs hinzukriegen ala CUDA, noch haben sie es bis heute (trotz ihrer großen Beteuerung von offenen Standards) geschafft OpenCL im normalen Treiber zu implementieren.

Das ist vollkommen normal.G7x auf G80 ;)
G90 auf GT200.
 
Genau das hat der major aber getan, wenn du dich erinnerst ;)
Nein, er hat nur geschrieben "Es gab mal Zeiten in denen eine neue Grafikkartengeneraion die Leistung zur Vorgänger, verdoppelt bis verdreifacht hat" - alles andere ist nur deine Interpretation. Und das es Generationen gab, die die Leistung verdoppelt haben, das bruahcen wir wohl kaum diskutieren.
 
Zurück