Nvidia reagiert auf Open-Source-Physik-Initiative von AMD

HL2 nutze die nutze die Havok Physik-Engine die angemerkt auf ATi karten viel besser lief als auf Nvidia karten.
Aber das nur am rande!

Ach mist Two-Face war wieder mal schneller....-..-*

Das habe ich oben schon richtig gestellt, ich weiß auch das HalfLife kein Physx nutzt, habe ich auch nie gesagt. Und ich hoffe du weißt, dass Havok auf der CPU berechnet wird, was du meisnt ist sicherlich Havok FX.
 
Is mir schon klar.

Und ich weiß nicht ob es stimmt,daher berichtige mcih bitte wenn ich falsch liege.
Hat nicht Intel Havok gekauft und will dern will selber nutzen und AMD/ATi wollte das auch nutzen und noch ein paar andre so viel ich weiß. Und das so um schreiben/neue machen das es GPU fähig ist.

Naja wie schon gesagt ich finde denn Rambo weg von Nvidia Falsch!
Da man besonder bei so was eine zusammen Arbeit wichtig wäre !
Aber naja...ich denke halt mansch mal zu Sozial..
 
AA und AF sind sinnlos! Das wissen wir alle muss ich nicht weiter drauf eingehen!

Ich geh trotzdem mal drauf ein: Spielst du deine Spiele ohne AA und AF? Zugegebenermaßen, AF bemerk ich bei meinen Spielen nicht so deutlich, aber ohne AA? Um Himmels Willen! Da könnte ich ja gleich wieder nur Tetris spielen, das hat auch schöne Treppen und ist (fast) umsonst.

AV
 
Solltet das mal zum Thema NVidia lesen
Bericht: Nvidia muss High-End-Grafikkarten aufgeben - WinFuture.de
Ihr geht es um Physik und nicht draum was die depp für karten auf geben...-.-*
....................................

[
 
Zuletzt bearbeitet:
Das war keine schwerz das war eine schreib fehler ich bitte und Entschuldigung !
..........................

Edit:

Ich geh trotzdem mal drauf ein: Spielst du deine Spiele ohne AA und AF? Zugegebenermaßen, AF bemerk ich bei meinen Spielen nicht so deutlich, aber ohne AA? Um Himmels Willen! Da könnte ich ja gleich wieder nur Tetris spielen, das hat auch schöne Treppen und ist (fast) umsonst.
Af bemerkt ich auch eher beim zweiten hin kucken!
attachment.php



attachment.php
 
joa, also das statemant entwaffnet ati bis auf die watte bauschel :D

:ugly::lol:.

Zur englischen Sprache: 60% des deutschen Volkes sprechen und verstehen es NICHT. Ich erinnere da gerne an den damaligen Werbeslogan von Douglas ;).

Zur dritten Person: Jeder Konzern redet so von sich - egal, ob es sich dabei um Nvidia oder um einen Räderhersteller handelt ;).

//so long
KeTTe
 
Zur dritten Person: Jeder Konzern redet so von sich - egal, ob es sich dabei um Nvidia oder um einen Räderhersteller handelt ;).

//so long
KeTTe
nvidia will nur mal wieder wie der große messias dastehen und behauptet deswegen so sachen wie "ohne uns gäbe es keinen computerspielemarkt" und dann diese von mir übersetzten marketing-statements...
da kann man sich in den nächsten tagen/wochen bestimmt wieder durch irgendwelchen nvidia-fanboy-müll lesen, dass die eigene ati-karte ja ohne nvidia nie so toll wäre...

und viele glauben das auchnoch...
sowas nennt sich marktwirtschaft! (der verbraucher bestimmt, was es geben wird, nicht die großen firmen!)
wenn es nvidia nicht gäbe, dann gäbe es vielleicht noch 3dfx und ebendiese würden jetzt mit ati oder s3 konkurieren.
ohne nvidia wär die entwicklung nur n bisschen anders abgelaufen.
ob besser oder schlechter kann man so nicht sagen... nur eben anders ;)

gleiches kann man von ati behaupten.
hätte ati nie die unified shader eingeführt, gäb es heute keine gt200 karten. (ob das stimmt, steht auf anderem papier)
 
Und wie Nvidia halt so ist geht das gfanz NUR auf GF karten ist kaum kompatible mit andren Sachen (Open GL) und was bringt es am ende außer ein paar netten Effekten rein nix !
GeForce können problemlos OpenGL :ugly:

Af bemerkt ich auch eher beim zweiten hin kucken!
attachment.php



attachment.php
Mal ernsthaft: Wenn du den Unterschied nicht siehst, wird es vielleicht Zeit für ne Brille?!

gleiches kann man von ati behaupten.
hätte ati nie die unified shader eingeführt, gäb es heute keine gt200 karten. (ob das stimmt, steht auf anderem papier)
Bitte??? Was soll der denn der Quatsch jetzt? Ich zitiere nur mal Wikipedia:

"Aktuelle Versionen von OpenGL und DirectX unterstützen das Unified-Shader-Konzept bereits und ab der Nvidia-GeForce-8-Serie und ATI-Radeon-HD-2000-Serie gibt es auch schon Grafikkarten, die es unterstützen."
Release GeForce 8: Nov 06
Release HD2000: Mai 07

Was für ein FanATIker muss man eigentlich sein, um sogar solche Daten noch zu verbiegen?!
 
Soweit ich weiß wurde der G80 seit 2002 entwickelt; ATI hat aber mit dem Xenos C1 den ersten Grafikchip mit Unified Shader rausgebracht.
Nvidia war halt im Desktop-Bereich schneller.

GeForce können problemlos OpenGL :ugly:

Radeons auch.
 
Zuletzt bearbeitet:
Bucklew

Das mit dem AF war nicht für mich :D
Sonder für Alex Vanderbilt ^^

Klar sehe ich eine unterschied das was ja nur dafür um dem unterschied zu zeigen mehr nicht :D
 
Bucklew schrieb:
Was für ein FanATIker muss man eigentlich sein, um sogar solche Daten noch zu verbiegen?!

Auf welchem Planeten lebst Du eigentlich ? Ich habe heute mindestens 4-5 FanATIker von Dir gelesen und das jedes mal in einem anderen Thread, lol.
Wir sind alle Fanboys nur Du nicht, willst Du uns das jedesmal verdeutlichen :daumen2: ?

Gruß Explosiv
 
Soweit ich weiß wurde der G80 seit 2002 entwickelt; ATI hat aber mit dem Xenos C1 den ersten Grafikchip mit Unified Shader rausgebracht.
Nvidia war halt im Desktop-Bereich schneller.
Unified Shaders wurden über das Shader Model 4.0 definiert, das mit DX10 kommt. Mit "erfunden" und "zuerst" hat das also recht wenig zu tun.

Aber wo du das sagt: Die Zusammenarbeit zwischen ATI und MS für die Xbox360 (da wurde der Xenos eingesetzt), wurde erst 2003 beschlossen ;)

@Explosiv:

Soviel zum Thema ignore ;)
 
Also habt ihr gewusst, dass es fast Deutsch gewesen wäre was zur Weltsprache ernannt werden würde, aber es haben noch 100.000 Menschen gefehlt, hätten wir nicht 2 Weltkriege angefangen, dann ja. Das es Englisch wurde war nur knapp, also könnte man sagen es ist hier nicht so Notwendig,

@Topic, ist doch gut das es Unterstützung von ihnen findet, wer weis, vieleicht wird PhysX dann auch bald für ATI freigegeben.
 
Ich finde es eher amüsant wie viele sich darüber beschweren das manche Leute der englischen Sprache nicht mächtig sind, dabei sollte man zuallererst bemängeln wie IHR unsere Muttersprache vergewaltigt.

Manche Sätze musste ich wirklich 5-6 lesen um ihren Sinn komplett zu erschließen....

Ich meine wenn jemand nur klein schreibt ok, wenn jemand Satzzeichen weglässt ok...das ist das Internet , sowas ist hier normal aber ein gewisser Syntax und eine gewisse Rechtschreibung sollte doch erhalten bleiben oder irre ich mich?

BTT: Den Pressesprecher von NV sollte man sowieo mal in die Umwelttonne treten....Natürlich spricht jeder positiv über seine Firma aber dieser gute Mann übertreibt oftmals maßlos, von daher nehme ich ihn gar nicht mehr ernst.

MfG Xy
 
Ich bin Türke, aber habe den Hauptschul abschluss mit 1,6 im schnitt bestanden, aber mir Passiert heue noch ein fehler hier und einer da. Das ist Normal, es ist meine Natur, es ist viel schlimmer, das ich besser spreche als mein Deutsch sprechender Lehrer. Es ist in vielen Berufen nicht notwendig, es gibt alle und jedes Produkt auf Deutsch.


bei deinem satzbau gehe ich aber nicht davon aus, dass du mit 1,6 abgesschlossen hast ;P... ich meine 3 kommas in einem satz is schwerste vergewaltigung der deutschen sprache:daumen:

"sitzen 6"

Naja meine schreibe ist auch nich besser ich weiss, bei mir is das aber die generelle unlust GROSS und klein zu unterscheiden ...

@topic

seid wann ist nvidia für vereinheitlichung?!!
waren sie doch bis jetzt immer bekannt dafür konkurenzprodukte aufzukaufen und ihre eigenen, nicht einheitliche lösungen zu implementieren. siehe physx, cuda, twimtbp...
dx10.1 hat man sich ganz geweigert und noch steine in den weg gelegt...
nvidia ist eher das gegenteil von opensource und vereinheitlichung... :daumen:

MfG
kone
 
Zuletzt bearbeitet:
Zurück