das den ati fanboys keine anderen argumente einfallen als nur stromverbrauch und hitzeentwicklung zu kritisieren, nervt auch. ich finde das beide karten ihre vor- und nachteile haben. gut sind jedoch sowohl die hd5xxx als auch die gtx4xx.
Das sind keine Argumente das sind Tatsachen!
interessant wie sich das blatt wendet, vor dem release der gtx4xx war dx11 noch DAS argument der pro-ati seite. zugegeben, ich empfinde dx11 auch nicht als kaufargument, bis sich das durchgesetzt hat haben wir schon dx12. man braucht sich ja nur anzusehen das immer noch dx9-only spiele kommen. zumal bisher noch jede neue dx version mehr evolution als revolution war.
Das ist meine Meinung zum Thema DX11. Das war sie auch schon beim Launch der Radeon 5xxx. Was irgendwelche ATI fans darüber denken ist mir egal da ich weder ATI Fan noch NVIDIA Hasser bin.
das die fermis allerdings schon veraltet sein wird, dem kann ich definitiv nicht zustimmen. nvidia hat garantiert keine neue architektur entwickelt um sie nur für eine grafikkartengeneration zu nutzen, die wird mit sicherheit länger leben.
Woher willst du das wissen? Auf die GTX 470/480 dürfte meine Aussage durchaus zutreffen.
das ist ist so einfach nicht richtig. zwar wird durch verschiedene methoden immer höhere effizienz erreicht, aber tendenziell gehen die verbrauchswerte radikal nach oben. schau dir doch mal an was ein highend-pc von vor 10 jahren für einen verbrauch hatte und vergleiche es mit denen von heute. mehr leistung bedeutet nunmal mehr verbrauch und mehr hitzeentwicklung. auch wenn durch immer bessere effizienz manchmal ein anderer eindruck entstehen mag ist diese entwicklung unabwendbar, irgendwann wird sie sogar dazu führen das mehr leistung nicht mehr möglich ist.
Doch das ist richtig. Ein aktueller Core ix braucht beispielsweise weniger Strom als ein Core2Quad die wiederum sparsamer sind als ein vergleichbar getakteter Pentium IV. Die neuesten 32nm Core i sind sogar so sparsam das man sie problemlos in Notebooks verwenden kann.
Und die ATI Radeon HD 5870 ist deutlich sparsamer als ihre direkte Vorgängerin.
natürlich kommt der spruch von der neuen architektur, weil er einfach gerechtfertigt ist. als ati mit der architektur die in optimierter form in der 5000er immer noch verwendet wird, war das auf jeden fall ein größerer reinfall als jetzt die gtx400er. nvidia hat halt jetz probleme weil sie eine neue architektur haben, ati hat bald welche weil sie noch die alte haben. und die lautstärke ist nun wirklich kein argument, kauft man sich hat ein modell das nicht den referenzkühler verwendet, dann ist das problem auch gelöst.
ATI wird diese Probleme nicht haben da sie sich an eine goldene Regel im Prozessorbau gehalten haben: ENTWEDER ich schrumpfe die Chips, wie aktuelle auf 40nm, ODER ich bringe eine neue Architektur. beides zu tun bringt oftmals massive Probleme mit sich, wie jetzt bei NV geschehen.
Und die Laustärke ist für mich und für viele andere Gamer durchaus ein Problem!
viel mehr hat ati auch nicht verbessert, und garantiert haben die bei weitem weniger arbeit in die entwicklung gesteckt als nvidia. außer dx11 draufgeklatscht und ein klein wenig an der leistung geschraubt haben die auch nichts weltbewegendes gemacht. das dabei der verbrauch nicht größer sondern niedriger wurde, liegt wohl mehr am 40nm als an irgendwelchen großartigen optimierungen. so braucht meine gtx260 auch um die 60w weniger als die von meinem bruder, ist im gegensatz zu seiner aber stark übertaktet und hat mehr schader-alus, was die karte im vergleich deutlich leistungfähiger macht trotz ansonsten identischer architektur und das nur, weil meine in 55nm gefertigt ist und seine nicht. also da muss ich schon sagen, das ist ja von ati wirklich DIE bahnbrechende leistung das der verbrauch so niedrig ist(vorsicht, ironie!).
natürlich hat NV mehr arbeit in die Fermi gesteckt, aber größtenteils nicht freiwillig, oder wie erklärst du dir die ständigen Verschiebungen? Und ich habe auch nicht behauptet das ATI etwas weltbewegendes geschafft hat. Allerdings haben sie die Anzahl der Transistoren auf den Chips verdoppelt, die Leistung angehoben, und trotzdem den Stromverbrauch im vergleich zur Vorgängerserie verringert. Nur mit der 40nm Fertigung ist das auch nicht zu schaffen!
Darüber hinaus ist deine Argumentation so ganz einfach nicht richtig, denn wenn das alles so einfach wäre, dann müssten die GTX 470/480 ja auch aufgrund der 40nm Fertigung weniger Strom verbrauchen als ihre Vorgänger...
also das ist mir neu, hab noch keinen nvidia fanboy gesehen der das tut. wäre ja auch reichlich sinnlos, solche berichte wird es nicht aus glaubwürdigen quellen geben.
Potenzielle Käufer der GTX 470/480 posten ständig Berichte in diversen Foren in denen eher positiv über die Fermis berichtet wird. Ob die Quelle glaubwürdig ist spielt dabei keine Rolle!
das ist doch kein argument, mist erzählen tun die fanboys beider seiten, und sich über die gegenseite kaputtlachen tun auch beide seiten. ist halt wie der vergleich der grafikkarten, wer besser ist kann man nicht sagen. was einen letztendlich mehr überzeugt muss schließlich jeder für sich selbst entscheiden, da ja auch jeder andere ansprüche hat. die einen wollen nicht auf physx oder höchstleistung verzichten, während die anderen lieber geld sparen und auch auf den verbrauch achten.
Das ist auch kein Argument, sondern war ironisch gemeint. Und trotzdem amüsiere ich mich darüber wie versucht wird die Fermi schön zu reden.