AW: Kepler GK104: Angebliche Spezifikationen geleakt - Vorstellung am 12. März
was soll ich dir beweisen? warum sollte der GK 110 nicht für gaming geeignet sein? AMD/ATI hat eigene Ingenieure, die ganz anders rechnen und planen,
wie die von nvidia. die GTX 280 hat viel verbraucht, genauso wie die gtx 480. hier haben die ati 4870 weniger verbraucht und die ati 5870.
du benutzt soviele fachbegriffe, die mir garnichts sagen. ich fülle meinen kopf nicht mit irgendwelchen fachbegriffen. wenn ich was wissen möchte,
gibt es solche seiten wie wikipedia, lach. und amd schafft es unter 200 watt zu bleiben, warum sollte es nvidia nicht schaffen,
ist ein vergleich mit äpfel und birnen. oh sorry, vergleich zwischen rot und grün.
du bist ehrgeizig, aber was letztendllich bei den neuen karten herauskommt, können nur die ingenieure von nvidia beantworten.
die ausbeute des chips und die bestückung ist sehr kompliziert und natürlich der aufbau.
du machst dir zuviel kopf und das meiste sind annahmen, mehr auch nicht. sogar gute ingeneuire haben in manchen situationen probleme, wo sie nicht weiter kommen.
1. Tut mir Leid, ich hätte den Absatz mit dem Verbrauch kennzeichnen sollen.
2. Eine 280 GTX hat rund 30 Watt mehr als eine 4870 verbraucht, aber auch 10-15% mehr geleistet. Eine 260 GTX, die praktisch 1 zu 1 gleich viel geleistet hat (260 vs 4870, 260² vs 4870 1GB) , hat im Idle 40 Watt weniger verbraucht und unter Last rund 20 Watt.
Eine 285 GTX hat genau so viel verbraucht wie eine 4890, aber auch noch ungefähr 10% mehr geleistet.
Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (Seite 22) - ComputerBase
Test: ATi Radeon HD 4890 vs. Nvidia GeForce GTX 275 (Seite 26) - ComputerBase
Weiten wir dieses Beispiel weiter aus, wie z.B. 3870 vs 8800 GT, dann leistet die Nvidia 10-20% mehr beim gleichem Last-Stromverbrauch, aber auch 30 Watt mehr im Idle. R600 brauche ich nicht zu erwähnen.
In der "Geschichte" zeigt sich nur, dass Nvidia in Perf/Watt besser war als AMD. Vor der G80 Zeit war ATI meine ich etwas stromhungriger, aber auch 10-20% schneller mit mehr Features, besserem AF und der Fähigkeit MSAA+HDR.
Fermi war eben ein totaler Ausrutscher und seit dem lese ich mehr als oft genug, dass Nvidia der Stromverbrauch schon immer voll egal war und diese Karten auch immer mehr schlucken, wobei das Topmodell oft natürlich mehr geschluckt hat , aber auch deutlich mehr geleistet. War die Performance ähnlich, so war auch der Stromverbrauch ähnlich.
Cayman war für mich ein ähnlicher Ausrutscher. Weswegen schluckt er für 10-15% mehr Performance 50-60 Watt mehr?
3. Manche verstehen die Fachbegriffe, manche nicht. Manche interessiert es , manche nicht. Ich schreibe eben das auf, was ich gerne schreiben würde ohne auf 2 Gruppen eingehen zu müssen
4. Wenn es AMD schafft, dann heißt es bis zu einem gewissen Grad, dass Nvidia durchaus in der Lage ist das gleiche zu schaffen. Andersherum funktioniert das genau so. AMDs Ingenieure sind auch fähig genug ein skalierbares Front-End zu designen, was wir bei den nächsten Gens von AMD auch sicherlich sehen werden, bevor weiter an den Einheiten geschraubt wird oder erhöht. (Natürlich schließt das auch einfache oder wichtige Verbesserungen mit ein)
Es ist auch kein direkter Vergleich zwischen Rot und Grün, sondern zwischen 2 Architekturen von 2 Firmen, wobei mich persönlich nur die Architektur interessiert.
5. Ich mache mir nicht zu viel Kopf, sondern es ist eines meiner Hobbys, welches einige hier schwächer, einige stärker als ich ausleben. Aber wer wo zu viel Kopf macht, kann pauschal niemand hier beantworten