Nvidia denkt um...

Warum habt ihr eigentlich so ein großes Problem mit den Kühlern?! Die sind mal gar nicht so schlecht, oder habt ihr nonsound beim zocken und hört so gerne eurem PC zu? o.O
So laut sind sie nicht, aber es geht eindeutig kühler.
Naja ich find die schon störend laut,bin da empfindlich!
 
Die sollen nicht das Layout ändern, sondern mal echte Neuheiten im Chip bringen und nicht den alten immer aufwärmen oder nur kleine Änderungen vornehmen und das als neue Rev. verkaufen :D
 
Vielleicht ham die ja Larrabee aufgekauft :D um das ist es die letzten Wochen ja auch ruhig geworden ...
 
So wie ich den Artikel verstehe geht es hier nicht um neue Chips und deren Features, sondern darum, kommende Kartendesigns so zu gestalten, dass sie (noch) billiger zu produzieren sind.
Anscheinend geht Nvidia nach der letzten Quartalsabrechnung die Muffe. Also muss der Umsatz gesteigert werden, das klappt nur mit attraktiven Preisen. Wenn die das so durchziehen, wie es im Gerücht steht, werden negative Auswirkungen auf die Qualität der Produkte nicht ausbleiben. Billiges Design mit preiswerteren Bausteinen wird dafür sorgen, das die Toleranzen zum Übertakten wohl sinken werden. Nicht weil die GPU das nicht mitmacht, sondern weil z.B. die Spannungswandler schon vorher abrauchen oder durch simpleres PCB-Design Taktraten außerhalb der Norm früher zu Fehlern führen. Ein billigerer Kühler ist nicht so schlimm, der lässt sich immer ersetzen.
 
Nvidia hat sich zulange auf der G80 ausgeruht. AMD/ATI hat das genutzt und vergleichbare / schnellere Karten zu günstigeren Preisen auf den Markt gebracht. Dazu kommt das man bei Nvidia erstmal studieren muss um durch die ganzen Modell durchzusteigen.
 
Der Fortschritt wird immer genau das machen - fortschreiten
Bestenfalls bekommen wir dadurch leistungsfähigeres zu besseren Konditionen
Das "Wettrüsten" hat uns nicht nur Gutes gebracht - aber auch

Meines Erachtens geht es nun darum, dass Leistung nicht mehr mit viel Stromverbrauch und entsprechend viel Hitze und Lärm erkauft werden darf
Und es geht (in dem speziellen Fall) darum, dass die nächste Generation nicht zwingend dazu geeignet sein muss 5120 mal 4240 bei vollem AF und AA ruckelfrei darzustellen

Wie überall - nicht alles machbare ist auch sinnvoll
 
Um ehrlich zu sein, interessiert mich das Layout der Grafikkarten nicht, für mich ist Leistung wichtiger als Aussehen, zumal die Karte in meinem Gehäuse unter dem Tisch verschwindet.

Das Vorhaben mag zwar gut für Nvidia sein, weil sie dadurch Produktionskosten sparen können, ob das dann auch für uns was bringt, ist eine andere Frage.
 
Cool eine neuauflage der Geforce 5:ugly:
Ich hoffe aber für NV das es nicht so wird.
Ich hoffe die machen da was draus:daumen:
 
Ich denk die Karten werden dann wieder so aussehen wie bis zur GeForce 4 Generation. Hach wenn ich da an die Elsa GeForce 3 denke. Damals hat ein simpler Kühler auf der GPU gereicht und auf dem Speicher waren einfache Kühlrippen. Damals waren die Karten schon schöner als heute.
 
Mit Gewalt geht fast alles:D Schraubenzieher und das wars^^

Ich weiß nicht, was ich davon halten soll, auf der einen Seite sieht die Verpackung auf der Rückseite harmonisch aus, auf der anderen muss man das Leben seiner Karte riskieren, wenn man den Kühler wechseln will^^
 
Ich fänd es gleich wenn die Karten zwei Chips hätten einen Haupt und einen Kern für PhysX oder was auch immer. Aber dann kann man die Größe wieder vergessen.
 
Da bin ich mal gespannt,wenn sie sich auf die Nv 40 beziehen könnte es ja was werden :daumen:,wenn sie aber die schon damals miese FX Serie als Vorbild nehmen,geht aber mal richtig bergab
 
Nvidia ist im Moment eine einzige Baustelle ... und es scheint als wüssten die nicht, wo sie anfangen sollen. Bezeichnungswirrwarr, Fehler in Grafikchips, riesiger technologischer Rückstand zu AMD/ATI, Horrorpreise. Und nun will man einen neuerlichen Schritt zurück machen ?
Ich denke, das wird zu viel auf einmal und kann nur schiefgehen. Denn zu den Änderungen am Design etc. muss Nvidia noch die technischen Neuerungen (DX10.1, SM4.1 und GDDR4/GDDR5-Speicher) integrieren. Und da Nvidia bisher darauf verzichtet hat, deutet alles auf erhebliche technische Schwierigkeiten bei Nvidia hin, denn wer den abenteuerlichen Erklärungen Nvidias für den bisherigen Verzicht glaubt, ist ein naiver Narr !
 
weniger exterene widerstände, kondensatoren, der höchstwahrscheinlich kleinere verbrauch bei einer chipinternen kleineren realisierung, wohl ein einfacheres sowie kleineres pcb und hier sowie da ein paar optimierungen im chip etc. da sprcicht doch nix dagegen. vor allem falls eine verlagerung gewisser teile in den chip hinein, sowie gewiss ein kleineres und einfacheres pcb die karten in niedriegere preisregionen rücken dürften. im grunde hätte man dann ja am ende den eigentlichen chip, der an speicher, ein- und ausgänge, sowie en netzteil angeschlossen wird und das wars dann auch schon im grossem.

also ich bin dafür.
 
Nvidia ist im Moment eine einzige Baustelle ... und es scheint als wüssten die nicht, wo sie anfangen sollen. Bezeichnungswirrwarr, Fehler in Grafikchips, riesiger technologischer Rückstand zu AMD/ATI, Horrorpreise. Und nun will man einen neuerlichen Schritt zurück machen ?
Ich denke, das wird zu viel auf einmal und kann nur schiefgehen. Denn zu den Änderungen am Design etc. muss Nvidia noch die technischen Neuerungen (DX10.1, SM4.1 und GDDR4/GDDR5-Speicher) integrieren. Und da Nvidia bisher darauf verzichtet hat, deutet alles auf erhebliche technische Schwierigkeiten bei Nvidia hin, denn wer den abenteuerlichen Erklärungen Nvidias für den bisherigen Verzicht glaubt, ist ein naiver Narr !

Du solltest mal nachdenken, bevor du schreibst. Ich gehe mal auf deine Kritikpunkte gegenüber NV ein.

- DX 10.1 ist uninteressant. WARUM??? - Weil noch dieses Jahr DX 11 kommt.
Damit bleibt DX 10.1 nur ein Update und keine Spieleschmiede verwendet
bei Jahren der Programmierung für ein Spiel einen Gedanken an DX 10.1,
wenn DX 11 vor der Tür steht. Nix gegen DX 10.1, aber es wird dann
belanglos.
- GDDR4/5 ist egal, wenn man einen hohen SpeicherBus verwendet.
Von der Speicherbandbreite ist NV ATI/AMD überlegen selbst mit dem
GT200
- Die Shaderberechnung wird mit DX 11 auch komplett neu aufgesetzt.

- Die Shaderanzahl. Gutes Thema. Niemand geht darauf ein, dass ATI/AMD dem Kunden falsche Tatsachen bei der Shaderanzahl ihrer Produkte unterjubelt...........von wegen 800Shader.

1. Wäre es sehr lächerlich, wenn ATI 800 Shader bräuchte, um mit 216 NV Shadern gleich zuziehen. Nur mal so zur Leistung
2. Die 800 Shader setzen auf skalaren Einheiten zusammen, heißt, dass es nicht vollwertige Shader sind.
 
Mit Gewalt geht fast alles:D Schraubenzieher und das wars^^

Ich weiß nicht, was ich davon halten soll, auf der einen Seite sieht die Verpackung auf der Rückseite harmonisch aus, auf der anderen muss man das Leben seiner Karte riskieren, wenn man den Kühler wechseln will^^

Das stimmt. Da wird es dem Käufer echt schwer gemacht den Kühler zu wechseln.
 
Du solltest mal nachdenken, bevor du schreibst. Ich gehe mal auf deine Kritikpunkte gegenüber NV ein.

- DX 10.1 ist uninteressant. WARUM??? - Weil noch dieses Jahr DX 11 kommt.
Damit bleibt DX 10.1 nur ein Update und keine Spieleschmiede verwendet
bei Jahren der Programmierung für ein Spiel einen Gedanken an DX 10.1,
wenn DX 11 vor der Tür steht. Nix gegen DX 10.1, aber es wird dann
belanglos.
- GDDR4/5 ist egal, wenn man einen hohen SpeicherBus verwendet.
Von der Speicherbandbreite ist NV ATI/AMD überlegen selbst mit dem
GT200
- Die Shaderberechnung wird mit DX 11 auch komplett neu aufgesetzt.

- Die Shaderanzahl. Gutes Thema. Niemand geht darauf ein, dass ATI/AMD dem Kunden falsche Tatsachen bei der Shaderanzahl ihrer Produkte unterjubelt...........von wegen 800Shader.

1. Wäre es sehr lächerlich, wenn ATI 800 Shader bräuchte, um mit 216 NV Shadern gleich zuziehen. Nur mal so zur Leistung
2. Die 800 Shader setzen auf skalaren Einheiten zusammen, heißt, dass es nicht vollwertige Shader sind.


Erstmal das die nV´s mit 216 shader(Also GTX 260) mit den 800 aktivierten shadern von ATI gleich zieht, liegt einmal: An der höheren ROP´s Anzahl,dann auch daran das wohl ein Großteil der games ,wie auch die getesteten oder häufig getestetn nV optimiert sind,guck dir mal die Leistung der nV auf einem ATI optimierten game an,da is der Abstand der nV doch schon erheblich während die ATI´s auf nV optimierten Spielen ein wenig langsamer oder fast so schnell sind

Mit der Speicheranbindung hast du Recht,beide Wege führen ans Ziel:D
 
Zurück