Was ist besser?

RofflLol

Software-Overclocker(in)
Ich habe eine Frage. Was ist besser. Wenn die GPU größer oder kleiner gefertigt wurde ?
zB 55nm oder 65nm?
 
Kommt auf die Architektur und die Leistung der Karte drauf an.
So pauschal kann man nur sagen, dass Karten in kleineren Fertigungen meist weniger verbrauchen.
 
das war ne architektur, wo die späteren modelle nochmal mit nem gewissen shrink rauskamen,
vielleicht wirds bei maxwell auch so,
jetzt gibts ja schon die 750/750ti mit 28nm,
eventuell kommen die dicken karten ab herbst in 20nm, ursprünglich wars mal so geplant,
bin mir nicht sicher, ob das noch steht, oder ob die halt doch vorerst bei 28nm bleiben, weils mit 20nm noch zu viele probleme gibt

damals kam halt zuerst die fette karte, und dann die performance und brot und butter karten
ich glaub, manche karten aus der 200er serie gibts sogar in beiden strukturgrößen
 
Zuletzt bearbeitet:
Der Refresh der GTX280er sind die GTX 285 mit mehr Takt und gleichem oder geringerem Verbrauch.

Nvidia-Geforce-200-Serie

Der "Historien"-Text steht oben.
Aber im Prinzip das Gleiche, was bei den GTX8xxx zu GTX9000, GTX4xx zu 5xx und GTX6xx zu den GTX7xx gemacht wurde.
(nur dass man damals ausnahmsweise so ehrlich war und die Kisten nicht als GTX3xx unters Volk zu bringen...)
 
Prinzipiell sind kleinere Strukturen immer effizienter und damit (in dieser Hinsicht - es gibt natürlich auch Nachteile) besser.

Man darf nur nicht den Fehler machen, verschiedene Leistungsklassen miteinander zu vergleichen. Ein Chip, der in 65nm produziert wurde wird in 55nm oder gar 40nm wesentlich effizienter arbeiten. Das bedeutet aber nicht, dass ein 65nm Chip nicht schneller sein kann als ein 40nm Chip wenn man den Stromverbrauch außer Acht lässt. ;)
 
Achso okeeee ist das auch so kleinenerer Chip = Weniger Hitze ?

"Kleiner" im Sinne von Chipfläche: Nein
Siehe GTX780Ti gegen R290X - letzterer ist viel kleiner aber drückt mindestens die selbe Abwärme raus.

"Kleiner" im Sinne von kleinere Fertigungsstruktur: Ja, wenn alle anderen Parameter gleich bleiben (außer dass die Versorgungsspannung entsprechend der Fertigung angepasst wird).
 
"Kleiner" im Sinne von Chipfläche: Nein
Siehe GTX780Ti gegen R290X - letzterer ist viel kleiner aber drückt mindestens die selbe Abwärme raus.
Die chipgröße an sich hat nicht unbedingt was mit der abwärme zu tun ;)
wiki hilft wie immer :D
je kleiner die fertigung desto schneller können die transistoren schalten bei gleicher spannung und den rest der ganzen gpu architektur der effizenten nutzen lassen wir mal in Ingenieuren von Nvidia und AMD :D
 
Die chipgröße an sich hat nicht unbedingt was mit der abwärme zu tun ;)
wiki hilft wie immer :D
je kleiner die fertigung desto schneller können die transistoren schalten bei gleicher spannung und den rest der ganzen gpu architektur der effizenten nutzen lassen wir mal in Ingenieuren von Nvidia und AMD :D

Mit der Temperatur/Chipfläche hat er aber recht ^^ je kleiner der Chip und je mehr Transistoren, desto schwerer wird die Kühlung.. Deswegen finde ich die neuen AMD-Karten auch nicht gut. Die kann man nur schwer kühlen, was sich in hoher Lautstärke und niedrigem OC-Potential wiederfindet.
 
Mit der Temperatur/Chipfläche hat er aber recht ^^ je kleiner der Chip und je mehr Transistoren, desto schwerer wird die Kühlung.. Deswegen finde ich die neuen AMD-Karten auch nicht gut. Die kann man nur schwer kühlen, was sich in hoher Lautstärke und niedrigem OC-Potential wiederfindet.


Tja die amds haben die kleinere fläche und weniger transistoren und haben trd teils ne wesentlich höhere tdp bei gleicher leistung ;)
 
Ihr müsst das aber auch von der Seite sehen, dass jeder Quadratmillimeter Chipfläche bares Geld kostet weil weniger Chips auf einen Wafer passen.

Die Nachteile die ihr genannt habt lassen sich da nicht vermeiden, ein 440 mm^2 großer Hawaii kostet in der Produktion aber sehr viel weniger als ein 560 mm^2 großer GK110 was für einen Anbeiter der besonders über das P/L Verhältnis kommt äußerst wichtig ist. ;)

AMD hätte auch die Variante wählen können, ebenfalls ein 560 mm^2 großes Monstrum zu schaffen und diesen 200 MHz geringer zu takten um innerhalb der 250W zu bleiben. Dieser Chip wäre bei der in Spielen deutlich effizienteren Architektur dem GK110 sehr wahrscheinlich deutlich überlegen gewesen.
Da AMD diesen Chip aber für gefühlt 900€ verkaufen müsste um nicht in die Verlustzone zu geraten und aus unerfindlichen marketingtechnischen Gründen der Großteil der Käufer anscheinend nur bei NVidia bereit ist an die 1000€ für eine Grafikkarte auszugeben haben sie sich korrekterweise dagegen entschieden.
 
Zuletzt bearbeitet:
mit der fläche steigt auch die wahrscheinlichkeit, dass fehler auf nem chip abgelichtet sind/einschlüsse im silizium -> ausschuss steigt, kosten höher
 
Okee :D ehm was würde der Chip generell Vertragen ? zB Takt oder Oc ?:D oder Eben halt Wärme also was verträgt mein Chip an maximaler Wärme zB 90 Grad Celsius ? Weil mein PC ich gebs zu Schlecht durchkühlt wird?
 
90°C auf ner gtx 260 ist glaub schon noch im rahmen,
mehr wäre aber sicher nicht so gut,
die gtx 480 eine generation später wurden noch heißer

zu hohe spannung kann auch bei gut gekühlten gpu/cpu deutlich höhere abnutzung verursachen, beides zusammen halt stärker
beides alleine viel zu hoch kann den sofortigen tod eines chips bedeuten

genaue zahlen weiß ich für gtx 260 nicht, musst mal in som oc thread von damals nachlesen, gibts bestimmt tonnenweise,
war eine der verbreitetsten karten seinerzeit
 
Zurück