Reigenspieler
PCGH-Community-Veteran(in)
@Dr. Cox: Man kann auch übertreiben, aber es stimmt, die meisten Beiträge zielen nur in diese Richtung. ruyven_macaran hat einen guten Kommentar geliefert.
...verbuggten Energiesparmodus (warum das nicht längt mit ner neuen Chiprevision gelöst wurde, ist mir allerdings auch schleierhaft - vermutlich geben einfach viel zu viel Leute nen Dreck darauf, dass n paar kWh/d vollkommen unnötig verbraten) ein exzellentes Stück Hardware.
Das Problem ist nur, dass Nvidia deutlich höhere Spitzenleistung vorliegt und AMD scheinbar nicht einsieht, dass man mit einem Mittelklassechip da nicht das optimale Material hat, um mitzuhalten...
Im Grunde liegen ja beide über den Specs. Es ist auch kein Wunder, dass erste PCIe 3.0 (3 Slots und mit noch höherer Stromaufnahme für 2010 vorgesehen sind).Im Furmark kommt bereits die HD4870x2 locker über 360W, da dürfte ne 4890x2 -sofern an dem Gerücht irgendwas haltbares dran ist- bequem die 400W-Marke knacken.
Ob einen das stört, solange sie in Spielen deutlich weniger verbraucht, ist ne andere Frage. (wobei ich mich schon lange frage, wie es sich auf AMDs GPGPU-Programm auswirkt, dass die aktuellen Karten bei 100%iger GPU-Last defacto auf ~2/3 ihrer Leistung gedrosselt werden müssten, um innerhalb von TDP und PCI-E Specs zu bleiben.)
Da waren sie ihrer Zeit voraus. Heutzutage hat man einen i7 mit max 130 Watt oder den Phenom I, der auch nicht viel besser war beim Top Modell.Auch die braucht Platz. Die Netburstarchitektur ist seinerzeit gescheitert, weil niemand den Lärmpegel und die Ablufttemperaturen hinnehmen wollte, die eine 140W CPU selbst mit einem großen 120mm BTX-Kühler erzeugte.
Ne 4890x2 könnte im Worst-Case das 3fache verbrauchen, im Normalbetrieb käme man mindestens auf das doppelte. D.h. damit das System beim Nutzer nicht schlechter abschneidet, als die seinerzeit kritische Grenze, bräuchte man mindestens nen Dual-, besser nen Triple-Radiator allein für die Grafikkarte.
Wenn mal Notebooktechnik zum Vergleich heranzieht, ist vielleicht die Frage berechnet, ob allein das Kühlsystem eines Rechners mehr Platz und Gewicht einnehmen muss, als Hardware, die ihn zu 80-90% seiner Nutzungszeit zu 100% ersetzen könnte...
Wenn man sich die vergangenen Jahre anguckt, dann war bei Nvidia der Shrink G70->G71 der letzte Shrink einer High-End-GPU, der für eine Verringerung der Verlustleistung genutzt wurde....
ALLE anderen Shrinks der High-End-GPU-Geschichte (und davon gab es nicht gerade wenige) wurden quasi ausschließlich zur Leistungssteigerung genutzt und die Verlustleistung der neuen Generation lag (meist deutlich) über der der alten.
Die zur Zeit verwendeten Chipsätze mögen ein Vielfaches der CPU verbrauchen - aber das Paket frisst afaik immer noch weniger, als z.B. die "Southbridge" des NF780i...
Also ich weiß nicht, was du die meiste Zeit mit deinem Rechners machst - aber ich z.B. Surfe, mach Office-Sachen (okay - z.T. lasten die die CPU auch voll aus ),...
(zumindest bei Deaktivierung von Flash und diverser anderer Werbung) reicht dafür auch mal ein altes System mit einem Verbrauch von deutlich unter 100W. Mit modernster Hardware käme man unter 50W, mit Notebooktechnologie unter 20W (ohne Display).
Computerbase misst zwischen nem 4890 und nem 4890CF System 68W Unterschied im Idle.
Stellt sich die Frage: Wieso verbrät eine Grafikkarte 68W (ne HD4890x2 dann vielleicht 100W - also mal eben ne kWh am Tag oder 150-200kg CO2 im Jahr) bei Aufgaben, für deren eigentlich Erfüllung gerade einmal 1/3 bis 1/5 dieser Energiemenge aufgewandt werden muss?
Aber statt dessen verschwinden Lösungsansätze wie Nvidias Hybrid-SLI wieder in der Schublade, weil die Kunden kein Interesse haben...
Optimierung, gerade der Software.
Wenn man sich mal anguckt, wie gut Mafia oder Max Payne 2 auf einer 20W Karte aussehen und wie wenig mehr einem Crysis
Es muss nicht nur kleiner werden.
Einige sehr interessante Ansätze gehen daran mehrschichtige Transistoren, DIEs.... zu entwickeln.
Um ehrlich zu sein, leider der einzige wirklich sinnvolle Beitrag im ganzen Thread!
Die restlichen Beiträge bestehen hier fast nur aus Flames, Fanboygebashe und propagandierten Unwahrheiten einiger engstirniger und naiver Fanboys
ich holle mir zwei davon und betreibe dieim quad crossfire dass ist die leistungskrone
Das meinte ich !Um ehrlich zu sein, leider der einzige wirklich sinnvolle Beitrag im ganzen Thread!
Notebooks werden generell warm und die Temps sind auch nicht ohne dort.
Ganz zu schweigen von der Lüfterlautstärke bei manchen Notebooks.
Wobei ich dir Recht geben muss ist, dass die Entwicklung in der Gehäuse/Luftzirkulation schon lange still steht. ATX ist schon extrem lange Standard. BTX wurde leider unnütz, nachdem die P4 Ära zu Ende ging und verworfen.
Ähmm, ein 780i oder x58 haben auch viel mehr Controller und Funktionen im Kern, als in so einem poppeligen ATOM Brett. Das muss auch alles verwaltet werden.... Beim ATOM Chipsatz liegt es einfach daran, dass der FSB nicht in der CPU ist, sondern weiterhin in einem uralt Cipsatz, denn Intel noch unter die Leute bringt. Kein Wunder, dass dort soviel Watt draufgehen.
Bei der Software ist immer Optimierungspotential, dass ist zugleich das Problem des PCs. Zuviele Konfigurationen/Hersteller und Treiber, da können Entwickler nicht 100% alles perfekt optimieren (damit will ich nicht alles seitens der Entwickler entschuldigen), da ist es mit einer einzigen Plattform wesentlich leichter.
Check ich net... du baust dir also eine Nvidia 295GTX rein aber eine 4890x2 is natürlich nicht tragbar?
Warum?
Es gibt auch leute die haben 2x 285GTX im Rechner. Wieso den nicht? Crysis auf nem 40zoll LCD Fernseh mit 1920x1080 und AA brauch nunmal power.
Der Thread wird ein schlachtfest für alle Neider und Nvidia Fanboys.
Die Luftführung hab ich da noch gar nicht berücksichtig, es ging einzig und allein um das Volumen und vor allem Gewicht von Radiator, Pumpe,... - und ein Notebook ist die besagten 80-90% der Zeite eben auch nicht lauter als ne aktuelle High-End Karte im idle.
Mir ging es da um den "Green IT" Gedanken, man kann nicht zum einen die Hände in die Höhe reißen und schreien unsere CPU verbraucht am wenigsten bei guter Performance und nimmt dann einen 4 Jahre alten Chipsatz und verpulvert da etliche Watt ins Nichts. Das passt nicht zusammen.Ich sprach nicht vom Atom-Board und nem X58 Board, sondern ich sprach vom kompletten Atom-System und der "Southbridge" des 780i. Sicherlich kann letzte ein paar Sachen mehr (naja - in erster Linie mehr PCI-E Lanes), aber ersterer kann n komplettes Betriebssystem, Browser, Office Software, 90% aller für den PC existierenden Spiele (seit Beginn der PC-Zeit ),... zum laufen bringen, Eingaben verarbeiten, Bild und Ton ausgeben, Netzwerkzugang herstellen,........
Deswegen habe ich zwei PC-Spiele miteinander verglichen
Hätte ich Konsolentiteln mit berücksichtigt, könnte der Vergleich noch wesentlich schlechter aussehen. (Wobei das natürlich heikel ist - ehe die Entwickler eine Konsole voll ausreizen, vergehen Jahre. Bis dahin bietet der PC oft mehr Leistung/Watt)
Und wer reizt die dann auch zu 100% aus? Meine GTX285 kommt nicht über 40% Lüfterdrehzahl. Selbst beim Furmark nach 30 min ist die grade mal bei 60%.
Du willst den riesen Chip von NV als Fortschritt und Technik bezeichnen . Ich denke Notlösung für teuer Geld trift es eher
Ich werde niemals eine Dual-GPU-Lösung kaufen!
Ich verstehe die Leute nicht die sich ein Multi-GPU-System anschaffen