Naja laut sind manche echt. Wenn ich im Hörsaal sitze, dann bekomme ich manchmal das kot... bei den lauten Luftsystemen mancher Notebooks.
Wir sprechen hier ja vom technisch möglichen, nicht von Billigschrott
Mir ging es da um den "Green IT" Gedanken, man kann nicht zum einen die Hände in die Höhe reißen und schreien unsere CPU verbraucht am wenigsten bei guter Performance und nimmt dann einen 4 Jahre alten Chipsatz und verpulvert da etliche Watt ins Nichts. Das passt nicht zusammen.
Das stimmt wohl - wobei Atom seitens Intel auch nie als GreenIT, sondern als billig vermarktet wurde. Und zu letzterem passt ein alter Chipsatz sehr gut.
(abgesehen davon bin ich immer noch der Meinung, dass Atom 1 als billiger Versuchsballon gedacht war und Intel sich bis heute nicht erklären kann, warum sich das Ding so gut verkauft - siehe auch die mehrfache massive Steigerung der Produktionskapazitäten, die aber bis heute nicht dazu genutzt wird, mal die Dualcore-Versionen zu verbreiten, die ursprünglich schon im Herbst den Markt neu anheizen sollten. N neuer Chipsatz liegt ja auch schon seit Monaten in der Schublade, wird aber quasi nicht verbaut - wozu auch? Geld verdienen ist angesagt)
Zu deinem Vergleich: der hinkt etwas. Man muss beide Plattformen für sich betrachten. Das eine ist eine full ATX Plattform mit vielen Anschlüssen wie 8-10USB, Firewire, Dual Lan, usw. (Nortbridge) und Features (SLI etc.) und mit höherem FSB, mehr Funktionen im Bios usw.
Ist doch klar, dass eine ATX Plattform da nicht mithalten kann.
Sicherlich hinkt der Vergleich ein bißchen, aber nicht soo stark: Die Southbridge kann nämlich weder Firewirde, DualLan, in dieser Konfiguration SLI, und nen FSB hat sie erst gar nicht, nen Speichercontroller auch nicht,... - das sind alles Funktionen, für die weitere Chips benötigt werden, die aber in dem Stromverbrauch der Atom-Plattform bereits mit einfließen. (naja - SLI, Dual-Lan nicht
)
ich denke man sollte hier mal eine sache ganz deutlich im bezug auf "microruckeln" (unwort des jahres)
klarstellen.
MICRORUCKELN tritt erst auf, wenn die frames per second unter 40 teilweise unter 30 einbrechen. alles darüber ist absolut flüssig (ja auch subjektiv)!
Nicht "auch", sondern "ausschließlich" subjektiv. Objektiv sind nämlich auch bei hohen fps genau die gleichen Einbrüche messbar. Wenn jemand die jenseits von ~40fps nicht mehr sieht, dann heißt das nichts weiter, als er dass Frametimes von ~40ms (die ein Micro"ruckler" bei 40fps eben doch noch überbieten kann) als "flüssig" wahrnimmt.
Das heißt umgekehrt aber auch, dass alles, was schneller als dies 40-33ms (25-33fps) berechnet wird, vollkommen für die Katz bzw. Schwanzmark ist.
Wenn eine HD3890X2 30% ihrer Leistung verschenken kann, ohne das ich was davon merke, dann ist das zwar flüssig - aber ein effizienteres, Microruckler-freies Setup mit 30% weniger "fps" (ne GTX285?) wäre genauso flüssig. Und würde nur halb soviel Strom verbrauchen.
Also entweder will man die Leistung voll ausreizen -dann hat man bei Multi-GPU das Problem mit Microrucklern- oder man braucht gar nicht soviel Leistung, dann braucht man aber auch kein Multi-GPU zum spielen.
die frage ist, ob danach noch viel an höhere auflösung kommt, oder das ganze erstmal stagniert. full hd ist zwar schon echt geil, aber da stößt es dann schon langsam an die grenze, wo man mehr details erkennen kann bei höhere auflösung. und ich glaube kaum, dass sich viele nen 30"er auf den tisch stellen werden.
Das hat man vor nem Jahrzehnt auch von 22"er gesagt.
Es gab zwischenzeitlich mal n Einbruch/lange Stagnation durch die 17-19" TFTs, aber im Schnitt wachsen Monitorgrößen und damit Auflösungen zwar langsam, aber kontinuirlich.
der nvidia-bridgechip kann auf jeden fall auch kommuikation unter den GPUs verwalten, also zwei GPUs hinter einer bridge können daten unabhängig vom system austauschen.
Afaik nutzt Nvidia Synchronisation über PCI-E aber nur bei den einfachsten GPUs, die erst gar keine SLI-Verbindung mitbringen.
es ist nunmal immer so, dass das beste, was aktuell verfügbar ist, mehr ressourcen verschluckt als anderes. ein ferrari schluckt auch mehr als ein kleinwagen, dennoch erreicht ein kleinwagen 10 jahre später dieselben rundenzeiten. das imho nichts schlimmes, sondern einfach normal, das nunmal das beste, was es gibt, überdurchschnittlich teuer ist.
Das Beispiel hinkt richtig:
- N Kleinwagen erreicht vielleicht 40 Jahre später die gleiche Leistung
- schluckt dann aber auch ein vielfaches des 40 jahre älteren Gegenstückes.
- heutige Einsteiger-Grafikkarten verbrauchen z.T. mehr, als ältere High-End Karten
- werden aber von einer ganz anderen Käuferschicht gekauft
- der Verbrauch bei Spielern ist kontinuirlich am steigen.
Das zu einem Zeitpunkt jeweils Beste verbraucht natürlich extra viel, aber das Problem ist eben, dass das etwas bessere der nächsten Generation auch merklich konsumiert, das als das etwas bessere der letzten. Und da die großen Chips die Entwicklungsrichtung vorgeben, tut sich da in Sachen Optimierung auch sehr, sehr wenig.