ATI nun doch mit GTX 295 Killer in Form der Radeon HD 4890 X2

@Dr. Cox: Man kann auch übertreiben, aber es stimmt, die meisten Beiträge zielen nur in diese Richtung. ruyven_macaran hat einen guten Kommentar geliefert.
 
...verbuggten Energiesparmodus (warum das nicht längt mit ner neuen Chiprevision gelöst wurde, ist mir allerdings auch schleierhaft - vermutlich geben einfach viel zu viel Leute nen Dreck darauf, dass n paar kWh/d vollkommen unnötig verbraten) ein exzellentes Stück Hardware.
Das Problem ist nur, dass Nvidia deutlich höhere Spitzenleistung vorliegt und AMD scheinbar nicht einsieht, dass man mit einem Mittelklassechip da nicht das optimale Material hat, um mitzuhalten...

Das hat ja AMD schon bei HD3xxx Reihe angekündigt:
Mittelklasse Chips zu produzieren und mit einer Multi GPU Lösung aus Mittelklasse Chips in den HighEnd Bereich vorstoßen.
Ich glaub, es war schon beim HD4xxx vorab die Rede (Gerüchte), dass AMD gänzlich auf MultiKerne setzt innerhalb der GPU (zB. 4x4870Kerne kombiniert - etwas kompliziert formuliert).
Aber das haben sie dann ja nicht gemacht. Es ist nun mal de facto deutlich kostspieliger einen reinen HighEnd Chip zu erstellen, wie es NV mit dem GTX280 gemacht hat, als nur eine "Mittelklasse" Karte ala 48xx.


Im Furmark kommt bereits die HD4870x2 locker über 360W, da dürfte ne 4890x2 -sofern an dem Gerücht irgendwas haltbares dran ist- bequem die 400W-Marke knacken.
Ob einen das stört, solange sie in Spielen deutlich weniger verbraucht, ist ne andere Frage. (wobei ich mich schon lange frage, wie es sich auf AMDs GPGPU-Programm auswirkt, dass die aktuellen Karten bei 100%iger GPU-Last defacto auf ~2/3 ihrer Leistung gedrosselt werden müssten, um innerhalb von TDP und PCI-E Specs zu bleiben.)
Im Grunde liegen ja beide über den Specs. Es ist auch kein Wunder, dass erste PCIe 3.0 (3 Slots und mit noch höherer Stromaufnahme für 2010 vorgesehen sind).
AMD hat nun mal bei der 48xxer auf pure Leistung gesetzt. Ich glaub, es gab mal von einem AMD Mitarbeiter auf Anadetch ein Interview zum 4800er und der sagte, dass es allein nach der HD3xxer darum ging zu NV aufzuschließen. Stromsparmechanismen standen an zweiter Stelle und für mich ist der "Powerplay Bug" auch ein Problem in der Hardware selbst. Lustiger Weise wurde Powerplay 2.0 noch als Verbesserung hervorgehoben


Auch die braucht Platz. Die Netburstarchitektur ist seinerzeit gescheitert, weil niemand den Lärmpegel und die Ablufttemperaturen hinnehmen wollte, die eine 140W CPU selbst mit einem großen 120mm BTX-Kühler erzeugte.
Ne 4890x2 könnte im Worst-Case das 3fache verbrauchen, im Normalbetrieb käme man mindestens auf das doppelte. D.h. damit das System beim Nutzer nicht schlechter abschneidet, als die seinerzeit kritische Grenze, bräuchte man mindestens nen Dual-, besser nen Triple-Radiator allein für die Grafikkarte.
Da waren sie ihrer Zeit voraus. Heutzutage hat man einen i7 mit max 130 Watt oder den Phenom I, der auch nicht viel besser war beim Top Modell.
Grundsätzlich hat man aber gesehen, wieviel es gebracht hat vom 120/90nm Prozess (P4) zum 65/45nm (Core2) zu wechseln, denn im Grunde ist der Core2 nur eine Verbesserung des P4 (Verkleinerung der Pipeline + Cachevergrößerung, Befehlsätze Erweiterung etc.)

Auch eine Wasserkühlung kommt an ihre Grenzen, dass ist wahr, insbesondere wenn die Lüfterdrehzahl in einem niedrigen Bereich ist.

Wenn mal Notebooktechnik zum Vergleich heranzieht, ist vielleicht die Frage berechnet, ob allein das Kühlsystem eines Rechners mehr Platz und Gewicht einnehmen muss, als Hardware, die ihn zu 80-90% seiner Nutzungszeit zu 100% ersetzen könnte...

Notebooks werden generell warm und die Temps sind auch nicht ohne dort.
Ganz zu schweigen von der Lüfterlautstärke bei manchen Notebooks.
Wobei ich dir Recht geben muss ist, dass die Entwicklung in der Gehäuse/Luftzirkulation schon lange still steht. ATX ist schon extrem lange Standard. BTX wurde leider unnütz, nachdem die P4 Ära zu Ende ging und verworfen.


Wenn man sich die vergangenen Jahre anguckt, dann war bei Nvidia der Shrink G70->G71 der letzte Shrink einer High-End-GPU, der für eine Verringerung der Verlustleistung genutzt wurde....
ALLE anderen Shrinks der High-End-GPU-Geschichte (und davon gab es nicht gerade wenige) wurden quasi ausschließlich zur Leistungssteigerung genutzt und die Verlustleistung der neuen Generation lag (meist deutlich) über der der alten.

Ganz meine Worte... hatte ich vorhin im Post schon geschrieben.
DIE Shrinks bei neuen Generationen sorgen dafür, dass bei gestiegener Leistung der Strombedarf nicht proportional mit dem LeistungPlus steigt.
Bei einem DIE Shrink innerhalb einer Generation wird der Gewinn durch Taktsteigerungen verbraten.

Die zur Zeit verwendeten Chipsätze mögen ein Vielfaches der CPU verbrauchen - aber das Paket frisst afaik immer noch weniger, als z.B. die "Southbridge" des NF780i...

Ähmm, ein 780i oder x58 haben auch viel mehr Controller und Funktionen im Kern, als in so einem poppeligen ATOM Brett. Das muss auch alles verwaltet werden.... Beim ATOM Chipsatz liegt es einfach daran, dass der FSB nicht in der CPU ist, sondern weiterhin in einem uralt Cipsatz, denn Intel noch unter die Leute bringt. Kein Wunder, dass dort soviel Watt draufgehen.

Der Nano ist da eine echte Alternative.

Also ich weiß nicht, was du die meiste Zeit mit deinem Rechners machst - aber ich z.B. Surfe, mach Office-Sachen (okay - z.T. lasten die die CPU auch voll aus :ugly:),...
(zumindest bei Deaktivierung von Flash und diverser anderer Werbung) reicht dafür auch mal ein altes System mit einem Verbrauch von deutlich unter 100W. Mit modernster Hardware käme man unter 50W, mit Notebooktechnologie unter 20W (ohne Display).
Computerbase misst zwischen nem 4890 und nem 4890CF System 68W Unterschied im Idle.
Stellt sich die Frage: Wieso verbrät eine Grafikkarte 68W (ne HD4890x2 dann vielleicht 100W - also mal eben ne kWh am Tag oder 150-200kg CO2 im Jahr) bei Aufgaben, für deren eigentlich Erfüllung gerade einmal 1/3 bis 1/5 dieser Energiemenge aufgewandt werden muss?
Aber statt dessen verschwinden Lösungsansätze wie Nvidias Hybrid-SLI wieder in der Schublade, weil die Kunden kein Interesse haben...

Genau das meine ich doch. Wenn ich im 2D Modus bin, dann brauche ich auch nicht zB. 240 Shader, oder??? Aero saugt soviel auch nicht. Es bringt was, die Spannung und den Takt zu senken, aber noch mehr, wenn man eine bestimmte Anzahl der Shader, Kerne (CPUs) deaktiviert für den 2D Modus. Aber das greift zu stark in die Architektur ein und kostet zuviel Entwicklungsgelder....
Hybrid SLI wurde eingestampft da der Kunde (Mainboard Hersteller/Verpacker;)) nicht bereit waren, Mehrkosten für die Mainboards hinzunehmen.
Wenn schon selbst da die Firmen blocken, wie soll man da erwarten, dass mehr in solche Entwicklungen gesteckt werden. Aus diesem Grund wird der "Green IT - Gedanke" auch nur halbherzig angepackt von den Firmen. Alleine wenn man TFTs mit 40Watt+ im IDLe Modus sieht, wird mir schlecht.

Optimierung, gerade der Software.
Wenn man sich mal anguckt, wie gut Mafia oder Max Payne 2 auf einer 20W Karte aussehen und wie wenig mehr einem Crysis

Bei der Software ist immer Optimierungspotential, dass ist zugleich das Problem des PCs. Zuviele Konfigurationen/Hersteller und Treiber, da können Entwickler nicht 100% alles perfekt optimieren (damit will ich nicht alles seitens der Entwickler entschuldigen), da ist es mit einer einzigen Plattform wesentlich leichter.

mfg

Kosake
 
Zuletzt bearbeitet:
Es muss nicht nur kleiner werden.

Einige sehr interessante Ansätze gehen daran mehrschichtige Transistoren, DIEs.... zu entwickeln.

Das fällt unter Herstellungs Entwicklungen, genau wie Material etc.
Aber schön zusehen, dass du einen ähnlichen Ansatz verfolgst, denn nur so können auch mehr Transistoren, Cache (CPUs), Shader etc. auf einen Kern gepackt werden.

@ Dr. Cox sollte ich mich jetzt angegriffen fühlen?^^
Ne im Ernst, ich finde es sind ein paar gute Ansätze hier diskutiert worden, dass bei Grafikkarten immer ein "Firmen Krieg" bei manchen ausbricht ist klar - Warum auch immer
aber dafür sollte man nicht gleich alle Kommentare in die Tonne kloppen

mfg

Kosake
 
Zuletzt bearbeitet:
"fast nur" schließt nicht gleich automatisch alle Leute mit ein, sondern nur den Großteil ;)

(Ich habe es jetzt extra noch einmal dick und kenntlich gemacht)

Um ehrlich zu sein, leider der einzige wirklich sinnvolle Beitrag im ganzen Thread!
Die restlichen Beiträge bestehen hier fast nur aus Flames, Fanboygebashe und propagandierten Unwahrheiten einiger engstirniger und naiver Fanboys
 
@Stormblade Kommentar

also das ist der unsinnigste Beitrag schlechthin und ich dachte nur bei Gamestar würden solche Leute rumlaufen..............
 
Zuletzt bearbeitet:
Was mich dauernd zum überlegen bringt ist,wie das Teil gekühlt wird.Wenn die das mit nem Referenzkühler machen müßte die theoretisch ganz schön Laut werden,das braucht keiner,zumal die ja schon unverschämt viel Strom braucht.Ob die den Referenzkühler so modifizieren können das der Leistungsfähig und leise ist glaube ich nicht unbedingt.Ne Wakü wäre zwar ne Lösung,will aber nicht jeder.:what:
 
Notebooks werden generell warm und die Temps sind auch nicht ohne dort.
Ganz zu schweigen von der Lüfterlautstärke bei manchen Notebooks.
Wobei ich dir Recht geben muss ist, dass die Entwicklung in der Gehäuse/Luftzirkulation schon lange still steht. ATX ist schon extrem lange Standard. BTX wurde leider unnütz, nachdem die P4 Ära zu Ende ging und verworfen.

Die Luftführung hab ich da noch gar nicht berücksichtig, es ging einzig und allein um das Volumen und vor allem Gewicht von Radiator, Pumpe,... - und ein Notebook ist die besagten 80-90% der Zeite eben auch nicht lauter als ne aktuelle High-End Karte im idle.

Ähmm, ein 780i oder x58 haben auch viel mehr Controller und Funktionen im Kern, als in so einem poppeligen ATOM Brett. Das muss auch alles verwaltet werden.... Beim ATOM Chipsatz liegt es einfach daran, dass der FSB nicht in der CPU ist, sondern weiterhin in einem uralt Cipsatz, denn Intel noch unter die Leute bringt. Kein Wunder, dass dort soviel Watt draufgehen.

Ich sprach nicht vom Atom-Board und nem X58 Board, sondern ich sprach vom kompletten Atom-System und der "Southbridge" des 780i. Sicherlich kann letzte ein paar Sachen mehr (naja - in erster Linie mehr PCI-E Lanes), aber ersterer kann n komplettes Betriebssystem, Browser, Office Software, 90% aller für den PC existierenden Spiele (seit Beginn der PC-Zeit ;) ),... zum laufen bringen, Eingaben verarbeiten, Bild und Ton ausgeben, Netzwerkzugang herstellen,........ . Letztere kann n Daten zwischen Northbridge, Karten und Laufwerken hin- und herschieben.
Da stellt sich schon ein bißchen die Frage nach dem Verhältniss Nutzwert/Stromverbrauch.

Bei der Software ist immer Optimierungspotential, dass ist zugleich das Problem des PCs. Zuviele Konfigurationen/Hersteller und Treiber, da können Entwickler nicht 100% alles perfekt optimieren (damit will ich nicht alles seitens der Entwickler entschuldigen), da ist es mit einer einzigen Plattform wesentlich leichter.

Deswegen habe ich zwei PC-Spiele miteinander verglichen ;)
Hätte ich Konsolentiteln mit berücksichtigt, könnte der Vergleich noch wesentlich schlechter aussehen. (Wobei das natürlich heikel ist - ehe die Entwickler eine Konsole voll ausreizen, vergehen Jahre. Bis dahin bietet der PC oft mehr Leistung/Watt)
 
Check ich net... du baust dir also eine Nvidia 295GTX rein aber eine 4890x2 is natürlich nicht tragbar? :what:
Warum?
Es gibt auch leute die haben 2x 285GTX im Rechner. Wieso den nicht? Crysis auf nem 40zoll LCD Fernseh mit 1920x1080 und AA brauch nunmal power.

Der Thread wird ein schlachtfest für alle Neider und Nvidia Fanboys.

Das hat mit Schlachtfest nix zu tun, ich bin nun mal so einer der seinen Rechner nicht alle paar Tage aufstockt, habe zuletzt mit zwei 8800 GTS (640MB) im SLi fast 1 1/2 Jahre gearbeitet & war auch sehr zufrieden.
Hätte ich den "alten" Rechner nicht für gutes Geld verkaufen können wäre ich auch mit weniger zufrieden gewesehn doch durch eine gute ausbezahlung meines Rechner konnte ich sowas verwirklichen.
Udn da sehe ich dennoch mehr sinn dahinter als sich zwei 285GTX Karten reinzuklatschen, da eine 295GTX weniger Strom frisst als eben diese zwei.

Aber egal, ich war auch länger am überlegen ob vielleicht nicht doch ATI --> günstiger.
Hat also in meinen Augen nix mit Nvidia-Boy zu tun

So Long...
 
Die Luftführung hab ich da noch gar nicht berücksichtig, es ging einzig und allein um das Volumen und vor allem Gewicht von Radiator, Pumpe,... - und ein Notebook ist die besagten 80-90% der Zeite eben auch nicht lauter als ne aktuelle High-End Karte im idle.

Naja laut sind manche echt. Wenn ich im Hörsaal sitze, dann bekomme ich manchmal das kot... bei den lauten Luftsystemen mancher Notebooks.
Vorallem Sony und Medion Modelle sind da ganz weit vorne.
Zudem, wenn ich eine Notebook Tastatur anpacke ist die echt warm oder der Lüfter eben lauter.
Im Notebook werden alle Komponenten einiger Hitze ausgesetzt, deshalb käme ich nie im Leben auf den Gedanken da etwas zu tweaken, tunen etc.
Grundsätzlich finde ich es gut, wenn die Komponenten kleiner werden, zB. 2,5 Zoll Festplatte oder µATX Mainboards etc.

Eben, weil der ATX Faktor schon so lange Standard ist, hat sich nix mehr getan in Richtung Verkleinerung, Platzierung der Komponenten etc.
Da liegt noch einiges Potential brach für eine optimale Kühlung.

Ich sprach nicht vom Atom-Board und nem X58 Board, sondern ich sprach vom kompletten Atom-System und der "Southbridge" des 780i. Sicherlich kann letzte ein paar Sachen mehr (naja - in erster Linie mehr PCI-E Lanes), aber ersterer kann n komplettes Betriebssystem, Browser, Office Software, 90% aller für den PC existierenden Spiele (seit Beginn der PC-Zeit ;) ),... zum laufen bringen, Eingaben verarbeiten, Bild und Ton ausgeben, Netzwerkzugang herstellen,........
Mir ging es da um den "Green IT" Gedanken, man kann nicht zum einen die Hände in die Höhe reißen und schreien unsere CPU verbraucht am wenigsten bei guter Performance und nimmt dann einen 4 Jahre alten Chipsatz und verpulvert da etliche Watt ins Nichts. Das passt nicht zusammen.

Zu deinem Vergleich: der hinkt etwas. Man muss beide Plattformen für sich betrachten. Das eine ist eine full ATX Plattform mit vielen Anschlüssen wie 8-10USB, Firewire, Dual Lan, usw. (Nortbridge) und Features (SLI etc.) und mit höherem FSB, mehr Funktionen im Bios usw.
Ist doch klar, dass eine ATX Plattform da nicht mithalten kann.
Zugegeben im Vergleich zu Intel Plattformen, war die 780i Reihe sehr stromhungrig.

Aber vergleich mal die ATOM Mainboard mit anderen Note-/Netbook (Via) Plattformen, da ist die Stromaufnahme wesentlich geringer, eben weil ein neuerer Chipsatz benutzt wird. Wie gesagt, dass passt absolut nicht zum "Green IT" ATOM .


Deswegen habe ich zwei PC-Spiele miteinander verglichen ;)
Hätte ich Konsolentiteln mit berücksichtigt, könnte der Vergleich noch wesentlich schlechter aussehen. (Wobei das natürlich heikel ist - ehe die Entwickler eine Konsole voll ausreizen, vergehen Jahre. Bis dahin bietet der PC oft mehr Leistung/Watt)

War mir klar und sehe es auch genauso, wollte nur das Beispiel drastischer formulieren. Der PC, als Plattform ist sehr vielseitig, hat aber auch dadurch Nachteile.
 
Ich habe jetzt ca 30 min gebraucht um den Thread zu lesen und fühle mich in die 90´er versetzt :lol: GTI oder GSI. Das selbe Thema wie hier :ugly:

Mal ehrlich, wer von uns kann sich GraKas über 400€ leisten??? Und wer reizt die dann auch zu 100% aus? Meine GTX285 kommt nicht über 40% Lüfterdrehzahl. Selbst beim Furmark nach 30 min ist die grade mal bei 60%.

Jetzt mal zum Verbrauch. Ich vertrete die meinung, "Wo nix reinkommt, kommt nix raus". Oder was meint ihr, weshalb Ferrari keine 3L Enzos baut. Wer sich ne GraKa für >400€ leistet, den intressiert das nicht. Mich hats auch nicht intressiert was meine Verbraucht.

Ich bin mir auch sicher, das wenn jeder das Geld über hätte, würde er sich ne HighEnd Karte, oder sagen wir, die schnellste Karte holen. Egal was die an Strom zieht.

Und mal ehrlich, wie viele haben nen i7 Prozie? Ich glaube nicht das ein C2D, C2Q, Phenom I, II die Karte auch nur ansatzweise auslasten.

Microruckler: Die einzigen, die dieses Problem zu 100% im Griff hatten, war wer???
Wer weis es???

3dfx. Ich hatte die 5 500 mit 2 V100 Chips. Bei Doom hatte ich keine Ruckler. Wundert mich eh, warum alle Welt davon spricht. Als Crossfire und SLI aufkam hat da komischer weise keiner was gesehen. Ich werde mir das am Samstag auf der Lan ansehen. Da kommt ein Kumpel mit ner 9800 GX2. Mal sehen ob ich Ruckler finde.

PS: Bin Nvidia Fanboy wie ihr so schön sagt. Aber hätte ich das Geld über und übertrifft die Karte die GTX295 um sagen wir mal 10-20% würde ich sie mir anstandslos holen.

PS: Ich hatte nen GSI :hail:
 
Schon nen richtiger Fanboybattle hier :D
Wer so ne Karte braucht, soll se sich kaufen.

Wir erweitern einfach die ATX Standarts, da kann alles Größer werden und somit muss es nicht kleiner werden damit es schneller wird, einfach alles größer machen^^
So ne 20 x 45cm GPU wär doch mal was :lol:
Dann nen Quad-slotKühler drauf und Ruhe im Karton^^
 
Ich werde niemals eine Dual-GPU-Lösung kaufen!
Was bringen mir 500 FPS wenn ich immer noch nicht flüssig spielen kann und der Stromverbrauch enormer als bei einer Single-GPU-Lösung ist?

Ich verstehe die Leute nicht die sich ein Multi-GPU-System anschaffen :nene::nene:
 
Ich werde niemals eine Dual-GPU-Lösung kaufen!

Ich verstehe die Leute nicht die sich ein Multi-GPU-System anschaffen :nene::nene:


Wenn du das nicht verstehst, dann setze dich doch mal mit jemanden auseinander der eine DUAL Grafikkarten-Lösung hat. :daumen:

Hinterfrage doch erstmal seine Beweggründe für eine DUAL Graka, vielleicht kannst du dann IHN als auch ANDERE mehr verstehen und deine Missverständnisse sind aus dem Weg geräumt.

Du hast ja deine PC auch nach deine Vorlieben zusammengebaut in Abhängigkeit vom finanziellen Aspekt.

Das einzige Gegenargument für mich gegen eine DUAL GRAKA LÖSUNG, ist das Ding mit den Mikrorucklern.

Ich habe heute zum 1. mal FALLOUT 3 gespielt.
Und da habe sehr viele User das Problem mit diesen Mikrorucklern ( AUF SINGLE GRAKA's ). Man ist das grausam. Man läuft durchs Game wie abgehakt trotz hoher FPs Zahl. Ich habe sonst immer nur aus Berichten davon gehört und man konnte es sich vorstellen. Aber in Echt ist es viel schlimmer und ein absolutes NO-GO für mich !

Wie gesagt, ich möchte es noch einmal auf den Punkt bringen :

Ich schließe mich da meinen Vorrednern an.
Es geht bei diesen Karten nicht um GREEN IT, es zählt die pure Leistung. Diskussion über Strom oder LEISTUNG pro WATT sind total irrelevant, weil das nicht im geringsten Hauptfokus ist.

Ich kann immer nur sagen, dass der Normalo-User mit den aktuellen High End Single Graka's sehr gut bedient ist, sowohl Leistungstechnisch, preislich als auch Stromverbrauchstechnisch.

Jemand der X2 Monster kauft hat auch das nötige Kleingeld für Strom und was alles noch dazu gehört und muss nicht so recht auf den Euro gucken.
Wer allerdings knapp bei Kasse ist und sich trotzdem so etwas holt, nunja, der bräuchte vielleicht dringend HILFE :-).

:daumen:
 
Zuletzt bearbeitet:
ich denke man sollte hier mal eine sache ganz deutlich im bezug auf "microruckeln" (unwort des jahres)
klarstellen.
MICRORUCKELN tritt erst auf, wenn die frames per second unter 40 teilweise unter 30 einbrechen. alles darüber ist absolut flüssig (ja auch subjektiv)!
wenn du fallout 3 mit irgendeiner dualgpu lösung in MICRORUCKELN gebracht hast, hast du entweder eine vollkomen schwachsinnige dual gpu lösung bespielt (á la 2x9600gt oder so:schief:) oder auf nem 40 zoll monitor mit antialias und af gezockt.... sonst sind die frames bei einer gtx295 oder 4870x2 gar nicht in den bereich um 30-40 zu bringen :ugly::ugly::ugly:
also bitte leute erst denken dann labern
 
Zurück