Dual-Geforce-GTX-470 auf der Computex: Galaxy zeigt Karte mit zwei GF100-GPUs

zur 5870

man hört sie nicht im vergleich zur Turbine der 480er wenn man die Drehzahlen anhebt auf level der 480 werden die temps warscheindlich im minus bereich sein =P
 
Nvidia ist ja so böse und verschwenderisch. Aber hoppla, hat da nicht doch die MSI HD5870 Lightning auch 2x 8 Pin (= 375W)? Die sind dann wohl nur als optische Täuschung gedacht, damit Nvidia kein schlechtes Gewissen bekommt :-)
 
Zuletzt bearbeitet:
Die 5870 wird max 82°C warm eigentlich und das unter Fumark, was noch ok ist. Die GTX480 wird an die 100°C warm und ist lauter so btw.

Also meine Referenz 5870 wird maximal 78°C im Furmark warm, aber bei nur 30% Lüfterdrehzahl. Wieviel braucht die GTX480 denn, um ihre Temperatur zu halten?

€: Spaßeshalber hab ich jetzt zweimal 5min Furmark laufen lassen, einmal mit 100% Lüfter (max. 52°C) und einmal mit automatischer Steuerung (30%) ( max. 78°C).
 
Zuletzt bearbeitet von einem Moderator:
Bestimmt bekommt man bei der Karte in der normalen Version ne Wasserkühlung, in der Extended Version bekommt man noch nen Chiller dazu und in der Ultra Version sogar den ersten GPU Pot mit gratis 1000L Stickstoff für die erste Viertel Stunde nach dem Start.
Unverbindliche Herstellerempfelung: nur 998,90 € ( keine 1000€ den das wär ja voll überteuert )
 
ich schätze mal, 465 W (2 mal 232,x) verbrauch, bei 2 echten gtx-470 und 5 bis 10% langsamer als ne echte hd 5970 mit standardtakt der 5870, letztere bei ca 100 bis 150 w weniger verbrauch.
 
Also meine Referenz 5870 wird maximal 78°C im Furmark warm, aber bei nur 30% Lüfterdrehzahl. Wieviel braucht die GTX480 denn, um ihre Temperatur zu halten?

€: Spaßeshalber hab ich jetzt zweimal 5min Furmark laufen lassen, einmal mit 100% Lüfter (max. 52°C) und einmal mit automatischer Steuerung (30%) ( max. 78°C).
was schreibst du denn da für ein Blödsinn?!?!?! :what::what::what::what::what::what::what::what:

Ich kenne weder eine ATI noch eine NV die bei 100% auslastung 52°C schafft und schon gar nicht die 5870...da solltest du mal schauen ob du nich vll die 5770 drin hast -.-

Ausserdem hab ich geschrieben das das REFERENZ-DESIGN 87°C (ATI) im maximum hatte.
 
was schreibst du denn da für ein Blödsinn?!?!?! :what::what::what::what::what::what::what::what:

Ich kenne weder eine ATI noch eine NV die bei 100% auslastung 52°C schafft und schon gar nicht die 5870...da solltest du mal schauen ob du nich vll die 5770 drin hast -.-

Ausserdem hab ich geschrieben das das REFERENZ-DESIGN 87°C (ATI) im maximum hatte.
Fumark 64°C bei 100% Lüfterdrehzahl, und das mit dem Referenzdesign! Die Karte läuft schon nen paar Montate, also mit ner neuen Karte sicher auch 60°C drin. Mit Costumdesign auch weniger.

PS: ja ist net 5870
 
was schreibst du denn da für ein Blödsinn?!?!?! :what::what::what::what::what::what::what::what:

Ich kenne weder eine ATI noch eine NV die bei 100% auslastung 52°C schafft und schon gar nicht die 5870...da solltest du mal schauen ob du nich vll die 5770 drin hast -.-

Ausserdem hab ich geschrieben das das REFERENZ-DESIGN 87°C (ATI) im maximum hatte.


Kennst du das Antec nine hundred? Vorne zwei Lüfter, hinten einer und nen riesen Teil an der Decke? Das ist sehr wohl möglich. Lüfter liefen vom Gehäuse alle auf mittel. Und bei 100% Lüfterdrehzahl der 5870 bei 100% Auslastung im Furmark wurde die maximal 52°C warm. Glaub es oder glaub es nicht, ich weiß ja wohl was ich getestet habe. Und meine ist Referenz Design.
Hättest du in meine Sig gesehen, wärst du schlauer gewesen. Ach und nochwas, die Karte ist sieben Monate alt.
 
Na er meinte mit 600k Transistoren wohl eher 6kk, ergo 6.000.000 Transistoren, denn genau soviele haben 2 Gf100 zusamen. ^^

Und wieso hat noch keiner dran gedacht, dass auf der Rückseite die fehlenden Ramsteine verbaut sein könnten- Für die 8 war auf der Vorderseite villeicht einfach kein Platz mehr und größer hätten sie das PCB auch nimmer machen könen. ;)

375 Watt wären schon echt ein Hammer, aber naja das ist halt einfach eine Dual - Gpu - Karte. Die waren schon immer starke Extrema im Hinblick auf Verbrauch, Wärme, usw.

Wie das dann aber mit den Treibern ausschaut, ist mir noch nicht ganu klar, denn ich glaube nicht ( sehr wahrscheinlich irre mich hier) wird das vom PC nicht als ein Sli-Gespann erkannt und da Nvidia (bisher) keine eigene Dual Gpu Karte entwickelt hat, wird es dafür auch keine Treiber geben
 
Hmm.. jo dann passt das mit den Transistoren, was er damit sagen wollte ist mir aber immer noch schleierhaft.

Das die fehlenden Rambausteine auf der Rückseite sitzen ist sehr sehr sehr sehr sehr unwahrscheinlich. Das macht die ganze Sache nur viel komplizierter. Du willst ja gleich lange Leiterbahnen damit die Laufzeiten stimmen. Wenn setzt du das Symmetrisch um, aber nicht 8 vorne 2 hinten. Das macht echt keinen Sinn, zumal man ja genug anderes Zeug vorne verbaut hat, was man stattdessen wohl nach hinten hätte packen können.

Achso und zu dem 2x8 Pin bei ner 5870, ja, die hat aber auch 2GB RAM und brauch daher klar etwas mehr Saft, wobei die 2x8 Wohl eher dazu gedacht sind um mehr Phasen bringen und nicht zwingend aufgrund der erforderlichen Leistungsaufnahme vorhanden sind.

EDIT: was ich noch sagen wollte. Was auch noch dafür spricht, das es sich um GTX465 Chips in Wahrheit handelt ist, das die 465 ja um die 200 Watt verbrauchen soll und damit auch von der Leistungsaufnahme mit den 2x8Pin hier sehr gut abgedeckt wäre.

PCGH sollte da echt mal nachhacken. So ist das atm wirklich sehr unbefriedigend.
 
Ähm, wieso vergleichen hier eigentlich einige immer Dual GPUs mit Single GPU in Punkten wie Verbrauch und Hitze :-S ? Wenn man die Dual GTX 470 schon vergleichen will, dann wohl eher mit HD5970 oder GTX 295 und gegenüber denen würde sich der brutal hohe Verbrauch wieder relativieren. Kommt einem ab und an ja vor wie ein Vergleich eines Ferrari mit nem Smart oder ner Moto GP Maschine mit ner Vespa ;-)


da Nvidia (bisher) keine eigene Dual Gpu Karte entwickelt hat, wird es dafür auch keine Treiber geben

Und wieso sollte Nvidia vorher keine Dual GPU Karten gehabt haben? Was sind dann z.B. 9800 GX2, GTX 295, etc.?
 
Zuletzt bearbeitet:
Ähm, wieso vergleichen hier eigentlich einige immer Dual GPUs mit Single GPU in Punkten wie Verbrauch und Hitze :-S ? Wenn man die Dual GTX 470 schon vergleichen will, dann wohl eher mit HD5970 oder GTX 295 und gegenüber denen würde sich der brutal hohe Verbrauch wieder relativieren. Kommt einem ab und an ja vor wie ein Vergleich eines Ferrari mit nem Smart oder ner Moto GP Maschine mit ner Vespa ;-)
Wenn das SingelGPUModell von nVidia fast so viel Verbraucht wie die Dualkarte von ATI, dann kann man das schon vergleichen und sich fragen, wieviel dann die Dualkarte von nVidia verbrauchen wird, wenn die Leistung passen soll.

Und wieso sollte Nvidia vorher keine Dual GPU Karten gehabt haben? Was sind dann z.B. 9800 GX2, GTX 295, etc.?
Er meinte wohl eher, das nVidia selbst bisher keine GTX400er Dualkarte gezeigt hat, diese also wohl noch keine eigene besitzen. Von früheren Generationen redet er nicht.
 
Btw ich hatte recht.....

Das sind GTX465 Chips. Auf TechPowerUp.com bestätigt diese Aussage damit, das man auf dem Chip die REvision GT100-030-A3 sieht, die für die GTX465 steht.

Was soll eigentlich der Mist atm mit den News über Galaxy, wo einfach nichts stimmt? Korregiert bitte wenigstens die Fehler.
 
Rechtzeitig zur Grillsaison bietet Nvidia die passende Hardware an also ein Multitool mit dem man beim Zocken auf der GraKa gleichzeitig seine Bratwurst grillen kann.Wenn das kein Hightec ist:ugly:
 
Rechtzeitig zur Grillsaison bietet Nvidia die passende Hardware an also ein Multitool mit dem man beim Zocken auf der GraKa gleichzeitig seine Bratwurst grillen kann.Wenn das kein Hightec ist:ugly:

Ich werde mir wieder ne Dual Gpu kaufen...weint doch alle rum!
 
Zurück