• Achtung, kleine Regeländerung für User-News: Eine User-News muss Bezug zu einem IT-Thema (etwa Hardware, Software, Internet) haben. Diskussionen über Ereignisse ohne IT-Bezug sind im Unterforum Wirtschaft, Politik und Wissenschaft möglich.
  • Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

(Wahre) Bilder der HD4870 direkt von AMD!!!!!

moddingfreaX

Software-Overclocker(in)
Ne richtig geile Karte vom Design her.
Hoffe die Anbieter überpappen den schönen Sticker nicht wieder :wall:
 

push@max

Volt-Modder(in)
so langsam merkt man, dass die Karte kurz vor dem Release steht...hoffentlich kommen bald erste Spielebenchmarks von der Karte, um endlich mal die Leistung einschätzen zu können.
 

Overlocked

PCGHX-HWbot-Member (m/w)
btt: Ausdruck bitte;) Die Bilder stammen von tomshardware...

Aber sonst freue ich mich auf die Karte und jenachdem wie der GT200 abschneidet- ein neues Schmuckstüch unter dern Grafikkarten.
 

Invain

PC-Selbstbauer(in)
Sieht schon klasse aus! :)
Ich kann die ersten Benchmarks kaum noch erwarten, schließlich gehöre ich nicht zu denen, die nach Aussehen kaufen. :ugly:

Erst mal muss ich allerdings schauen ob mein Netzteil den Leistungshunger der 4870 stillen kann...
 

low-

Freizeitschrauber(in)
Naja mit 520Watt solltest du das schon schaffen denke ich ;)

Ja eine wirklick schicke Karte ;)
 

$Lil Phil$

PCGHX-HWbot-Member (m/w)
Nicht schlecht, ich freu mich unheimlich auf die Karten, auch wenn ich mir erstmal keine kaufen werde :ugly:
Naja vllt Weihnachten +Far Cry 2
 

px2

Freizeitschrauber(in)
di hd 4870 hat zwei stromanschlüsse?
da wären dann aber die aussichten auf ne hd4870x2 nicht so gut

ich meine wie will man das kühlen
 

StellaNor

PCGHX-HWbot-Member (m/w)
Das Design der Karte ist mir eigentlich ziemlich egal. Für mich zählt die Performance und der Preis. Angesichts der Preise für die neuen Geforce GTX sehe ich
mich daher vermutlich auch mit einer HD 4870 wieder. 449 US-Dollar für die GTX 260 finde ich schon ziemlich happig (unbesehen von der Performance).
 

KTMDoki

Software-Overclocker(in)
di hd 4870 hat zwei stromanschlüsse?
da wären dann aber die aussichten auf ne hd4870x2 nicht so gut

ich meine wie will man das kühlen

aber wenigstens nur 2x6 Pin Stromanschluss!!!

dass heißt, ich brauch mein NT nicht wechseln :D

find , dass die geil ausschaut!!
nur mehr auf Spiele-Benches/Tests abwarten!!!!!
 
TE
B

boss3D

Guest
Das Design der Karte ist mir eigentlich ziemlich egal. Für mich zählt die Performance und der Preis. Angesichts der Preise für die neuen Geforce GTX sehe ich
mich daher vermutlich auch mit einer HD 4870 wieder. 449 US-Dollar für die GTX 260 finde ich schon ziemlich happig (unbesehen von der Performance).

Vor allem, wenn die Gerüchte stimmen und die neuen GeForcen wirklich schwächer werden, als die wesentlich billigeren Radeons! (siehe: PCGH - News: Technische Details zu Geforce GTX 260 und 280)
Als ATI-Fan will ich das doch stark hoffen! :D

die HD4850 erinnert mich vom Kühlerdesign an den Referenzkühler der 7800GTX...

Also mich erinnert die eher an eine HD3850! ;)

di hd 4870 hat zwei stromanschlüsse?
da wären dann aber die aussichten auf ne hd4870x2 nicht so gut

ich meine wie will man das kühlen

Nur keine Sorge, das Kühldesign der HD4870 X2 wirkt ziemlich durchdacht (meiner Meinung nach) und vielmehr Stromanschlüsse, als eine HD3870 X2 wird die vermutlich auch nicht brauchen.
(siehe: ComputerBase - Grafikkühler von vier Radeon-HD-4000-Karten)
Außerdem wird AMD/ATI bestimmt keine Graka verkaufen, die sich selbst oder andere Komponenten im Gehäuse durchheizt! Wir reden hier ja nicht von nVidia > GF9800 GX2!

MfG, boss3D
 

riedochs

Lötkolbengott/-göttin
Mal sehen ob es die Karten auch teilweise mit passiver Kühlung gibt. Dann würde ich mich ja mitunter zum ersten mal zu ATI hinreißen lassen.
 

CrSt3r

Freizeitschrauber(in)
Schade, ich dachte ich kann unkompliziert auf HD4870CF oder HD4850CF wechseln. Aber nein ... mein Netzteil bringts dazu einfach nicht. MIST ... :wall:
 

Arrow1982

Freizeitschrauber(in)
Mal sehen obs die 4850 auch mit einer Dualslot Kühlung gibt. Denn auch wenn sie nur 100 Watt braucht, das ist dann ne Menge Wärme die im Gehäuse statt ausserhalb landet und ich kann nen weiteren Gehäuselüfter einbauen, auch nicht gerade Sinn der Sache!
 

px2

Freizeitschrauber(in)
aber schau wenn die hd 4870 schon 2 6-pin anschlüsse hat dann sind das mal auf jeden fall mal mehr als 150W das ganze mal zwei sind wir schon bei über 300W da wär schon ne schöne wakü von nöten um das zu kühlen außer die karte wär so 30cm lang und ein paar kilo schwer, oder man nimmt ein triple slot kühlsystem
 

Invain

PC-Selbstbauer(in)
Schade, ich dachte ich kann unkompliziert auf HD4870CF oder HD4850CF wechseln. Aber nein ... mein Netzteil bringts dazu einfach nicht. MIST ... :wall:


Aber 4850CF sollte doch gehen, wenn du jetzt 2 3870 laufen hast? Auf dem Bild der 4850 habe ich nur einen 6 poligen Stromstecker gesehen Nur bei der 4870 sind es 2 (, verbessert mich, wenn ich falsch liege). Und ich gehe doch davon aus, dass vorerst eine 4870 reichen sollte um angenehm alles spielen zu können - abgesehen von Crysis very high O.o.
 

klefreak

BIOS-Overclocker(in)
wenn jemand ein PCIE 2.0 board hat, dann sollte der 2. stecker theoretisch überflüssig sein, da ja dann auch das Mainboard deutlich mehr Leistung bieten kann, da aber alle karten auch pcie 1.0 kompatibel sind muss halt der 2. Stecker drauf.
--> klar, man muss beide anstecken, aber für eine PCIE 2.0 - only Karte würde auch 1 Stecker genügen

lg Klemens
 

xTc

Volt-Modder(in)
Optisch macht die Karte durch die Kombination von rot/schwarz schon echt was her. Aber dabei ist die Optik eigentlich ja nebensache. Was mich mommentan etwas stört, ist das man pro Karte 2x 6-Pin Stecker braucht. Für ein CrossFire wären somit 4 Kabel mit 6-Pin Steckern notwendig...

Dabei habe ich mir letztens erst ein neues NT gekauft... Na mal sehen, eig. wollte ich ja ein CF aus zwei HD4870 Karten, aber wenn eine GTX280 genau so schnell ist, dann halt so....


Schauen wir mal was die letzten Tage vor der Präsentation noch so bringen.
 

hasek53

Kabelverknoter(in)
Also ich persönlich finde das rot/schwarze Design von ATI langweilig. Schön wäre, wenn das Design mehr in Richtung AMD (schwarz/grün/weiß) ginge
 

Invain

PC-Selbstbauer(in)
AMD/ATI grün? :hmm:
Klar ist AMD grün, aber im Grafikkartenbereich sind die Radeons imo schon immer rot und nur das. Grün ist hier klar für nVidia "reserviert". Diese würden wohl in ihrer momentanten Arroganz sogar mit irgendwelchen klagen kommen, würde ATI auf grün umpinseln.
 

hasek53

Kabelverknoter(in)
Nachdem AMD ja ATI gekauft hat, dürfen auch die Farben/Logos usw. von ATI verwendet werden.
Und wie gesagt, es ist nur meine Meinung, dass ich rot/schwarz langweilig finde ;)
 

push@max

Volt-Modder(in)
Für mich spielt das Design keine Rolle, hauptsache die Kühlung ist effektiv und arbeitet leise.

Bei mir verschwindet die Karte sowieso im Case wo ich sie dann nicht sehe, weil es unterm Schreibtisch steht.

Deshalb hab ich jetzt auch keinen beleuchteten CPU Kühler usw., ausser das Gehäuse leuchtet.
 

px2

Freizeitschrauber(in)
aber trotzdem wenn die hd4870 160W!!!!!!!! braucht wie soll man dann ne hd 4870 x2 kühlen das wären ja immerhin 320W kann mir nicht virstellen wie sie das kühlen wollen, die geforce 9800 gx2 braucht immerhin auch "nur" 250W und weniger und ist so schon ziehmlich schwer die zu kühlen.

Kann mir nicht vorstellen das man das ganze mit nem dual slot kühler wegkühlen kann außer die chips sind noch bei 200°C einsatzfähig, ich denke man braucht mindestens ne tiple slot kühlung für so ein monster.

Und das Netzteil was man für so was braucht, das wären immerhin 2 8-pol Anschlüsse.
 
TE
B

boss3D

Guest
aber trotzdem wenn die hd4870 160W!!!!!!!! braucht wie soll man dann ne hd 4870 x2 kühlen das wären ja immerhin 320W kann mir nicht virstellen wie sie das kühlen wollen, die geforce 9800 gx2 braucht immerhin auch "nur" 250W und weniger und ist so schon ziehmlich schwer die zu kühlen.

Wieso glaubst du eigentlich, dass 2 GPUs doppelten Stromverbrauch bedeuten? Ich meine, eine HD4870 X2 wird bei der zu erwartenden Rechenleistung kaum auszulasten sein. Und nur unter Volllast saugt die wirklich viel Strom.
Allerdings wird der Stromverbrauch nach meinen persönlichen Einschätzungen trotzdem unter dem einer GF9800 GX2 liegen, 45 nm Fertigungsprozess sei Dank!

Des weiteren kann man den "Toaster" wirklich nicht als optimale Kühlungsmethode für eine Dual-GPU-Graka bezeichnen. Da wirkt meiner Meinung nach schon ATIs-DualSlot-Kühllösung um Längen durchdachter.

Aber im Prinzip können wir eh nichts anderes machen, als abzuwarten und uns überraschen zu lassen. ;)

MfG, boss3D
 

$Lil Phil$

PCGHX-HWbot-Member (m/w)
Auch unter Volllast verbraucht die HD4870 x2 nicht doppelt so viel wie eine HD4870, da die x2 ja zB. auch nur ein PCB hat, und einfach nicht von jedem Bauteil die doppelte Anzahl hat.
 

Stefan Payne

Kokü-Junkie (m/w)
160W soll der neue Chip verbraten? ist mir was entgangen oder wo hast du die Info her?
Nein, nicht der neue Chip, die neuen Karten!

Der Chip selbst wird wohl kaum 100W überschreiten, der REst wird halt 'um den Chip herum' verbraten...
Auch unter Volllast verbraucht die HD4870 x2 nicht doppelt so viel wie eine HD4870, da die x2 ja zB. auch nur ein PCB hat, und einfach nicht von jedem Bauteil die doppelte Anzahl hat.
Ähm, doch...
Zumindest bei aktuellen x2 Karten ists so das jede Karte eigenen Speicher und eigene Spannungsregler hat, der Rest fällt ja kaum ins Gewicht.
 
Zuletzt bearbeitet:

$Lil Phil$

PCGHX-HWbot-Member (m/w)
Ähm, doch...
Zumindest bei aktuellen x2 Karten ists so das jede Karte eigenen Speicher und eigene Spannungsregler hat, der Rest fällt ja kaum ins Gewicht.

Hast ja eig Recht aber bei der HD3xxx Reihe machts immerhin 20W aus (110W <-> 200W)
(Klar, die Herstellerangaben sind nic.ht sehr genau, aber ein Richtwert)
 
TE
B

boss3D

Guest
Hast ja eig Recht aber bei der HD3xxx Reihe machts immerhin 20W aus (110W <-> 200W)
(Klar, die Herstellerangaben sind nic.ht sehr genau, aber ein Richtwert)

Ich gehe auf jeden Fall davon aus, dass der Stromverbrauch einer HD4870 X2 kaum über dem einer HD3870 X2 liegen wird.

Und wo ich mir absolut sicher bin, ist, dass der Stromverbrauch sämtlicher neuer Radeons unter dem der GTX 280 liegen wird (vielleicht sogar unter dem einer GTX 260)! ;)

http://i226.photobucket.com/albums/dd45/singaporedaily/nvidia-vs-ati.jpg

MfG, boss3D

file:///C:/Users/Hasler%20Simon/Pictures/Sonstiges/nVidia%20vs.%20ATI.jpg
 

px2

Freizeitschrauber(in)
das ist schon klar das der nvidia toaster nicht wirklich optimal ist, aber es wird trotzdem ziehmlich schwer sein so zirka 300W effekiv und leise zu kühlen (hoffentlich wirds keine zweite geforce fx 5800 ultra alias der föhn)

bin schon gespannt auf die lösung die amd dafür gefunden hat
 

$Lil Phil$

PCGHX-HWbot-Member (m/w)
Jo, hast Recht, Stefan.
Ist mir gar nicht so richtig aufgefallen :ugly:
Naja, dann hat man was dazugelernt :)
 
Oben Unten