HD 4870 X2 bis zu 80% schneller als GTX 280

MrKnaller

Komplett-PC-Käufer(in)
Laut Hardspell.com, soll ATIs HD 4870 X2 (2GB) im Schnitt 50% schneller sein als Nvidias GTX 280. Teilweise soll der Abstand sogar 80% betragen.
Ebenfalls, soll die "Kleine" X2, die HD 4850 X2 (2GB), auch schneller sein als das Flackschiff der Grünen.

Nimmt man die Geforce 9800 GTX und 9800 GTX+ als Referenz, so wäre selbst die demnächst zu erwartende 55nm Variante der GTX 280 (GTX 280+ ?), ATIs Topmodel wohl unterlegen.:wow:

Quelle:
HARDSPELL.COM-The performance of R700 will 80% better than GTX280
 
Falls das Stimmt, kann sich Nvidia wohl warm anziehen;)
-->> ich bin mal gespannt was es da noch gibt in Zukunft:D

Vor 6Monaten sah die Ausgangsposition ganz anders aus;)
Nv hatte die Leistungskrone und ATI hinkte ein bisschen hinterher:wow:
 
Kein Wunder bei 2 GB Ram !

Wenn die dann die Pornoauflösungen reinkloppen is das ja kein Wunder mehr mit den 80% Mehrleistung, die dann im Endeffekt eh in 3-4FPS enden werden.

Ich würd da nich all zu viel drauf geben. Schließlich wird Nvidia auch noch nen Dual-GPU Modell bringen, oder seh ich das falsch ?

Spätestens mit den 55nm-Modellen sollte sowas Verlustleistungsmäßig realisierbar sein.

Aber ma davon ab: ATI macht nen guten Job zur Zeit. Bin heilfroh das die sich wieder etwas berappelt haben. Und das als 88gt besitzer ;-)
 
Diese Quelle muß ja ganz hervorragende Kristallkugeln haben!
Ich frage mich immer, woher die solche Infos beziehen?
Solange die Teile noch nicht am Markt erhältlich sind, sowie verlässliche Vergleiche und vor allen Dingen nachvollziehbare Angaben zum Testaufbau und Konfiguration vorliegen, tendiert die Glaubwürdigkeit solcher "News" gegen Null.
 
Hmm, muss die leider widersprechen!
Schau dir mal die CB-Tests an, vorallem bei CoD4 ist eine 4870 schon meistens schneller als die GTX 280, da wundert es keinen wenn jemand sagt das eine X2 80% schneller als eine 280er sein soll ;)

Wir dürfen aber gespannt sein, in wie vielen Games/Anwendungen diese 80% zutreffen :crazy:
 
Ich prophezeie, dass es die Games sein werden, die schon jetzt gut mit CF skalieren ;)
 
Wie sieht es mit der Verlusstleistung einer 4870 X2 gegenüber der GTX280 aus? Hat da schon jemand was gehört? Wäreentwicklung? Lautstärke?
Und der Preis? GDDR5 ist ja nicht ja ein Schäppchen.

Da ich in den letzten Jahren nur Nvidia benutzt habe, bin ich da etwas unterbelichtet
 
Die Frage ist doch wie teuer der ganze spaß sein wird.
Wenn so eine Karte gute 500€ oder mehr kostet wär sie keine
Alternative für mich. Außerdem ist noch nicht gesagt wie gut die
Treiber sein werden und Multi-GPU kann ich nicht leiden^^
Ich werde höchstens bei der Einkernlösung der HD 4870
überlegen.
 
so wenn sich das mit der steigerung der lestungsaufnahme genau so verhält wie von 3870 zu 3870 X2 solte das testsysthem von CB mit der 4870 X2 c.a. 490W unter Lasst und im idle 254W verbrauchen.
 
Weiß gar nicht was die Aufregung soll. Ist ja immerhin ne Dual GPU Karte im Vergleich zur GTX280. In Spielen wird sie sicher nicht 50-80 Prozent schneller sein... Außerdem sieht das mit Sicherheit wieder anders aus, wenn NVIDIA einfach mal ne Dual GPU aus zwei gtx280 heraubringt.
 
Weiß gar nicht was die Aufregung soll. Ist ja immerhin ne Dual GPU Karte im Vergleich zur GTX280. In Spielen wird sie sicher nicht 50-80 Prozent schneller sein... Außerdem sieht das mit Sicherheit wieder anders aus, wenn NVIDIA einfach mal ne Dual GPU aus zwei gtx280 heraubringt.

einfach mal so oder?^^
so einfach is es aber nich.
NV muss nämlich erst mal shrinken sonst brauchen sie 3 stromstecker an ihrer Karte.
Auserdem, würde diese dann noch mal teurer werden 600-700€
Und wenn NV noch keine derartige karte geplant hat müssen sie das auch erst mal machen und das dauert ne Zeit
 
ich würd mal sagen dass man nen ziehmlich fetten prozzi braucht um die karte wirklich auszulasten, ist ja bei der 3870 x2 nicht das einfachste unterfangen.
Außer man nimmt ne unmenschliche auflösung.

Ich bin durchaus davon überzeugt das die HD 4870x2 nahezu alle spiele die zurzeit am markt sind in 2560x1600 flüssig darstellen kann
 
Sagen eigentlich irgendwelche Gerüchte schon was zu den Mikrorucklern?
Anfangs habe ich mal gelesen das AMD es angeblich hinbekommenhat, irgendwie wollten die es über den vRam machen.

Wie auch immer, solche Monster kann ich mir eh nicht leisten, alles was mehr Strom verbraucht als meine 8800gt muss vorerst draußen bleiben.
Hoffentlich führt der neu entstandene Konkurenzkampf irgendwann mal dazu, dass beide nich mehr versuchen die schnellste, sondern die effizienteste Karte zu entwickeln.

Übrigens: Wir deutschen sind meiner Meinung Stromsparer nummer eins, wenn ich mich hier in Spanien umsehe was die an Energie verbraten fallen mir die Augen aus dem Kopf.

PS: Diesel 1.25€ :ugly:
 
Is zwar Offtopic aber ich sags trotzdem, eine Studie hatt sogar ergeben das wir die Sparsamsten im Schnitt sind (99% der Deutschen sparen Strom).
 
Du hast ja keine Ahnung ich war vor 2 monaten in den USA:wow::wow::wow::wall:

Word!
Gerade aus dem Urlaub zurückgekommen, so bitter. Literpreis 0,99-1,07$ (Umrechnungskurs dürfte bekannt sein) und ganz Amerika beschwert sich über die hohen Spritpreise ...

btt: So Karten sind ja hauptsächlich dafür gedacht unmenschliche Auflösungen darzustellen. Warum sich manch einer mit einem 20" oder 22" TFT eine GX2 oder X2 zulegt, nur um die Schnellste/das Beste zu haben, ist mir schleierhaft.
 
Jo ich hab nen 22" und ne 8800GT da läuft alles erste Sahne auf high, naja ausser halt Crysis. :D

Ich holl mir nur ne 4870 wenn der Geldbeutel stimmt. ;)
 
Zurück