PCGH.de: Erstes Bild einer Geforce GTX 295 aufgetaucht

Super wenn sowas funktioniert.

Bei mir war es so, dass ich meine PS3 MONATE über einen DVI Port benutzt habe (mit HDMI Adapter). Und dann eines Tages, ohne Vorwarnung, nachdem die Konsole 2 Wochen unbenutzt war, ohne irgendwelchen Konakt zum Stromnetz oder Internet, ging die Konsole mit keinem einzigen DVI Port an 3 verschiedenen Monitoren und Fernsehern mehr.

Von daher bin ich sehr abgeneigt was HDMI angeht.

Zu der Karte selbst: Was für ein Monster! :what: Erinnert stark an die 9800GX2 oder 7950GX2. Selbst mit 55nm Chips ist das Ding doch ein Stromfresser der Seinesgleichen sucht.

:daumen2:

Find ich persönlich nicht gut.
 
sli/crossfire seit nvidia hat immer gesuckt, suckt, und wird immer sucken!:daumen2:

die art der aufteilung der grakas beim rendern wird sich ja leider nicht mehr ändern,
daher: glückwunsch! :kotz:

wird halt weiterhin so ein technisches flickwerk weitergeführt.
die probleme bei der treiberunterstützung und vor allem das problem der ungleichmäßigen bildausgabe wird nicht verschwinden.
ich gebe doch nicht nen arsch voll geld für unausgereifte technik aus :lol:.

eigentlich kann man sich nur wünschen, dass auch der letzte irgendwann dahinter steigt, und ati und nvidia sich mal langsam etwas neues überlegen, um einem grafikkartenverbund zu einer mehrleistung zu verhelfen, die auch wirklich so funktioniert, wie man sich das vorstellt, nämlich 1+1=2, und nich 1+1=soeinsbiseinskommafünfwennwirmalglückhaben,siehtaberauswieweniger

wundert mich, dass sie sich überhaupt noch trauen, so etwas zu bauen...
 
boah, bekommt die 285 auch nen HDMI anschluss?
meine 280er hat immer noch lieferprobleme, da bin ich am überlegen ob ich ned gleich auf ne 285 warten soll :)

Blub
 
Also NV, her mit der Karte!
Aber nicht für mich :nene: ...
Aber für die Benches gegen die 4870X2 und natürlich auch gegen ein "normales" 2er SLI aus 2 Single Karten, denn die Konkurrenz aus dem eigenen Hause gehört genau so mit zu so 'nem Vergleich! ;)
*gespanntdraufbin*
greetz
 
Also im Vergleich zur 4870x2 hat die Karte ein entscheidendes Problem. Die Kühlung :wow:
Von der Leistung her schätze ich sie ein bisschen höher ein als die 4870x2 wegen 55nm
Aber bei MultiGPU-Systemen hängt es sowieso stark von den Treibern ab
also :kaffee:
 
Mikroruckler sind zwar n Fakt, aber ehrlichgesagt ich bekomme nichts davon mit. Denke nicht dass man was merkt wenn man mit normalen settings spielt. Bis auf Crysis kann ich alles mit mindestens 50 FPS spielen und dabei sind absolut keine Mikroruckler festzustellen. Die utopische Leistungsaufnahme von SLI und CF Sytemen lasse ich als Argument gelten, aber erzählt nichts von Mikrorucklern die über 40 FPS einfach nicht mehr wahrzunehmen sind.
 
Da bleibt ja, wenn man ein 32Bit OS nutzt kaum noch Arbeitsspeicher über, bzw ist mit der Karte ein 64Bit Pflicht.:D
 
tja und sofort sind die nvidia fanboys dabei :

wird SICHER schneller sein als hd4870x2.

mikrorukler sind gar nicht so schlimm... komisch bei der vorstellung der hd 4870x2 war der kommentarthread voll von nvidia fanboys die rumgeheult ham. und ich wette pcgh wird das thema im endgültigen test auch nur am rande erwähnen und lieber in einer bild mäßigen überschrift ankündigen das nvidia wieder die schnellste karte am markt hat.

nein im ernst die karte wird unglaublich viel leistung schlucken, heiß und damit auch laut sein ohne ende. wer die kauft muss ganz schön doof sein !
 
Das sieht ja seltsam aus auf dem Foto oben!? Haben die da einfach zwei PCBs zusammen geklebt also zwei komplette 260 die sieht ja schon ohne kühllösung fett aus :what:
 
In jedem Fall freue ich auf Neuerungen, Microdinx hin oder her. Mal sehen was dabei rauskommt.
Wäre in jedem Fall lesenswert Die Big 3, also sprich HD4870 X2, GTX260 SLI und und GTX280 SLI (siehe Sig. :devil: ) in einem ausführlichen Benchmark zu sehen. Und wenn dann noch die SingleGPU-Lösungen mit dabei sind, wäre es zu schön um wahr zu sein :).

P.S.: Um Euch mal an meinem humorvollen Freundeskreis teilhaben zu lassen... . Ein Freund von mir sagte letztens über mein System: "Wer lang hat, kann lang hängen lassen." :lol:

//so long
KeTTe
 
Das "Doppeldeckerdesign" hat bestimmt seinen Grund. Wo sollen denn bitte 2x896 MiByte VRAM untergebracht werden? Gut...... man könnte das PCB auch 60cm lang machen, aaaaaaber.. wer will schon das die GraKa vorne aus dem Gehäuse ragt? (ausser diejenigen, die ihren Kaffee warmhalten wollen).
 
28 VRAM´s auf einem PCB? Zzgl 2xGPU, diverse SpaWa´s, Kondensatoren, und sonstiges Kleinzeug? Wohlgemerkt auf nur einer PCB Seite. Das passt nie. ;)
Und was sagt und das?: Was nich passt, wird passend gemacht:lol:

Ich habe ja auch was von platine geschrieben. Aber das ist schon klar das das nicht passen kann ATI setzt ja auch auf GDDR5 und hat kleinere GPU´s. Und die verwenden Spannungswandler.
Keine Trafostationen:lol:
 
nein im ernst die karte wird unglaublich viel leistung schlucken, heiß und damit auch laut sein ohne ende. wer die kauft muss ganz schön doof sein !

Auf Ihre 2900XT trifft das aber auch zu.

Das muss ja wohl jeder selbst entscheiden, ob ihm das Geld das Wert ist.
Manche haben nie genug Leistung.
Wer träumt nicht von Crysis in vollen Details in 1920er Auflösung @ 60fps ^^
 
Zurück