PCGH.de: Geforce GTX 295 zerlegt (Bildergalerie)

Also ich hol mir auf jeden Fall gleich zwei von den Teilen...meine 2 GTX 280 verkauf ich sofort und investier die Kohle gleich wieder...egal was die 295er kosten...
Wobei ich sagen muss, dass derzeit keine Spiele draußen sind, die solch eine Leistung überhaupt brauchen. Crysis ist schwachsinn, da dieses Spiel mit übertriebener Grafikleistung prahlt...

Ich benche für mein Leben gerne und freu mich, wenn ich dem Vantage einfach die kalte Schulter zeigen kann, indem ich SLI aktiviere... :D
 
Mhhhh .... zur Karte: Quadratisch (naja, rechteckig), praktisch, gut. :D

Sieht irgendwie ziemlich klobig aus ... bin mal gespannt, wann die ersten 3 Slot Kühler als Serienmodell kommen, wie es die Spezifikation ja erlaubt ...

Letzlich aber auch egal, hauptsache die Karte hält brav die Klappe, dann kan das teil aussehen wie es will, oder auch 3 Slots belegen ^^
 
Ich find es sowieso bescheuert dass es immer nur um noch höhere Framerates geht. Die meisten Leute werdn höchstens mit 1920 x 1200 Pixeln zocken und wenn dann auch nicht unbedingt alles AA/AF draufhauen was nur geht. Klar ist es toll wenn man in 2560 x 1600 Pixeln mit AA und AF zocken kann, aber mal ehrlich, wer hat schon das Geld dazu? Und was bringt es einem? Man bräuchte SLI oder Crossfire, nen 30 Zoll Monitor und ein schnellen Prozessor. Und ich denk mal höchstens 3% der Leute überhaupt wollen sich sowas leisten. Die GTX 295 wird verutlich mindestens das Kosten was man für ne HD 4870 X2 hinblättern muss. Ich finde man sollte mal versuchen von dem Framerate-Wahn runterzukommen. 40 oder 50 Fps sollten doch reichen. Und man sollte sich auch mal klar machen, dass man nicht unbedingt die höchste Auflösung braucht. Wer hat schon einen 30 Zöller? Wie gesagt nur wenige. Und wenn die Hersteller schon auf SLI/CF setzen, sollten sie endlich mal die Probleme mit den Microrucklern in den Griff kriegen. Außerdem wäre es gut, wenn sie ihre Grafikchips günstiger Produzieren würden. Nvidias Transistormonster, der GT200 ist eben extrem teuer, trotz der Leistung. Den Stromverbrauch zu senken wäre auch mal ne gute Idee. Kann doch nicht sein, dass es jetzt schon 1500 Watt Netzteile gibt, damit die Nerds ihre Monsterrechner versorgen können. Und zu Nvidias Lösung mit dem Dual-Chip-Design: Atis Lösung ist besser, da sie nur ein PCB brauchen, was die Umwelt schont und dazu noch günstiger für den Endkunden ist. Den R800 will Ati dann schon also Dual-Core Chip fertigen, mal sehen wie Nvidia dann Ihre X2 Karte macht. Außerdem ist es doch ein Nachteil, wenn beide Chips zwischen den PCBs sind, denn es ist schwieriger die Wärme abzuführen und frische Luft zu holen. Und was das Abkupfern angeht, sind sich Nvidia und Ati ja gleich, Ati hat sich bei SLI was abgeschaut und Nvidia beim Speicher. Aber am besten wäre es eben immer noch, wenn man eine Single-Chip Karte hat, oder eben so wie es Ati macht mit dem Dual-Chip, sprich ein nativen Dual-Core GPU.
 
Atis Lösung ist besser, da sie nur ein PCB brauchen, was die Umwelt schont und dazu noch günstiger für den Endkunden ist.
abwarten, bisher gibt es noch keine preise für die GTX295, es war mal von 370€ die rede, dann wäre sie deutlich günstiger als die X2 von ATI.

Außerdem ist es doch ein Nachteil, wenn beide Chips zwischen den PCBs sind, denn es ist schwieriger die Wärme abzuführen und frische Luft zu holen.
ist es nicht, da sich beide chips bei der GTX295 gleich stark erwärmen, während bei der X2 von ATI der hintere chip die schon vom vorderen chip angewärmte luft abbekommt. das ist kühlungstechnisch alles andere als gut, wenn man zur kühlung schon aufgeheizte luft nehmen muss.
 
ich finde interessant das nVidia 2 pcbs braucht um eine dualgpu karte her zu stellen. ati reicht eins. wisst ihr vll wieso???
ich würde auf das größere SI tippen, ich schätze es ist einfach günstiger 2 PCBs mit mittleren Mehraufwand zu bauen als ein riesen PCB und extrem vielen Schichten, dass dabei eventuell eine bessere Kühlung herauskommt halte ich nur für einen positiven Nebeneffekt, der preis ist wichtiger(zumindest für Nv)
 
Die GTX 295 wird verutlich mindestens das Kosten was man für ne HD 4870 X2 hinblättern muss.

ich hatte auch iwo gelesen das von 370€ (oder warens Dollar?) die Rede war... günstiger als die 4870x2

Ich finde man sollte mal versuchen von dem Framerate-Wahn runterzukommen. 40 oder 50 Fps sollten doch reichen. Und man sollte sich auch mal klar machen, dass man nicht unbedingt die höchste Auflösung braucht.
das ist deine Meinung, ich zb. will immer zumindest die native auflösung haben, wenn möglich mit AA/AF und das, ohne das die framrate einbricht.. wenn du das nicht brauchst bitte, ich will den spass:D

Außerdem wäre es gut, wenn sie ihre Grafikchips günstiger Produzieren würden. Nvidias Transistormonster, der GT200 ist eben extrem teuer, trotz der Leistung. Den Stromverbrauch zu senken wäre auch mal ne gute Idee. Kann doch nicht sein, dass es jetzt schon 1500 Watt Netzteile gibt, damit die Nerds ihre Monsterrechner versorgen können.
nicht mal ein Rechner mit 4 9800GX2 braucht ein 1500W Netzteil... :what:
von daher seh ich in der aussage keinen sinn....

Und zu Nvidias Lösung mit dem Dual-Chip-Design: Atis Lösung ist besser, da sie nur ein PCB brauchen, was die Umwelt schont und dazu noch günstiger für den Endkunden ist.
sorry, aber was ist das für ein Geblubber?
wie schon gesagt wurde ist ATIs Lösung mit sicherheit nicht besser, da sich eben die 2 chips unterschiedlich erwärmen, weil sie auf dem gleichen PCB sitzen und der 2te chip mit schon erwärmter luft gekühlt werden muss...
bei NV sollte das durch die 2PCBs nicht passieren.
Ausserdem von wegen Umwelt schonen... was hat die Grafikkarte mit der umwelt zu tun? erklär mir das mal bitte.... ? Und wenn, dann wäre ATIs Karte genauso schädlich :what:

Den R800 will Ati dann schon also Dual-Core Chip fertigen, mal sehen wie Nvidia dann Ihre X2 Karte macht. Außerdem ist es doch ein Nachteil, wenn beide Chips zwischen den PCBs sind, denn es ist schwieriger die Wärme abzuführen und frische Luft zu holen.
falsch, siehe weiter oben.
 
Katamaranoid; nicht mal ein Rechner mit 4 9800GX2 braucht ein 1500W Netzteil... :what: von daher seh ich in der aussage keinen sinn.... .[/quote schrieb:
Man braucht durchaus 1500 Watt Netzteile...
In manchen Serverschränken befinden sich 10 Festplatten oder mehr und dazu noch ein Skulltrail System...wenn man möchte, kann man auch 10 BlueRay Brenne einbauen.

Die 1500 Watt zu nutzen wäre kein Problem, also ist deine Aussage falsch !
Eine GX2 hat unter Last eine Stromaufnahme von ca. 370 Watt...
Also 4 GX2 bräuchten dicke ein 1500 Watt Netzteil, auch wenn das momentan technisch noch nicht möglich ist.
 
Man braucht durchaus 1500 Watt Netzteile...
In manchen Serverschränken befinden sich 10 Festplatten oder mehr und dazu noch ein Skulltrail System...wenn man möchte, kann man auch 10 BlueRay Brenne einbauen.

ich rede nicht von serverschränken, sondern von gamer systemen :D

Die 1500 Watt zu nutzen wäre kein Problem, also ist deine Aussage falsch !
Eine GX2 hat unter Last eine Stromaufnahme von ca. 370 Watt...
Also 4 GX2 bräuchten dicke ein 1500 Watt Netzteil, auch wenn das momentan technisch noch nicht möglich ist.
[/quote]

ich habe letztens eine news gelesen, da wurden 4 9800gx2 betrieben.
diese liefen mit einem 1100W netzteil.

von daher 400W zuviel.


edit: tut mir leid, ich hatte mich geirrt, sind 500 W

aber dennoch braucht man sohl keine 1500W um die 295 zu betreiben ;-P
 
Zurück