Geforce GTX 880: Umfangreicher Leak zeigt angebliche Spezifikation der Maxwell-GPU GM204

Kommt Zeit, kommt Rat, kommt Konrad - sry, ich meinte Maxwell :D
Realistisch ist es ja und würde auch passen. Nur der Preis stimmt nicht so ganz.
Bin gespannt was der Vollausbau von Maxwell leisten wird und auch was AMD dazu sagt ;)
 
Die habe ich schon, die GPU liegt bei mir in der Vitrine heißt halt GTX 8800 mit einer Null weniger.:lol:

Ne die GTX 8800 war eine geile Karte, aber das hier, wenn die Specs stimmen :daumen2:

Extra die GTX 8800 wegen Crysis gekauft einen 2D Modus hatte die aber nicht.:ugly:

Kluscheißer Modus on:
Die Karte hieß NICHT GTX 8800, sondern 8800 GTX! :ugly:

Aber lustig, fast jeder hier im Forum nennt das GTX bei den alten Karten immer zuerst.
Beispiel auch GTX 9800. :D
 
laut datenblatt wollen die umgerechnet 584 euro für die karte, keine ahnung wie hoch dort die mehrwertsteuer ist aber ich denke auf einem ähnlichen niveau.

also mittelklasse ist bei mir nen anderer bereich & 600 euro fürne graka eher "high end". hoffe nvidia fliegt ordentlich mit ihrer bescheidenen preispolitik auf die fresse:daumen2:...

Oh , Yeah
 

Anhänge

  • 6d05b4b480f99bab6f8796teddy_full.jpg
    6d05b4b480f99bab6f8796teddy_full.jpg
    85,3 KB · Aufrufe: 358
Kann es sein, dass es in der Tabelle einen Fehler gibt? Die Daten der Asus ROG 780Ti passen eher zur 780.
 
Kommt Zeit, kommt Rat, kommt Konrad - sry, ich meinte Maxwell :D
Realistisch ist es ja und würde auch passen. Nur der Preis stimmt nicht so ganz.
Bin gespannt was der Vollausbau von Maxwell leisten wird und auch was AMD dazu sagt ;)

Gibt es zur nächsten AMD GPU Generation eigentlich schon irgendwelche interessanten Gerüchte? Konnte auf die schnelle nichts interessantes finden.
 
Sie hüllen sich dezent in Schweigen ;)

Ist ja auch das sinnvollste. Man wirbt doch nicht für etwas, das mit Glück in 6 Monaten raus kommt. Wenn jetzt alle hören "Pirate Islands wird super", ja wer denkt denn ihr kauft dann noch Volcanic Islands? Rüschtüsch: Keiner
 
für mich spielt die GTX 880 keine rolle. ich werde auf den großen chip warten mit vollausbau. meine GTX 690 wird da noch locker reichen.
die GTX 880 wird bischen schneller als die GTX 780TI und bischen weniger verbrauchen. dafür 500 euro bis 600 euro-
leute die von einer GTX 480/GTX 580 umsteigen, vielleicht interressant, für mich aber nicht.
 
Gibt es zur nächsten AMD GPU Generation eigentlich schon irgendwelche interessanten Gerüchte? Konnte auf die schnelle nichts interessantes finden.

Sie hüllen sich dezent in Schweigen ;)

Ist ja auch das sinnvollste. Man wirbt doch nicht für etwas, das mit Glück in 6 Monaten raus kommt. Wenn jetzt alle hören "Pirate Islands wird super", ja wer denkt denn ihr kauft dann noch Volcanic Islands? Rüschtüsch: Keiner
Zu Hawaii gab es auch lange Zeit nichts außer dem Codenamen.
 
also mittelklasse ist bei mir nen anderer bereich & 600 euro fürne graka eher "high end". hoffe nvidia fliegt ordentlich mit ihrer bescheidenen preispolitik auf die fresse:daumen2:...

Das werden sie nicht. Das hat bei der 680 funktioniert und das wird es bei der 880 nochmal und auch jedes weitere Mal. Die Zahl der Menschen die darauf "hereinfallen" ist einfach viel zu hoch als dass NV da auf die Nase fallen könnte. :schief:
 
Man da müssen wir ja gleich kleinere Netzteile kaufen wenn die Dinger immer Sparsamer werden. ;)

Das Jahr 2020: Meine PC mit GTX 1180 Ultra X4. I7-8888K @ 8GHz (Werk) 32GB DDR4 Netzteil: 2xAAA Batterie :ugly:
 
Zuletzt bearbeitet:
"Hereinfallen" ist ja auch nicht wirklich das richtige Wort - klar, von einer GK110- oder Hawaii-basierten Karte umzusteigen wird ziemlicher Unsinn sein, auch, weil es ein partielles Downgrade wäre, was die Speicherbandbreite angeht. Wenn die Mehrleistung aber gegenüber der alten Karte stimmt, muss man sich überlegen - kauft man die vermutlich trotzdem noch teuren Vorgänger oder setzt man auf die modernere Architektur inklusive besserer Effizienz? Wird auch vom Einzelfall abhängen.

Abgesehen davon wäre es natürlich ärgerlich, eine High-End-Karte mit 256 Bit-Interface zu erstehen, wenn man auch in High-End-Einstellungen spielen möchte. Schon die GTX 680 hing teils arg im Bandbreiten-Limit, weshalb Nvidia die ansonsten identische GTX 770 ja gleich mit deutlich schnellerem Speicher ausgestattet hat.
 
Abgesehen davon wäre es natürlich ärgerlich, eine High-End-Karte mit 256 Bit-Interface zu erstehen, wenn man auch in High-End-Einstellungen spielen möchte. Schon die GTX 680 hing teils arg im Bandbreiten-Limit, weshalb Nvidia die ansonsten identische GTX 770 ja gleich mit deutlich schnellerem Speicher ausgestattet hat.

Stimmt. Von der anderen Seite aus gesehen muss es ja auch einen Grund und eine einfache Performancesteigerungsmöglichkeit für eine GTX970 geben wenn die Zeit gekommen ist. :ugly:
 
Naja... so hab ich mir das fast schon gedacht... Da werd ich meine Ti noch schön bis ins Jahr 2016 tragen... :D
 
Werden wir sehen ... noch sind's ja nur Gerüchte ;) Und keine, die sich nicht jeder selbst zusammenbasteln könnte ^^
 
Stimmt. Von der anderen Seite aus gesehen muss es ja auch einen Grund und eine einfache Performancesteigerungsmöglichkeit für eine GTX970 geben wenn die Zeit gekommen ist. :ugly:

Als ob das bei AMD anders gehandhabt wird die schmeißen natürlich gleich alles in die Waagschale frei nach dem Motto nix zu verlieren ;)

Nur das pöse Nvidia hält die dicken Chips zurück und erwirtschaftet damit auch noch skandalösen Gewinn:devil:


Ist also am Robin Hood AMD hier was anzubieten, und mit Performance aufzutrumpfen, die den grünen Sheriff von Nottingham dazu zwingt, die dicken Kanonen auszupacken um auf die Spatzen zu schießen
 
Zuletzt bearbeitet:
Hab ich jemals behauptet dass AMD das anders macht? Jeder versucht natürlich den maximalen Gewinn zu erwirtschaften, das kann man so auch keinem der Beiden zum Vorwurf machen.

Wobei man fairerweise sagen muss das es die letzten Generationen weit weniger penetrant war bei AMD (die haben bei der HD7970 nichts zurückgehalten und mussten für die R290 nen neuen Chip auflegen).

Das "Nix zu verlieren" ist aktuell übrigens die 295X2... :haha:
 
Zurück