GTX 780 Ti: Erste Benchmarks geleakt - Der Vergleich zur R9 290x

-Für Spielen mit 60fps reichen 2gb Ram
-Spiele welche von mehr als 2gb Ram profitieren, liegen bei diesen Einstellungen, deutlich unter 60fps
-Braucht das Spiel in 4k mehr als 2gb Ram, bringt keine aktuelle GPU eine Leistung 60fps

Hier mal ein Link Video Card Performance: 2GB vs 4GB Memory - Puget Custom Computers
Ist zwar für die GTX680, sogar wenn die 780ti um einiges Stärger ist, und sich sogar z.b. 11fps in 22fps umwandeln würden, ändert es noch immer nichts an der Tatsache dass es unspielbar ist

Somit wird die GTX780ti mit ihren 3gb Ram, gut genug bestückt sein.
DU redest hier von SGPU Lösungen, bedenke aber das hier MGPU Systeme keine echte Minderheit sind.
Wenn ich 2 Karten habe, dann sind die Min FPS die aufgrund des RAM mangels droppen schlimm, ob die min FPS auf 5 oder auf 15 FPS droppe, das macht einen unterschied, einen gewaltigen sogar.

Solche Pauschalaussagen wie: Für Spielen mit 60fps reichen 2gb Ram, helfen niemandem, vor 15 Jahren hat man vermutlich noch nicht mal daran gedacht mehrere GB RAM auf eine Graka zu packen, heute ist es Standard.

PS: schau dich mal um, wie viele Leute haben Hier in Ihren Sig's mindestens ein DualGPU Sys angegeben?
 
Wenn die Karte wirklich schneller als die Titan ist, dann wird die Karte wohl kaum für 600€ zu haben sein. Das wäre dann aufs übelste Kundenverarsche! Die Karte wird denk ich mal um die 1000€ Kosten! Und für das Geld bekommt man 2 290X und liegt damit um Welten bei höherer Leistung.

wird aber trotzdem wie blöd gekauft nur weil nvidia draufsteht :D


und wenn sie billiger ist als die titan ist das ja in ordnung, denn die titan kam ja schon fast vor nem jahr raus.
dann kann ich ja auch sagen die preise der grafikkarten dürfen nicht fallen sonst sind die leute die sie früher gekauft haben benachteiligt :schief: :DDD
 
@multithread

Siehe meine sig. Auch ich nutze sli und downsampling...

Ich streite nicht ab, dass mehr Ram nützlich sein kann, nur eben dass es keinen Sinn mit der Core-Leistung der aktuellen GPUs macht.
 
vor 15 Jahren hat man vermutlich noch nicht mal daran gedacht mehrere GB RAM auf eine Graka zu packen, heute ist es Standard.

Vor 15 Jahren hat man noch nicht mal dran gedacht mehrere GB RAM auf nen MOTHERBOARD zu packen. :D
'98 hab ich meinen P133 von 16 auf 32 MEGAbyte RAM aufgerüstet, dass auch die damals erschienenen Win 98 und Half Life sauber liefen. Ach, waren das noch Zeiten.
 
Denke die Karte wird 699,- USD/EUR kosten... ich bin gespannt, was dann mit der Titan passiert. Die 780 bekommt man für gute 500,- Euro, die Ti dann vielleicht für 700,- Euro... Da bleibt für die Titan ja nur noch ne Preissenkung auf 600,- Euro. Alles andere täte keinen Sinn machen...

Und weils kurz erwähnt war, ich hab heute Battlefield 4 auf der Xbox One gezockt... himmel hilf, is das ein geflimmer und gekrissel in den Bäumen... ich hätt mir da echt n bisschen mehr erhofft...
 
Denke die Karte wird 699,- USD/EUR kosten... ich bin gespannt, was dann mit der Titan passiert. Die 780 bekommt man für gute 500,- Euro, die Ti dann vielleicht für 700,- Euro... Da bleibt für die Titan ja nur noch ne Preissenkung auf 600,- Euro. Alles andere täte keinen Sinn machen...

Die Titan wird wahrscheinlich EOL gesetzt, und der Restbestand wird zu Sammlerpreisen weggehen...

Kauf dir ne schnellere Graka. Für deine Auflösung ist die GTX670 oft einfach an sich zu lahm. 2 oder 4GB V-RAM spielen da keine Rolle...;)

Gruß

Da haste recht, aber ich wollte damals kein Multi GPU mit dem 670 machen, und momentan ist die Nerdkasse halb leer, und weil ich Ü30 mit Familie+Kinder bin, habe ich gerade andere Prioritäten, also für mich steht die neue Aufrüstungsaktion erst im Herbst 2014. Dann wird es eine 880 oder 390X (?) im Custom Design sein. :D
 
Ich kann dir sagen 2GB reichen nicht! Ich habe eine 670 OC 2GB @ 2560*1440 und Max Payne 3 auf maximale Details zwingt sie in die Knie, es wird unspielbar. Und mit Teselation wird es noch schlimmer. Also, ob 3GB viel sind ist eigentlich relativ. Bei höhe Auflösungen + maximale Details wird sofort eng. :schief:

Da bist du doch selbst Schuld!
Wenn du in der Auflösung mit den Einstellungen etc spielst, musst du halt deinen Bedürfnissen nach eine entsprechende Karte kaufen, so einfach ist das ;)

Für die meisten Leute reichen die 3 GB mehr als aus und für so Leute wie dich bringen die Hersteller nicht umsonst 6 GB karten raus...

Von daher ist eig. für jeden was entsprechendes mit dabei:schief:

mfg

Bärenmarke
 
ich mach es mir mal einfach und zitiere weil ich es selbst nicht besser begründen würde... :ugly:


Zitat Computerbase econaut:
Viele Leute sagen, für Full HD und single GPU und single Monitor-Betrieb wären 4GB VRAM Geldverschwendung. Die Begründung lautet häufig: Die GPU ist schneller am Limit als das der zusätzliche RAM genutzt werden kann. Außer bei MODs á la Skyrim.

Dazu eine Verständnisfrage:

Wenn nun in der (nahen) Zukunft Spiele erscheinen, die bessere Texturen auch in der Vanilla-Version haben, ist nicht auch dann mehr VRAM sinnvoll bzw. notwendig? Trotz "nur" Full HD Auflösung?
Zitat Computerbase Mumbira:
Ja ist es. Die Aussage, dass man eher am GPU Limit ist als am Vram Limit ist soviel wert wie die Aussage, dass ich ein lila Panda bin.
Vram und GPU Leistung sind 2 voneinander KOMPLETT unabhängige Sachen.
Und der einzige Grund warum Spiele heute kaum 2Gb überschreiten ist der, dass die Entwickler zu faul sind.
Keiner sagt, dass nicht morgen ein Spiel kommt wo man 4k Texturen hat. Schon wären 2GB Vram überlastet.
 
Da bist du doch selbst Schuld!
Wenn du in der Auflösung mit den Einstellungen etc spielst, musst du halt deinen Bedürfnissen nach eine entsprechende Karte kaufen, so einfach ist das ;)

Als ich die 670 gekauft habe, war sie erst seit drei bis vier Monate am Markt, dass sie Heute nicht mehr die zweit schnellste Nvidia single Karte ist, ist einfach weil die 700er da sind und mehr als ein Jahr vergangen ist. Und solche Auflösungen 25*14 oder 25*16 gibt es eigentlich seit mehrere Jahre, nicht seit Gestern... :schief:
 
Was ist an dieser Seite offiziell, ausser das sie Froschgrün ist, seit wann ist eine Polnische Webseite bekannt für offizelle Nvidia Infomationen ?

Ob es nun ein Pole,Spanier, Deutsch etc ist der die Webseite betreibt ist irrelevant (ja er kommt aus Polen).
Ausschlaggebend ist, dass er von seinen asiatischen Kollegen offizielle Nvidia Dokumente erhalten hat und sein Wissen mit uns allen teilt.
Dem kann man glauben oder auch nicht glauben, die Seite ist ja auch bekannt für reichlich spekulatives, nur wenn er sagt, es handelt sich um offizielle Dokumente, dann glaube ich dem schon.
Wäre ja sonst total rufschädigend für ihn und seine Seite.

Die Seite bietet auch sehr oft hier bei uns im Forum die Grundlage für leaks etc.
Wie dem auch sei, dies bezieht sich nur auf das Datenblatt und die Messergebnisse, er selbst sagt auch, dass es offizielle Werte von Nvidia sind und man sollte die nicht für 100% für voll nehmen, da dort logischerweise "verschönert" wird.

Ihm wurde gesagt, dass es in der Realität nicht so übertrieben ist wie von Nvidia (Nvidia behauptet 30% sind sei die 780 Ti schneller) gezeigt sondern, eher so, dass die 780 Ti 20% schneller im quietmode und ca 13% schneller gegenüber dem ubermode der 290X ist und sobald noch die 4K Benschmarks dazu kommen, dieser Vorsprung noch ein wenig weiter sinkt.
Sehe persönlich keinen Grund dies nun anzuzweifeln.

Mein Fazit aktuell, dass die 780 Ti schneller wird, aber sind ca 10-15% mehr speed auch 150-200€ mehr wert?
Die 780 Ti soll sich ja auch gut übertakten lassen, langer Rede kurzer Sinn, für mich persönlich ist es den Aufpreis nicht wert, wenn denn nun endlich mal Customdesigns der AMD Karten raus kommen.
Angeblich erst gegen Ende November, jedoch nach Aussage von Mindfactory kann man erst gegen Ende Dezember mit Karten rechnen, die auch wirklich lieferbar sind bzw auf Lager.
Denke also eher die strengen sich an, dass es bis Weihnachten klappt, zwecks Weihnachtsgeschäft.
 
Zuletzt bearbeitet:
780 Ti vs. 290X im Quiet Mode, sorry aber den Test kann man nicht ernst nehmen, etweder richtig (Ubermode) oder garnicht.
Und nein, der Ubermode ist kein OC sondern ein Feature von AMD für die, die es immernoch nicht gerafft haben.
 
Warum soll ich mich auf den Schwanz getreten fühlen? Wenn NVIDIA sowas nicht anbietet ist das doch nicht AMD's Problem.
Ubermode ist nun mal Teil der Karte, es gehört schlicht dazu also bencht man auch im Ubermode ansonsten dürften Boostkarten auch nicht gegen non Boost Karten gebencht werden, wenn du verstehst was ich meine.
Der Test ist reiner nonsene und nicht weiter der rede wert.
 
Ubermode ist nun mal Teil der Karte, es gehört schlicht dazu also bencht man auch im Ubermode ansonsten dürften Boostkarten auch nicht gegen non Boost Karten gebencht werden, wenn du verstehst was ich meine.

Sehe ich genau so. Wenn diese Option seitens AMD besteht, dann soll sie in Tests auch mit gebencht werden.
 
Zurück