GTX 780 Ti: Erste Benchmarks geleakt - Der Vergleich zur R9 290x

Der Test ist reiner nonsene und nicht weiter der rede wert.
Da muss ich dir recht geben!
Man sieht es aber auch an der "Folie" selbst und dessen Farben - die kommt von Nvidia und "natürlich" steht die 780Ti überall besser da, das war schon immer so.

Was am Ende dabei heraus kommt, werden wir im PCGH-Test sehen. :daumen:
 
naja das glaube ich erstmal nicht so ganz da die titan und die 780 weniger strom verbraucht als die 290x und da ist die 290 auf einmal stromsparender oO. irgendwie komisch.

wenn das stümmt mit den stromverbrauch wäre das sehr schlecht von nv ;) aber denke abwarten was kommt ;) normal sind die sehr auf stromverbrauch bedacht bzw leistung pro watt
 
Warum soll ich mich auf den Schwanz getreten fühlen? Wenn NVIDIA sowas nicht anbietet ist das doch nicht AMD's Problem.
Ubermode ist nun mal Teil der Karte, es gehört schlicht dazu also bencht man auch im Ubermode ansonsten dürften Boostkarten auch nicht gegen non Boost Karten gebencht werden, wenn du verstehst was ich meine.
Der Test ist reiner nonsene und nicht weiter der rede wert.

ja will auch wissen wie se im vergleich ist im übermode das schön wichtig .
das ist das was die karte werkseitig schafft also damit auch testen bin bald gespannt wie das rennen ausgeht ;) nv ist bestimmt 1-2% wieder schneller aber dafür 25 % teurer ;) kennen wir ja schon. aber dennoch kommt mir keine amd im rechner.
 
naja das glaube ich erstmal nicht so ganz da die titan und die 780 weniger strom verbraucht als die 290x und da ist die 290 auf einmal stromsparender oO. irgendwie komisch.

wenn das stümmt mit den stromverbrauch wäre das sehr schlecht von nv ;) aber denke abwarten was kommt ;) normal sind die sehr auf stromverbrauch bedacht bzw leistung pro watt

Genau, z.B. Thermi war sehr effizient und kuehl.
 
Ist ja so, sobald hier die ersten Tests der 780Ti ankommen oder es welche von PCGH gibt, die bestätigen das die 780ti stärker ist dabei aber auch so ich sag einfach mal 50Watt mehr verbraucht.
Dann ist das für einen bestimmten nicht kleinen Teil der Community hier sehr zu verschmerzen und auch wohl kaum eine Erwähnung wert. Aber wenn AMD dann kommt und verbraucht bei einer stärkeren Karte mehr, dann ist ja die Hölle auf Erden los :D (abgesehen vom Kühler und der Lautstärke, da eh Custommodelle kommen). Deshalb die "Grüne" Karte... ich bin selber Besitzer einer Geforce (wenn auch älteren) und habe auch nichts gegen Nvidia (nichts wirklungsvolles) außer gegen ihre Preispolitik. Von daher finde ich den ganzen AMD vs Nvidia Flamewar ziemlich sinnlos, jede Seite hat eben mal ne bessere Karte, war in der Vergangenheit so und wird in Zukunft so sein.

Ob AMD oder NV die schnellste Karte hat ist mir eigendlich egal.
Von AMD/Ati hatte eigendlich alle wichtigen seit der 8500LE und von NV seit der Riva128 ZX.
(Akt. habe ich ne GTX 680 und ne HD 7950)
Ich weiß also das 99,99% aller Threads die sich um "wer die besseren Treiber" hat absoluter Müll sind.
Mir ist die Lautstärke wichtiger (und damit indirekt auch der Stromverbrauch).
Ich bin ganz erhlich gesagt von der GTX 7XX Serie bis jezt nicht begeistert;
mir ist das Leistungplus einfach viel zu klein zur GTX 680.
Wie das mit den akt. AMD Karten ist muß ich mich noch etwas mehr erkundigen.
 
wenn das stümmt mit den stromverbrauch wäre das sehr schlecht von nv ;) aber denke abwarten was kommt ;) normal sind die sehr auf stromverbrauch bedacht bzw leistung pro watt

Mmh...bin immer fasziniert wie stark der Lorbeereffekt jüngster Ereignisse wirkt. Den "Thermi" haben offenbar schon wieder alle vergessen und man ist nun der Meinung, NV habe das Stromsparen erfunden. In Wirklichkeit ist es mal so, mal so. Selbes Thema bei der Lautstärke.
Gut, ist 3,5 Jahre her, halte ich aber dennoch für erwähnenswert. Damals hat man sich nicht über das eine oder ander Wättchen unterhalten wie heute, sondern über eine Differenz von etwa 150 Watt (!!!), bei gerad mal um und bei 15% mehr fps. Und eine Lautstärke von knapp 70 dB.
Der interessanteste Ausreißer von ATI war wohl die HD2900: keine Leistung, stromhungrig, heiß und laut. Das Biest hatte ich mal...ist übrigens noch länger her als Thermi...
 
Mmh...bin immer fasziniert wie stark der Lorbeereffekt jüngster Ereignisse wirkt. Den "Thermi" haben offenbar schon wieder alle vergessen und man ist nun der Meinung, NV habe das Stromsparen erfunden. In Wirklichkeit ist es mal so, mal so. Selbes Thema bei der Lautstärke.
Gut, ist 3,5 Jahre her, halte ich aber dennoch für erwähnenswert. Damals hat man sich nicht über das eine oder ander Wättchen unterhalten wie heute, sondern über eine Differenz von etwa 150 Watt (!!!), bei gerad mal um und bei 15% mehr fps. Und eine Lautstärke von knapp 70 dB.
Der interessanteste Ausreißer von ATI war wohl die HD2900: keine Leistung, stromhungrig, heiß und laut. Das Biest hatte ich mal...ist übrigens noch länger her als Thermi...

da gebe ich dir recht die 400er war einfach schlecht von stromverbrauch und wurde extrem warm aber jetzt ist jetzt und nicht 4 jahre her und ich vergleiche nur jetzt grafikkarten und nicht die aus der vergangenheit. dato ist amd im mom in sachen stromverbrauch schlechter als nv aber wer weiß viell werden sie ja wieder besser als nv. mal schauen was noch kommt.
 
Wenn der Leistungsverbrauch der 780 Ti nun wirklich so gestiegen ist, hat Nvidia letztendlich den Chip genauso hochgeprügelt wie AMD den 290x. Man erkauft sich dann eben die Leistung über Leistungsaufnahme und Temperatur. Allerdings war dies letztendlich auch abzusehen. Wenn sich weder die Chiparchitektur noch der Fertigungsprozeß ändern, geht es nur über den Weg. Daher wäre dies auch keine Karte für mich.
 
hat Nvidia letztendlich den Chip genauso hochgeprügelt wie AMD den 290x. Man erkauft sich dann eben die Leistung über Leistungsaufnahme und Temperatur. Allerdings war dies letztendlich auch abzusehen. Wenn sich weder die Chiparchitektur noch der Fertigungsprozeß ändern, geht es nur über den Weg

...ganz genau. Das zeigt, dass sich die Strategie seit Thermi und HD2900 nicht geändert hat und keineswegs herstellerabhängig ist. Aber egal...wenn ich "ultra high Performance" will, dann glüht halt die Stromleitung. So war es in Vergangenheit, so wirds auch in Zukunft sein. Besonders dann, wenn ein Hersteller versucht sich mit bestehender Architektur an die Spitze zu mogeln oder die Architektur bei Start sonst nur wenig konkurenzfähig wäre. Die Farbe ist dabei unwichtig....Rot oder Grün...spielt keine Rolle. Sollte der Verbrauch so angestiegen sein, dann ist das für mich nachvollziehbar und logisch.
 
Was doch viel interessanter ist, ist ob es in Zukunft Custom Designs von der 290x geben wird, die den uber modus lautstärkemäßig bändigen können. Bis dahin freu ich mich über den Konkurrenzkampf in dem leider für mich zu teuren Preissegment.
 
Ich habe aber auch nie behauptet, dass dies herstellerabhängig sei.

Ja, genau betrachtet stimmt das, da du dich ja auf die aktuellen Serien beziehst. Hat sich anfangs aber genau so gelesen. Und leider wäre das ja nicht ungewöhnlich. Denn jeder "Spezi" weiß ja ganz genau: AMD ist laut, stromhungrig, heiss, hat schlechte Treiber und ist unheimlich lahm im Vergleich. Hinzu kommt die schlechte Darstellungsqualität. Nvidia ist qualitativ hochwertiger, immer 100%ige Treiber, immer leise, sparsam und stets mit der schnellsten Karte am Start. Nicht zu vergessen das Physx, welches natürlich unerlässlich für ne Runde MS Hearts ist :ugly:. Das rechtfertigt natürlich auch immer den etwas höheren Preis.

Sorry, dass ich dich in diese "Spezialisten"-Schublade gesteckt habe...
 
Zuletzt bearbeitet:
Zitat:

"Vor einiger Zeit veröffentlichte AMD mit der R9 290x den ersehnten Titan-Killer"

vor EINIGER Zeit?????

Zitat:

"User sollten eventuell auf die andere Versionen der GTX 780 Ti warten, angeblich können diese sogar mit bis zu 12 GiB VRAM glänzen. Ein erstes Ausrufezeichen kann die GTX 780 Ti allerdings schon einmal setzen, insofern man den geleakten Benchmarks glauben kann."

so lange dann noch AMD Karten kaufen?


@Trautner


Selten so einen Schwachsinn gelesen!!!!!!
Könnt Ihr bitte aufhören derartige Unwahrheiten zu verbreiten??
:ugly: :ugly: :ugly:

Was ist das eigentlich für eine Ausdrucksweise?? "...der vergleichsweise NIEDRIGE Speicher...", "...trotz des NIEDRIGEN VRAMs..." habt Ihr sie noch alle? Diese Grafikkarte (sowie viele andere derzeit erhältlichen High End oder Oberklasse Modelle) hat satte 3072 MB VRAM!!

Es gibt kein einziges Spiel, das derzeit 3GB VRAM überfordert (1080p ohne hohes Supersampling und schlechte Mods) und kein Mensch hat heute und in absehbarer Zeit einen 4K-Monitor, also haltet mal den Ball flach und hört auf unerfahrene Leser zu verunsichern! Sich als Spieler heute schon für 4k zu rüsten, oder deren Benchmarks über Gebühr Aufmerksamkeit zu zollen ist genauso doof, denn diese extrem-Auflösung überfordert die Leistungsfähigkeit der aktuellen Grafikkarten-Generation i.d.R. sowieso. Das ist doch nur werbewirksames "rumgereite" auf dummen Medientrends!!

Klar kann man jede Hardware ausreizen, wenn man es durch besonders extreme (Treiber-)Einstellungen oder Erweiterungen darauf ankommen lässt, deshalb wird es Sondermodelle mit krankhafter Speicherausstattung geben, in 99.9 Prozent der Fälle ist das aber nicht gegeben und nicht nötig!!!

BF4 und andere Frostbite Engine 3 Titel sind die ersten überhaupt, die für extreme Grafikeinstellungen bereits 3GB VRAM >empfehlen< und ich möchte sehen, wie die auch nur annähernd voll werden! Bin mir sicher 2G funktionieren genauso gut ohne dessen spielinternes Supersampling. Derzeit nutzen gar viele "Konsolenportierungen" gerade etwas mehr als 1GB VRAM, somit ist selbst ersteres bis heute nur eine Ausnahme, obwohl die Nextgen der Konsolen der "PC-Rüstungsindustrie" (langfristig!) Beine machen wird...

Die abnehmende Leistung im Vergleich zur Konkurrenz von AMD mit steigender Auflösung ist zudem bekannt und hat nicht zwangsläufig etwas mit der Speicherausstattung zu tun. Ausnahmen wird es sicher mal geben -> wieder ein Fall für o. g. "Sondermodelle für Sonder(liche)Spieler".

Und dass man so hohe Auflösungen geradezu "benötigt", weil daraunter machen Grafikkarten der High End Klasse ja gar keinen Sinn ("...Unter einer 4K-Auflösung wird die GTX 780 Ti kaum ausgereizt...") ist genauso falsch! Soll ja Menschen geben, die gerne auch in aktuellen Top-Spielen mehr als 30 fps haben wollen, womöglich gar MINIMUM NICHT AVERAGE 60 fps, weils sonst einfach IMMER ruckelt (Stichwort G-Sync)??

Klar, es ist Sonntag, doch demnächst erstmal nen Kaffee trinken, dann Artikel schreiben!


Nachtrag: In den geleakten Benchmarks von Chiphell ist der Abstand der 780 Ti zur Titan immer der gleiche - es gibt keine auffälligen Einzel-Ausreißer, die einen besonderen Vorteil zugunsten der einen oder anderen Karte zeigen. Ergo bietet in KEINEM der gezeigten Benchmarks sogar die doppelte Speichermenge einen bedeutenden Mehrwert gegenüber NUR :ugly: 3GB VRAM - nicht einmal unter 4k / 4xMSAA!!! Insofern ist eine Diskussion in einem Atemzug mit den Leaks völlig absurd! Die Karten nähern in sich in 4k scheinbar einander an, aber die genauen Ursachen dafür wird erst die Zukunft zeigen, wenn es eine mutmaßliche Special Edition mit 3/6/12 GB an VRAM geben wird und viele weitere realitätsferne 4k-Tests und modernere Spiele. Vielleicht limitiert ganz einfach nur die Speicherbandbreite. Oh Wunder bei 4x Full HD (+MSAA).
P.S. Es ödet mich geradezu an, mir jetzt schon Gedanken über diese Dinge zu machen. Vielleicht mal in 2-3 Jahren ein Thema, FALLS sich 4k bedeutend verbreitet. Doch dann spricht längst niemand mehr über Kepler, "Titänchen" und Co........

kann dem nur beipflichten und bemerken, das mir die Wortwahl gefällt.

Das liest sich stark pro AMD und Ihr als Redaktion solltet neutral bleiben. Oder es im Forum bei kritik inserieren :)

BTW: Seit wann ratet Ihr vom Kauf ab??? Sonst wird eher zum Kauf verleitet ;)

MfG

MrIndividual83
 
Man sollte vielleicht differenzierter lesen. PCGH bezieht sich mit dem VRAM auf die Verwendung für 4K... "....verhindert aber eine bessere Platzierung in diesem Testbereich." Niemand hat geschrieben, dass 3 GB zu wenig sind für FHD. Zwar mag Antichrist grundsätzlich Recht haben (dieses Mal jedenfalls :ugly:)...unnötig ist sein Kommentar dennoch. Weder ich noch Antichrist werden es verhindern können, dass 4K Benches in Zukunft Testbestandteil sein werden.
 
Zuletzt bearbeitet:
Als ich die 670 gekauft habe, war sie erst seit drei bis vier Monate am Markt, dass sie Heute nicht mehr die zweit schnellste Nvidia single Karte ist, ist einfach weil die 700er da sind und mehr als ein Jahr vergangen ist. Und solche Auflösungen 25*14 oder 25*16 gibt es eigentlich seit mehrere Jahre, nicht seit Gestern... :schief:

Und das hat genau wie viel mit meinem geschriebenen zu tun? Richtig nichts...:schief:

Sollte ja sogar dir bewusst sein, dass dein gerade erworbenes Stück Hardware für immer das zweitschnellste Modell bleibt. Custom Modelle mit mehr Vram werden allerdings immer recht zügig nachgeschoben (gerade, wegen solchen Auflösungen + Anforderungen), von daher hättest du durchaus die Wahl gehabt eine mit mehr zu nehmen.
Aber nein man beklagt sich ja lieber später darüber...

Wie bereits im ersten Post erwähnt, ist für jeden Geschmack ein Angebot vorhanden, man muss es einfach nur auch entsprechend wahrnehmen und nutzen;)
 
Zurück