Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Hätte ich auch so nicht vorgehabt ;). Bin im April erst von AMD zu nVidia gewechselt und zufriedener denn je mit der GTX 680.

Schön für dich, fakt ist aber das HD7970 deutlich mehr power unter der haube hat. Nein, nicht nur auf dem Papier

Gtx680 geht viel zu schnell die Puste aus, kenne beide karten mittlerweile sehr gut.


Gtx680 kann nichteinmal im Geländewagen Simulator die 60FPS halten (UT3 engine)
Preis/leistungsverhältnis ist einfach nur grottig.
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

@ abollo

Weißt du was ein kleines Problem ist? Je nach Testsystem und den Settings kommen ganz andere Zahlen heraus.
Bei CB ist die 7970 GHZ Edition auf 680 Level.
Test: AMD Radeon HD 7970 GHz Edition (Seite 4) - ComputerBase

Bei Hardware4U ist sie 15% schneller.
AMD Radeon HD 7970 GHz-Edition - Tahiti XT 2 stellt sich vor - 3D-Performance 1920 x 1080 mit Antialiasing (Seite 40) - HT4U.net

Bei PCGH scheint sie im Mittel nicht deutlich schneller zu sein.
Test Radeon HD 7970 GHz Edition: Mit Turbo an der Geforce GTX 680 vorbei? - Radeon HD 7970 GHz Edition: Specs ,Spiele-Benchmarks, Overclocking und Fazit

Wem sollen wir nun glauben?
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

??

8800gt 112 Shader vs Radeon 4830 mit 640 Shadern. Etwa 1 zu 5.

Wo hat den die ATi mehr Shader?

8800 GT hat 112 (1D) Shader und die ATI hat 128 (5D) Shader (640 Streamprozzesoren).

Die Nvidia variante ist effizienter zu programmieren. Bei der Ati Karten musste der Treiber immer die last auf die (5D) Einheiten.

Und jetzt hat ATi auch 1D Shader. (680 gtx 1536 Shader) vs (ATi 7970 2048 Shader) natürlich hängt es noch vom frondend ab usw wie die Leistung am Ende auf den Bildschirm gebrahct wird.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Wo hat den die ATi mehr Shader?

8800 GT hat 112 (1D) Shader und die ATI hat 128 (5D) Shader (640 Streamprozzesoren).
Also für mich sind 128 (5D) Shader mehr als 112 (1D) Shader :P

Es ist wirklich kein Wunder das Nvidia mit so wenigen Shadern ungefähr die gleiche Performance hatte
1) Sind Nvidias Shader damals mit 1.512 Mhz angetreten
2) AMDs Shader nur mit 575 Mhz

Nvidia hatte also schon 263% höher getaktete Shader und wenn man die Shader ganz grob gleichsetzen würde, wären 112 Shader somit 295 Shader. Zusätzlich hat VLIW5 durchschnittlich wohl eine Effizienz von 70% erreicht, was 30% weniger "Streamprozessoren" in der Realität ausmacht --> 448 Streamprozessoren.


Der Vergleich ist natürlich total Schnaps, aber es zeigt das damals die ganzen Leute sich den Vergleich einfach zu einfach gemacht haben ;)
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Gtx680 geht viel zu schnell die Puste aus, kenne beide karten mittlerweile sehr gut.


Gtx680 kann nichteinmal im Geländewagen Simulator die 60FPS halten (UT3 engine)
Preis/leistungsverhältnis ist einfach nur grottig.
Ah ja, das liegt natürlich an der GTX 680, dass im Geländewagen Simulator (lol?) keine 60 FPS gehalten werden können. Wie wär's mit schlampig programmiert? Andere UE3 Titel laufen hervorragend auf Kepler. Und außerdem: der eigentliche Konkurrent war die normale 7970. Wenn nVidia ebenfalls eine übertaktete Version releasen würde, würde wieder Gleichstand herrschen. Ich kann lediglich in einem Punkt zustimmen: Kepler ist immer noch zu teuer.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Hab ich mir, aber waren mir beide zu langsam. Ich will schon 100 % mehr Leistung in vielen Spielen. Und noch lebt meine 5870 ja :ugly:

Ich lebe auch noch mit einer GTX 260-216 :D und dank der neuen PCGH weiß ich, dass ich aufgrund des langen wartens jetzt sogar mit knapp 300% belohnt werde in BF3 in Ultra Settings bei Full HD.
Dabei bin ich ja schon immer am gucken, nach einer neuen Karte.

Weil mir nächstes Jahr nach rund 4 1/2 Jahren endlich nen neuer Rechner ins Haus kommt ^___^ Haswell und wahrscheinlich (muss sich zeigen) der Kepler Refresh :)
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Oder, wenn man in 3D zocken will oder nur Spiele spielt, die den Nvidia besser liegen ;)

Prinzipiell ja, aber man muss sich gewahr sein, dass sich das bei jedem Spiel mit einem neueren Treiber etwas verändern kann und wie sich die Spiele in einem Jahr verhalten, weis auch noch niemand. Das Potenzial ist für mich u.U. auch ein Kaufgrund... ;)

Oder wenn man AA-Bits nutzen will oder SSAO oder wenn man unkomplizierter DS einsetzen will oder wenn man einen gescheiten Bi-AF-Filter haben will oder wenn man eine leicht bessere MSAA-Kantenglättung haben will oder usw.

Ich finde eine Kaufberatung für einen Enthusiasten ist richtig schwer geworden. Für den normalen Consumer kann man wohl ohne länger darüber nach zu denken einfach die Karte einbauen die ein besseres Perf/Preis-Ratio hat, aber für preislich höhere Produkte wird es schwer.
Bei AMD gibt es halt das Bandbreiten und Compute-Potential, wodurch der Performance-Abstand in der Zukunft sich vergrößern könnte, allerdings könnte Tessellation auch einige Sachen für Nvidia abfedern.
Nvidia führt rein von den Features weiterhin und da wird es schwer, denn selbst wenn AMD mehr Performance für einen gewissen Preis anbietet, so hat Nvidia immer noch ihre typischen Vorteile bisher.

Ich selbst bezeichne mich auch irgendwo als Enthusiast und habe zurzeit sogar eine Geforce, aber selbst ich nutze keine AA-Bits. Mir reicht das FXAA oder ganz normales MSAA völlig aus. Du hast zwar recht, redest hier aber von vielleicht nicht einmal 0,5 % aller User.
Cuda kann man im Alltag schon recht gut durch DirectCompute oder OpenCL ersetzen, obwohl hier zugegeben das Angebot von Nvidia sehr gut aufgestellt ist.
Anhand von PhysX sieht man immer wieder, dass mittlere Einstellungen auf modernen CPUs fast immer sauber laufen und höhere Stufen meist nur noch mehr Partikel mit sich bringen. Leider werden die Möglichkeiten nie ausgeschöpft für z.B. direkte, physikalische Interaktion mit dem Level. Bestes Beispiel ist da Borderlands 2. Stein-Partikel von einer Wand sind durch Schrotflintenbeschuss auf ein laufendes Förderband gefallen und wurden von diesem natürlich nicht bewegt. Es sieht zwar alles sehr nett aus, aber manche nennen sowas Augenwischerei... ;)
Bei der jetzigen Chipgeneration muss man auch nicht mehr unbedingt mit dem anisotropischen Filter und Tessellation argumentieren, oder? :schief:
Ich meinte allgemeine Empfehlungen bezüglich Grafikkarten an "normale" Zocker. Im Endeffekt empfiehlst du jemandem die Karte aufgrund des Nvidia-Inspectors, aber nach einer kurzen Einweisung wird es dem normalen Gelegenheitszocker doch zu nervig oder er vergisst es einfach. Natürlich darf man aber solche Tools zur Entscheidungsfindung mit nennen... Dann sollte man aber auch nicht vergessen, dass bei Nvidias Mainstream-Modellen zurzeit eine etwas schräge Art der Speicherbestückung vorherrscht, die im Extremfall enorm Performance kosten könnte. ;)
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Oder wenn man AA-Bits nutzen will oder SSAO oder wenn man unkomplizierter DS einsetzen will oder wenn man einen gescheiten Bi-AF-Filter haben will oder wenn man eine leicht bessere MSAA-Kantenglättung haben will oder usw.
Wozu DS, wenn man SGSSAA mit automatischer LOD-Anpassung haben kann? Wozu MSAA, wenn man 24xEQ CFAA haben kann? :P Oder beides gleichzeitig (Standbild FTW) :ugly:
Dein Post klingt, als hätten AMD-Karten gar keine Vorteile...
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Oder wenn man AA-Bits nutzen will oder SSAO oder wenn man unkomplizierter DS einsetzen will oder wenn man einen gescheiten Bi-AF-Filter haben will oder wenn man eine leicht bessere MSAA-Kantenglättung haben will oder usw.

AA-Bits: Klares Pro Nvidia (für Tüftler), andererseits sind die Bits oft nötig, um überhaupt AA zu bekommen, während es bei AMD oft out-of-the-box geht.
SSAO: Noch ein Pro, ohne Frage.
Bi-AF-Filter: Was meinst du damit?
MSAA: Da ist Nvidia nicht besser, auch wenn das oft behauptet wird.

Das größte Pro seitens AMD/Ati ist das gut funktionierende SGSSAA mit LOD-Anpassung.

MfG,
Raff
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Und außerdem: der eigentliche Konkurrent war die normale 7970. Wenn nVidia ebenfalls eine übertaktete Version releasen würde, würde wieder Gleichstand herrschen.

Für mich zählt beim Kauf einer GraKa nur die aktuelle Marktlage und so wie ich es zurzeit sehe, ist eine 7970 GHz Edition mit Custom PCB besser aufgestellt als eine GTX 680 im Referenzdesign.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Für mich zählt beim Kauf einer GraKa nur die aktuelle Marktlage und so wie ich es zurzeit sehe, ist eine 7970 GHz Edition mit Custom PCB besser aufgestellt als eine GTX 680 im Referenzdesign.
du vergleichst äpfel mit birnen..

ein customdesign mit nem referenzdesign? als customdesign macht auch ne 670 die ref 680 frisch. wenn dann musst du das jeweilige model eines herstellers vergleichen.


http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_680_soc_review,18.html
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Das meinte ich ja. Ich hätte auch so vergleichen können. Mir ging es um die allgemeine Marktsituation, außerdem bin ich damit auf das Zitat des anderen Posts eingegangen. ;)
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Also bald ... 3 Monate + 10 Wochen macht ca. 5 Monate, und das soll bald sein in der Halbleiter Industrie *Koppkratz

5 Monate sind eine halbe Ewigkeit, nehmen wir an die ATI/AMD haut ihre neuen Generation zum Weihnachtsgeschäft raus, wäre das für die Grünen ein Desaster und umgekehrt

Ich habe immer noch meien GTX 260 der 1. Generation und kann warten, denn das halbe Leben besteht aus warten:ugly:

und wenn ich die Daten so sehen des GK 110 Chips, hauen die mich nicht gerade vom Hocker
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Keine Bange... das Weihnachtsgeld kannst du erstmal noch anderweitig ausgeben und weder Nvidia noch AMD werden dieses Jahr zittern müssen. Dieses Jahr wird es keine neuen Karten mehr geben; weder von AMD, noch von Nvidia. Vor März 2013 tut sich da nichts.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Wenn ihr Karten vergleicht, bitte in der gleichen Preisklasse, nicht der gefühlten Leistungsklasse.

Zur TDP: Weniger = kleinerer Kühler/Leiser/Leichter/OC...
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Ich selbst bezeichne mich auch irgendwo als Enthusiast und habe zurzeit sogar eine Geforce, aber selbst ich nutze keine AA-Bits. Mir reicht das FXAA oder ganz normales MSAA völlig aus. Du hast zwar recht, redest hier aber von vielleicht nicht einmal 0,5 % aller User.
Cuda kann man im Alltag schon recht gut durch DirectCompute oder OpenCL ersetzen, obwohl hier zugegeben das Angebot von Nvidia sehr gut aufgestellt ist.
Anhand von PhysX sieht man immer wieder, dass mittlere Einstellungen auf modernen CPUs fast immer sauber laufen und höhere Stufen meist nur noch mehr Partikel mit sich bringen. Leider werden die Möglichkeiten nie ausgeschöpft für z.B. direkte, physikalische Interaktion mit dem Level. Bestes Beispiel ist da Borderlands 2. Stein-Partikel von einer Wand sind durch Schrotflintenbeschuss auf ein laufendes Förderband gefallen und wurden von diesem natürlich nicht bewegt. Es sieht zwar alles sehr nett aus, aber manche nennen sowas Augenwischerei... ;)
Bei der jetzigen Chipgeneration muss man auch nicht mehr unbedingt mit dem anisotropischen Filter und Tessellation argumentieren, oder? :schief:
Ich meinte allgemeine Empfehlungen bezüglich Grafikkarten an "normale" Zocker. Im Endeffekt empfiehlst du jemandem die Karte aufgrund des Nvidia-Inspectors, aber nach einer kurzen Einweisung wird es dem normalen Gelegenheitszocker doch zu nervig oder er vergisst es einfach. Natürlich darf man aber solche Tools zur Entscheidungsfindung mit nennen... Dann sollte man aber auch nicht vergessen, dass bei Nvidias Mainstream-Modellen zurzeit eine etwas schräge Art der Speicherbestückung vorherrscht, die im Extremfall enorm Performance kosten könnte. ;)
Ich habe in all meinen Vergleichen never Cuda als Vorteil für Nvidia aufzählen können. Was für ein verschwindend geringer Anteil muss dies als Vorteil ansehen? Oder schmeißt man da PhysX mit in den Bottich?
Ich habe übrigens die Zählung der Vorteile nur weiter geführt. Bei Downsampling und SSAO brauchst du erst einmal gar kein extra Tool dafür und sollte für Menschen die über 300 Euro für eine Grafikkarte ausgeben zugänglich sein.
Er hatte davor eine 580 GTX, ich glaube da sollte ich schon etwas ausführlicher werden, als mit MSAA oder MLAA.
PhysX ist oder war immer nur ein "kleines" Gimmick, aber ich könnte niemals behaupten lieber ohne als mit. Da soll jeder selbst entscheiden, ob er ohne mit Leben kann, bei einem gewissen Grad macht selbst die beste CPU auch nicht mehr mit und bei Batman und Mirrors Edge läuft das auf einer CPU wirklich beschii..eiden.
Tessellation führe ich auch heute gerne noch als Vorteil für Nvidia vor. Nvidia hat den doppelten Dreiecksdurchsatz und wenn DX11 dank PS4 und Xbox Next mehr Verbreitung findet, könnte sich da auch etwas zugunsten von Nvidia drehen.
Was ich hier natürlich toll finde, ist der Tessellationschalter von AMD, so kann ich den Faktor wenigstens herunterdrehen, viel Performance sparen, aber je nach Fall optisch kaum Einstriche hinnehmen.

Die Art und Weise, wie Nvidia Kepler gerade designt hat, macht mir ja die Entscheidung so schwer, wie ich schon auch ausgeführt habe, dass der Performance-Abstand auch wachsen könnte. Ich kann darauf halt ebenso nur spekulieren, dass die Compute-Leistung und die höhere Bandbreite AMD in paar Jahren einen Bonus geben.

Wozu DS, wenn man SGSSAA mit automatischer LOD-Anpassung haben kann? Wozu MSAA, wenn man 24xEQ CFAA haben kann? :P Oder beides gleichzeitig (Standbild FTW) :ugly:
Dein Post klingt, als hätten AMD-Karten gar keine Vorteile...
SGSSAA ist nicht überall anwendbar und auch nicht überall problemlos. Ansonsten sollte man es natürlich DS vorziehen.
Man darf noch was zusätzliches sagen. Nvidia hat einen LOD-Bug beim AF. Wenn man die LOD-Basis verschiebt, dann führt das zu einer Flimmerneigung. SSAA ist somit mit einer Nvidia nicht zweifelsohne optimal nutzbar.
MSAA sehe ich so als Standardglättung an, die von vielen benutzt wird.

Bi-AF-Filter: Was meinst du damit?
MSAA: Da ist Nvidia nicht besser, auch wenn das oft behauptet wird.

Das größte Pro seitens AMD/Ati ist das gut funktionierende SGSSAA mit LOD-Anpassung.

MfG,
Raff
Bi-AF-Filter: Wenn ein Spiel einen bilinearen Filter anfordert (z.B. Witcher 1) dann filter die Grafikkarte auch in dem Modus. Der Filter flimmert weiterhin bei AMD munter vor sich, bei Nvidia ist er gewohnt sauber.
Falls du dich erinnerst das war die Sache, wo jeder fast einen halben Herzinfarkt bekommen hat, da dort Tahiti ebenso total ******* aussah ;)
MSAA: Direkt sichtbar besser vielleicht nicht, aber meinem Geschmack nach ist Nvidia da öfters besser, auch wenn AMD auch mal hier und da besser glättet.
3DCenter Forum - Unterschiede bei der Kantenglättungsqualität zwischen AMD & Nvidia
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Nur mal so am Rande... der bilineare Filter ist kein anisotroper Filter ;) Bilinieare Filterung und sein Nachfolger(Erweiterung) trinileare Filterung sind beides für heutige Verhältnisse sehr billige aber auch sehr ungenügende isotrope Filtermethoden. Niemand spielt heute noch isotrop gefiltert.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Das hindert einige Spiele dennoch nicht daran, diesen zu fordern.
Das forcieren war glaube ich auch nicht möglich.
Mit SSAA sollte man es aber keilen können, was bei den DX9 Spielen sogar fast immer gut funktionieren sollte.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Ähm... und was hat jetzt Supersampling Anitaliasing mit der (an-) isotropen Filterung zu tun? Plygonkante =/= Textur.

Du meinst sicherlich The Witcher 2, oder? Stell einfach im Spiel Ubersampling an, damit wird ingame automatisch auch AF aktiviert. Ansonsten mal bei den Bits im Inspector nachschauen. Da darfst du dich aber mal bei den Entwicklern beschweren. Ich würde heutzutage auch keinen Modus mehr bei einer Grafikkarte optimieren bzw. da Energie reinstecken, wenn dieser Modus veraltet ist und eigentlich nicht mehr genutzt wird.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

back to Topic.

Ich findes eh sinnlos , wenn die nur 15% schneller sein sollte , genauso wie die AMD evtl ..... lächerlich .

Wenn du 60 fps hast , womit man gerade noch so fett zoggn kann . Und dann nur 15% mehr , dann haste 69 lol . Sinnlos dafür Geld auszugeben .... die 9 fps merkste eh kaum .

Wenn aber aus 60 fps ..... 80 oder 85 fps werden dann lohnt sich die Sache. Pffff aber lächerliche 15 % Mehrleistung . Da kauf ich mir dann lieber eine 15% langsamere 680 gtx .
Was soll son lächerlicher Sprung? Ab min 30 eher 40 % wirds interessant. Die sollen sich lieber mehr Zeit lassen und dann solche Performancesprünge hinlegen. Das Positive ist halt , man bekommt die 680gtx oder die AMD dann günstiger und gleich verfügbar :daumen:
 
Zurück