AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt
Autsch, wo kommt denn die TDP her? Oder erscheint mir das nur im Gegensatz zum GK104 viel uneffizienter?
Natürlich ist der Chip ineffizienter. Da wird einiges an Zeug mit rum geschleppt, was Gamer nichts/nicht viel bringt, aber fröhlich vor sich hin leaked. Dazu werden die Signalwege länger, was stärkere Treiber benötigt, was mehr Leakage verusacht usw usw.
Dafür kann man etwas niedriger takten, was wiederum die Effizienz steigert in vielen fällen, da man näher am sweetspot ist. Das Problem ist halt nur, so nen großer DIE lässt sich nur schwer fertigen, sprich die Qualität ist im Durchschnitt schlechter. Am End sind die großen Chips daher meist (bisher immer?) ineffizienter als die kleinen. Nach oben wird die Luft bei mehr Leistung halt immer dünner
Was mir allerdings deutlich auffällt, ist die Anzahl der Shader-Einheiten, bzw deren Steigerung:
Früher hatte NVidia immer deutlich weniger Shader, weil NVidia andere Shader benutzte.
Beipiel: 8800gt 112 Shader vs Radeon 4830 mit 640 Shadern. Etwa 1 zu 5.
Wurde zwar schon angesprochen, ich wills aber nochmal klar machen.
<=HD5k hatte AMD 5D VLIW Shader
HD6k hatte AMD 4D VLIW Shader
und seit der HD7k hat AMD 1D SIMDs
VLIW steht für VeryLongInstructionWord, also das man "sehr lange" Instructionen hat, die eben mehr als nur eine Aktion ausführen können. Das hatte den Vorteil, das man halt einige Instructionen kombinieren kann, die bei SIMD mehrere Taktzyklen brauchen. Auch haben die VLIW Shader von AMD recht wenig Platz gebraucht. Das Problem an der Sache ist halt, dass du aus dem normalen Code eben VLIW Instructionen bauen musst, und das ist "komplex", und wenn ich sage komplex, dann meine ich auch wirklich komplex. Das war ja der Grund, warum man von VLIW5 auf VLIW4 runter ist. Man hat einfach fast nie geschafft 5 Instructionen in ein VLIW-word zu packen. Die Reduktion von 5 auf 4 hat daher fast keine Leistung gekostet, aber eben einiges an Hardware eingespart. Das Grundsätzliche Problem von VLIW, also der Laufzeitcompiler, blieb aber bestehen, und genau das hat AMD/VLIW das Genick gebrochen. Es wurd einfach VIEL zu aufwendig, um für Games usw. den Compiler entsprechend an zu passen. Das hat unglaublich viel Ressourcen gekostet. VLIW ist toll, aber das bricht halt dem Design das Genick. Man hat ja gesehen, zu was VLIW in der Lage ist, wenn das Problem mal gut zur Architektur passt. Z.B. Hash-Tabellen berechnen. Da haben die AMD VLIW-Karten alles in Grund und Boden gerechnet! Wenn ich mich recht erinnere, ist selbst die HD7k nicht oder nur kaum schneller als die HD5870 in manchen Bereichen. Nur leider war dieser Fall halt sehr selten. Daher ist man dann mit der HD7k auch auf SIMD umgestiegen, genau wie nVidia. Man braucht halt keinen Laufzeitcompiler, bzw er ist halt DEUTLICH einfacher, was einem wiederum Resourcen für andere Entwicklungen frei macht.
So und nun nVidia.
<= GTX500 hatte nVidia SIMD mit HotClock
seit der GTX600 hat nVidia SIMDs ohne HotClock wie AMD jetzt auch.
HotClock bezeichnet man einen schnelleren Takt, als der normale. Bei nVidia sah das halt so aus, dass die Shader mit dem doppelten Takt gelaufen sind. Das ist jetzt nicht mehr so. Grob kann man sagen, ein HotClock Shader kann genau so viele Instructionen pro GPU-Takt verarbeiten, wie 2 Shader ohne HotClock. Einfach weil er eben doppelt so schnell taktet.
HotClock hat dafür den Nachteil, das eben die Taktrate sehr viel höher ist, was höhere Anforderungen an geiwsse Teile des Chips hat, und dadurch eben "luftiger" gebaut werden muss, was zu größeren Chips führen KANN.
Wenn ich mir jetzt aktuelle oder auch die vermuteten Daten der kommenden Grafikchips ansehe, dann hat NVIdia jetzt soviele Shader-Einheiten wie AMD, ist aber nicht 5 mal schneller.
Das heißt entweder hat AMD seine Shader verbessert, oder - das halte ich für wahrscheinlicher, denn die Anzahl der Shadereinheiten sind bei NVidia förmlich explodiert, während bei AMD die Anzahl von Generation zu Generation kontinuierlich angestiegen ist - NVidia nutz weniger effiziente/leistungsfähige Shader. Davon hab ich aber noch nie was gelesen.
Wäre interessant, an dieser Stelle mal nachzuhaken und zu gucken, wo sich was technisch in der Entwicklung der Shader getan hat, oder?
siehe oben
nVidia hat den HotClock weg gelassen. Daher musst du doppelt so viele Shader haben wie bisher für die gleiche Leistung (so grob)
Ich antwort mal an seiner statt, die GTX 680 hat kaum Double Precision Leistung. Wenn ich mich recht erinner können die Shader das schlicht nicht. Das ist Absicht, denn für Spiele wird es nicht benötigt und man spart so Transistoren und Chipfläche und erhöht somit auch die Effizienz. Es ist aber pro SMX eine separate DP Einheit vorhanden mit 1/24 der SP Leistung.
nVidia kann viel erzählen, wenn der Tag lang ist...
Es ist unwahrscheinlich, das Sie wirklich eine dedizierte DP-Unit gebaut haben. Man kann nämlich für FPUs die SP Unit mit recht wenig Aufwand zu einer DP-Unit machen. Wer schon mal Multiplizierer auf Gatterbasis gebaut hat, weiß das...
Ich denke nicht, dass die GTX 780 in der oben beschriebenen Form rauskommt. Ich vermute mal, dass es ein eigener Chip wird, mit evtl. 10 SMX oder mehr, dazu 320 Bit Interface und 3 GB Ram oder sowas in der art. Die DP Leistung wird zu gunsten der Effizienz beschnitten und vielleicht kommt ein 225 W Chip mit ~15-20% Mehrleistung gegenüber der GTX 680 raus. Das ist wohl auch das, was man von Seas Island erwarten darf. Das ist natürlich jetzt in meine persönliche Glaskugel geschaut, aber so würde mir das gefallen
bye
Spinal
Das wird GARANTIERT kein eigener Chip. Das Volumen im HPC-Markt ist zwar massiv angestiegen, aber noch immer viel zu klein, um die Entwicklungskosten für so einen Chip rein zu holen. Zudem kannst du da eben nur die Sahne verkaufen, also die besten Chips. Den ganzen Rest musst du aber auch irgendwo unter bekommen, und dieses "irgendwo" ist halt der Consumerbereich. Da kannste noch ziemlich viel "Schrott" an den Mann bringen für gutes Geld. Die Alternative wäre nämlich Müllhalde, und da musste am Ende noch für zahlen....
Oder wenn man AA-Bits nutzen will oder SSAO oder wenn man unkomplizierter DS einsetzen will oder wenn man einen gescheiten Bi-AF-Filter haben will oder wenn man eine leicht bessere MSAA-Kantenglättung haben will oder usw.
Ich finde eine Kaufberatung für einen Enthusiasten ist richtig schwer geworden. Für den normalen Consumer kann man wohl ohne länger darüber nach zu denken einfach die Karte einbauen die ein besseres Perf/Preis-Ratio hat, aber für preislich höhere Produkte wird es schwer.
Bei AMD gibt es halt das Bandbreiten und Compute-Potential, wodurch der Performance-Abstand in der Zukunft sich vergrößern könnte, allerdings könnte Tessellation auch einige Sachen für Nvidia abfedern.
Nvidia führt rein von den Features weiterhin und da wird es schwer, denn selbst wenn AMD mehr Performance für einen gewissen Preis anbietet, so hat Nvidia immer noch ihre typischen Vorteile bisher.
Und wer macht sich den Stress mit den AA-Bits? Das ist mal ne ganz nette Spielerei, abder auf Dauer nervt es die meisten Leute nur. Das ist wirklich nur ein sehr kleiner Kreis, der sich daran wirklich erfreuen kann. Wir Deutschen werden ja eh schon als BW-Nazis verschriehn... Aber selbst hier ist das vielen zu viel Aufwand für das Resultat. Und jetzt stell dir mal vor, wies in den anderen Teilen dieser Welt dann aussieht. Da ist es den Leuten sogar gelinde gesagt scheis egal, ob Sie jetzt das HD5k oder das HD7k, oder nVidia AF haben. Es interessiert die Leute einfach nicht wirklich. Man sollte die AA-Bits daher nicht zwangsläufig in die Wertung einbeziehen, sondern nur dann, wenn jemand wirklich bereit ist so was auch zu nutzen. Sprich nennen? JA auf jeden Fall, in die Wertung einlaufen lassen? Nur dann wenn es jemand auch wirklich nutzen will.
AA-Bits: Klares Pro Nvidia (für Tüftler), andererseits sind die Bits oft nötig, um überhaupt AA zu bekommen, während es bei AMD oft out-of-the-box geht.
SSAO: Noch ein Pro, ohne Frage.
Bi-AF-Filter: Was meinst du damit?
MSAA: Da ist Nvidia nicht besser, auch wenn das oft behauptet wird.
Das größte Pro seitens AMD/Ati ist das gut funktionierende SGSSAA mit LOD-Anpassung.
MfG,
Raff
Genau das ist doch das Problem an den AA-Bits. Selbst wenn man das ganz interessant findet, man verliert doch schnell die Geduld/Lust daran, so etwas zu machen. Klar, es gibt auch Leute, denen macht das richtig Spaß, und die begeistern sich dafür (btw. ich würde dich dazu zählen
), aber die Mehrheit wird wohl recht schnell die Lust daran verlieren, und genau DA zieht dann eben der "out-of-the-box" Vorteil bei AMD. Das bekommt man nämlich immer, nimmt es also auch immer gern mit.
Ich ziehe daher auch AMD nVidia in Sachen BQ atm vor, einfach weil es einfacher und schneller zu machen ist, auch WENN man teilweise auf etwas BQ verzichten sollte. Das beste Feature nutzt einem halt nichts, wenn es zu aufwendig ist, und dadurch nicht genutzt wird. Und genau da sehe ich halt das Problem mit den AA-Bits. Daher sollte man die BQ auch, für die meisten, die sich eben den Aufwand nicht geben wollen, ohne die AA-Bits betrachten, und da liegt dann für mich AMD vorne.
bzgl Bi-AF-Filter:
Er meint ziemlich sicher Wichter 1, wo Bi-AF angefordert wird, was dann AMD/Ati auch liefert, und nVidia eben nen feuchten Haufen darauf setzt, und Tri-AF daraus macht... (zumindest erinnere ich mich daran, dass das so ist)
Ich habe in all meinen Vergleichen never Cuda als Vorteil für Nvidia aufzählen können. Was für ein verschwindend geringer Anteil muss dies als Vorteil ansehen? Oder schmeißt man da PhysX mit in den Bottich?
Ich habe übrigens die Zählung der Vorteile nur weiter geführt. Bei Downsampling und SSAO brauchst du erst einmal gar kein extra Tool dafür und sollte für Menschen die über 300 Euro für eine Grafikkarte ausgeben zugänglich sein.
Er hatte davor eine 580 GTX, ich glaube da sollte ich schon etwas ausführlicher werden, als mit MSAA oder MLAA.
PhysX ist oder war immer nur ein "kleines" Gimmick, aber ich könnte niemals behaupten lieber ohne als mit. Da soll jeder selbst entscheiden, ob er ohne mit Leben kann, bei einem gewissen Grad macht selbst die beste CPU auch nicht mehr mit und bei Batman und Mirrors Edge läuft das auf einer CPU wirklich beschii..eiden.
Tessellation führe ich auch heute gerne noch als Vorteil für Nvidia vor. Nvidia hat den doppelten Dreiecksdurchsatz und wenn DX11 dank PS4 und Xbox Next mehr Verbreitung findet, könnte sich da auch etwas zugunsten von Nvidia drehen.
Die Konsolen werden aber sehr wahrscheinlich nicht so einen massiven Tesselationeinsatz bringen, als dass das ins Gewicht fällt. AMD hat ja schon massiv die Tess-Leistung ausgebaut.
Die Limitiert ja eigentlich nur, wenn man so nen Schwachsinn wie Crytek mit dem Tessilierten Wasser unterhalb der Bildfläche macht
Genau das wird aber bei dieser Betrachtung oft/immer vergessen. nVidia hat nur da einen massiven Vorteil bei Tesselation, wo einfach VOLLKOMMEN unsinnig/hirnverbrannt mit Tesselation um sich geworfen wird... So was wirst du bei Konsolen nicht haben, da man dort recht umsichtig mit seinen Ressourcen umgeht, da diese immer beschränkt sind, und man nicht einfach bessere Hardware voraussetzen kann...
Was ich hier natürlich toll finde, ist der Tessellationschalter von AMD, so kann ich den Faktor wenigstens herunterdrehen, viel Performance sparen, aber je nach Fall optisch kaum Einstriche hinnehmen.
Jo, das Ding ist schon ganz nett
Die Art und Weise, wie Nvidia Kepler gerade designt hat, macht mir ja die Entscheidung so schwer, wie ich schon auch ausgeführt habe, dass der Performance-Abstand auch wachsen könnte. Ich kann darauf halt ebenso nur spekulieren, dass die Compute-Leistung und die höhere Bandbreite AMD in paar Jahren einen Bonus geben.
SGSSAA ist nicht überall anwendbar und auch nicht überall problemlos. Ansonsten sollte man es natürlich DS vorziehen.
Man darf noch was zusätzliches sagen. Nvidia hat einen LOD-Bug beim AF. Wenn man die LOD-Basis verschiebt, dann führt das zu einer Flimmerneigung. SSAA ist somit mit einer Nvidia nicht zweifelsohne optimal nutzbar.
MSAA sehe ich so als Standardglättung an, die von vielen benutzt wird.
Bi-AF-Filter: Wenn ein Spiel einen bilinearen Filter anfordert (z.B. Witcher 1) dann filter die Grafikkarte auch in dem Modus. Der Filter flimmert weiterhin bei AMD munter vor sich, bei Nvidia ist er gewohnt sauber.
Falls du dich erinnerst das war die Sache, wo jeder fast einen halben Herzinfarkt bekommen hat, da dort Tahiti ebenso total ******* aussah
MSAA: Direkt sichtbar besser vielleicht nicht, aber meinem Geschmack nach ist Nvidia da öfters besser, auch wenn AMD auch mal hier und da besser glättet.
3DCenter Forum - Unterschiede bei der Kantenglättungsqualität zwischen AMD & Nvidia
....
Also wenn ich mich nicht GANZ!!! arg täusche, dann ist das mit Witcher aber ein SEHR spezieller Fall, den man eigentlich nicht gelten lassen kann...
Wie oben schon gesagt, fordert Witcher Bi-AF an, was AMD dann eben auch liefert, und nVidia setzt halt nen Haufen drauf und macht Tri-AF draus.
Was man davon halten kann ist eine ganz eigene Diskussion... Ich für meinen Teil finde es MEGA SCHEISE!!! Wenn nen Entwickler etwas anfordert, dann wird er schon seine Gründe gehabt haben, warum er das macht, und dann sollte man auch genau das liefern... Specs sind dafür da, sich daran zu halten, und genau deswegen hat AMD vor kurzem auch von mir Verbal-Dresche bekommen, weil Sie sich über die Specs hinweg gesetzt haben. Frag mich aber gerade nicht, was es genau war. Ich glaub das war mit SSAO oder so.
@
Citynomad
Nein ich meine Witcher 1. Witcher 1 fordert einen bilinearen Filter, wo ich bei der Radeon keinen anisotropischen Filter erzwingen kann.
Mit SSAA haben die Texturen übrigens einen höheren Schärfegrad und es flimmert weniger.
Mit einer Nvidia-Karte habe ich ja noch mehr Möglichkeiten, wobei ich wirklich keine Ahnung habe wie sich das ganze bei Witcher 1 verhalten würde, wenn kein anisotropischen Filter zum Einsatz kommt und welches Resultat erzielt werden kann.
Aber das ist eben das, was ich an einer Nvidia schätze.
Ich kann, wenn ich will mir fast alles erzwingen lassen und bin den Implantationen der Entwicklern nicht hilflos ausgeliefert.
Siehe oben, das kann man nicht direkt vergleichen....
@ On/OFF
Yeah back to topic. Man schweift leider oftmals zu gerne ab.
Jedenfalls wäre eine Geforce sicherlich höher getaktet, als ein K20.
Mit 30% darf man als Minimum sicherlich rechnen.
Im laufe der Zeit könnte Nvidia auch am Ende des Jahres auch eine mit 14 SMX releasen, falls Bedarf besteht und die Ausbeute mit macht.
Ne 14 SMX Version wird es sicherlich noch dieses Jahr noch geben, aber eher für HPC als Tesla, denn als GeForce.
Und was soll hier "falls Bedarf besteht" bedeuten. Bedarf besteht immer, aber es trifft eben der zweite Teil zu "die Ausbeute mit macht" GENAU das ist doch das Problem, und da der Prozess schon 1 Jahr alt ist, sollte man auch nicht von all zu schnellen Verbesserungen ausgehen. Sprich eher dann 2014 ne 14 oder 15 SMX Version als Refresh, und davor als Tesla mit gewaltigem Aufschlag.
Was mich ein bißchen ärgert , wenns denn doch so kommen sollte mit den 15% , dann hätte ich mir auch gleich eine 680 gtx kaufen .
können. Gut , meine GTX 280 hat im Februar das Zeitliche gesegnet , und die 680 war noch nicht am Start . deswegen die Karte jetzt.Ist halt in dem Sinn ein Lückenfüller
Was ich noch Fragen wollte rein hypothetisch : Welche waren eigentlich die besseren Karten zu denen ihrer Zeit passend ?
Die mit den ungeraden Zahlen oder die mit den Geraden ?
Aber 550mm² bei 15% Mehrleistung , kann ich mir eigentlich garnicht vorstellen . Und dann noch die Abwärme , ( gut da würde ich dann eh wieder WaKü draufbasteln , Stromverbrauch sei erstmal dahingestellt .
Was ich langsam denke : Der Chip für die Tesla erscheint nicht als Geforce. Sondern ein auf die Chipfläche "verdoppelter" bzw Shader aufgebohrter 680 , was mir übrigens am liebstens wäre . Reiner Gamerchip mit dieser Chipfläche. Ich hoffe ich habe recht
Doch wird er ziemlich sicher. Du brauchst ja bei den beschissenen Yealds XY-Wafer, um erst mal genug Chips für den HPC zu bekommen. Dann haste aber noch immer sehr viele Z chips, die zwar für ne GeForce taugen würden, aber eben nicht für ne Tesla, weil ECC nicht funktioniert, oder oder oder. Die Chips schmeiste nicht einfach auf den Müll. Die machste noch zu richtig schönem Geld. Ansonsten haste auch kaum ne Chance, die Entwicklungskosten wieder rein zu holen. Du hast ja einfach gewaltige Fixkosten für R&D, aber auch für die Erstellung der Masken usw. Wenn ich es richtig im Kopf habe, musste für ne Maske(n-Satz?) >10Mio €/$ rechnen. Das muss man erst mal wieder rein holen... Allein für die Maske wirst du schon 5-10k Teslas brauchen, wenn nicht mehr je nach Yeald. So nen 300mm Wafer soll ja 6-8k€ kosten, und wenn du da nur 10 Chips raus bekommst, die für ne Karte taugen, dann wirds halt echt bitter...
Na wer weiß. Man kann die Chips ja noch abspecken und somit auch als 770 und 760 verkaufen. Low End Karten werden eh immer uninteressanter. Und wenn ein Gamer Big Kepler kommt, dann wird der vermutlich weniger Chipfläche haben und somit auch wieder Geld sparen.
bye
Spinal
Und wer bezahlt R&D, wer bezahlt die Masken, wer bezahlt die Validierung?
Ihr stellt euch das immer so einfach vor... Als ob man da paar Kästchen zusammenklickt, und tata hat man nen neuen Chip....
Wenn du so nen abgespeckten Chips konstruierst, dann musst du trotzdem einen großteil der Validierung laufen lassen, denn die einzelnen Bauteile haste zwar schon validiert, aber du musst auch schauen, ob die Signalwege/Timings stimmen, ob du V-Drops hast, ob nichts falsch geroutet/angeschlossen ist usw usw usw usw usw.... Das kostet alles sehr viel Zeit und Geld...
Zitat von Locuza : 2. Eine eigene Maske nur für ein paar High-End-Fetischisten wird Nvidia nicht auflegen.
Es geht hier ja nicht nur um die high-end -Fetischisten , das ist eine Neue schnelle Karte die jeder braucht ^^
Ja aber mit 15% können die hier nicht punkten , Und was soll an der Neuen Maske so schwer sein ? einfach die Shader bzw das alles verdoppeln bzw erhöhen was geht , einfach nur wie 680 als Rainer Gamer ^^ , bis halt die Chipfläche voll ist oder halt auch nur 450mm²
...
Siehe oben.... Ihr stellt euch das alles VIEL zu einfach vor....
Und wie gesagt, so ne Maske(n-Satz?) kostet >10Mio €/$