Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

@ Citynomad

Nein ich meine Witcher 1. Witcher 1 fordert einen bilinearen Filter, wo ich bei der Radeon keinen anisotropischen Filter erzwingen kann.
Mit SSAA haben die Texturen übrigens einen höheren Schärfegrad und es flimmert weniger.
Mit einer Nvidia-Karte habe ich ja noch mehr Möglichkeiten, wobei ich wirklich keine Ahnung habe wie sich das ganze bei Witcher 1 verhalten würde, wenn kein anisotropischen Filter zum Einsatz kommt und welches Resultat erzielt werden kann.
Aber das ist eben das, was ich an einer Nvidia schätze.
Ich kann, wenn ich will mir fast alles erzwingen lassen und bin den Implantationen der Entwicklern nicht hilflos ausgeliefert.

@ On/OFF

Yeah back to topic. Man schweift leider oftmals zu gerne ab.
Jedenfalls wäre eine Geforce sicherlich höher getaktet, als ein K20.
Mit 30% darf man als Minimum sicherlich rechnen.
Im laufe der Zeit könnte Nvidia auch am Ende des Jahres auch eine mit 14 SMX releasen, falls Bedarf besteht und die Ausbeute mit macht.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Darauf gebe ich dir allerdings Brief und Siegel, dass die Ausbeute an kompletten Chips und auch 14SMX Chips in die Tesla Sparte gehen und da eher für n neues Modell genommen werden. Warum? Bessere Preise.
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Man darf nicht vergessen das hier über die Profi Serie von Nvidia gesprochen wird. Mir scheint als ob Nvidia einen größeren Schnitt zwischen Consumer- und Profimarkt ziehen, deshalb könnte eine Geforce schon ein gutes Stück anders aussehen als die Tesla. Ist aber nur eine Vermutung meinerseits.

back to Topic.

Ich findes eh sinnlos , wenn die nur 15% schneller sein sollte , genauso wie die AMD evtl ..... lächerlich .

Wenn du 60 fps hast , womit man gerade noch so fett zoggn kann . Und dann nur 15% mehr , dann haste 69 lol . Sinnlos dafür Geld auszugeben .... die 9 fps merkste eh kaum .

Wenn aber aus 60 fps ..... 80 oder 85 fps werden dann lohnt sich die Sache. Pffff aber lächerliche 15 % Mehrleistung . Da kauf ich mir dann lieber eine 15% langsamere 680 gtx .
Was soll son lächerlicher Sprung? Ab min 30 eher 40 % wirds interessant. Die sollen sich lieber mehr Zeit lassen und dann solche Performancesprünge hinlegen. Das Positive ist halt , man bekommt die 680gtx oder die AMD dann günstiger und gleich verfügbar :daumen:

Nunja, die GTX 580 war auch nicht sooo viel schneller als die GTX 480. Die GTX 285 noch weniger gegenüber der 280. Man muss ja nicht von einer 680 auf eine 780 aufrüsten. Aber für Leute mit Grafikkarten einer älteren Generation ist es natürlich eine Überlegung wert, ob man eine günstigere GTX 680 oder eine schnellere 780 nimmt. Ich finde 20% bei gleicher Fertigung in Ordnung.

bye
Spinal
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Darauf gebe ich dir allerdings Brief und Siegel, dass die Ausbeute an kompletten Chips und auch 14SMX Chips in die Tesla Sparte gehen und da eher für n neues Modell genommen werden. Warum? Bessere Preise.
Bei Fermi ist allerdings Tesla mit genauso vielen SMs angetreten, wie die Geforce ;)
Und nach dem neuen Stepping haben beide Produktreihen ein Update auf 512-Cores erhalten.

Und die Ausbeute war damals als dramatisch bezeichnet worden.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Was mich ein bißchen ärgert , wenns denn doch so kommen sollte mit den 15% , dann hätte ich mir auch gleich eine 680 gtx kaufen .
können. Gut , meine GTX 280 hat im Februar das Zeitliche gesegnet , und die 680 war noch nicht am Start . deswegen die Karte jetzt.Ist halt in dem Sinn ein Lückenfüller

Was ich noch Fragen wollte rein hypothetisch : Welche waren eigentlich die besseren Karten zu denen ihrer Zeit passend ?

Die mit den ungeraden Zahlen oder die mit den Geraden ?

Aber 550mm² bei 15% Mehrleistung , kann ich mir eigentlich garnicht vorstellen . Und dann noch die Abwärme , ( gut da würde ich dann eh wieder WaKü draufbasteln , Stromverbrauch sei erstmal dahingestellt .

Was ich langsam denke : Der Chip für die Tesla erscheint nicht als Geforce. Sondern ein auf die Chipfläche "verdoppelter" bzw Shader aufgebohrter 680 , was mir übrigens am liebstens wäre . Reiner Gamerchip mit dieser Chipfläche. Ich hoffe ich habe recht
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Was ich noch Fragen wollte rein hypothetisch : Welche waren eigentlich die besseren Karten zu denen ihrer Zeit passend ?
Die mit den ungeraden Zahlen oder die mit den Geraden ?

Was ich langsam denke : Der Chip für die Tesla erscheint nicht als Geforce. Sondern ein auf die Chipfläche "verdoppelter" bzw Shader aufgebohrter 680 , was mir übrigens am liebstens wäre . Reiner Gamerchip mit dieser Chipfläche. Ich hoffe ich habe recht
1. Ungerade/gerade Zahlen. Ist ganz zufällig gewesen und da gibt es sicherlich keine Ordnung ;)
2. Eine eigene Maske nur für ein paar High-End-Fetischisten wird Nvidia nicht auflegen.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

1. Ungerade/gerade Zahlen. Ist ganz zufällig gewesen und da gibt es sicherlich keine Ordnung ;)
2. Eine eigene Maske nur für ein paar High-End-Fetischisten wird Nvidia nicht auflegen.

Na wer weiß. Man kann die Chips ja noch abspecken und somit auch als 770 und 760 verkaufen. Low End Karten werden eh immer uninteressanter. Und wenn ein Gamer Big Kepler kommt, dann wird der vermutlich weniger Chipfläche haben und somit auch wieder Geld sparen.

bye
Spinal
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Zitat von Locuza : 2. Eine eigene Maske nur für ein paar High-End-Fetischisten wird Nvidia nicht auflegen.

Es geht hier ja nicht nur um die high-end -Fetischisten , das ist eine Neue schnelle Karte die jeder braucht ^^

Ja aber mit 15% können die hier nicht punkten , Und was soll an der Neuen Maske so schwer sein ? einfach die Shader bzw das alles verdoppeln bzw erhöhen was geht , einfach nur wie 680 als Rainer Gamer ^^ , bis halt die Chipfläche voll ist oder halt auch nur 450mm²
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Es geht hier ja nicht nur um die high-end -Fetischisten , das ist eine Neue schnelle Karte die jeder braucht ^^
Leben wir schon in einem parallel-Universum? :ugly:

Wieso entnimmst du eig. 15% aus einem Tesla-Produkt? Die Geforce-Reihe war schon immer um einiges höher getaktet.

Eine neue Maske kostet dennoch Entwicklungszeit, sie muss validiert werden, man muss Ergebnisse abwarten und trotzt theoretischem C&P muss man Monate auf ein fertiges Produkt warten.
Der Aufwand, nur damit man paar High-End Karten verkauft?
Ne, da subventioniert man lieber einen Chip quer, der die Anforderungen schon halbwegs erfüllt.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Was meinste was Nvidia die ganze Zeit macht zur Zeit in den paar Monaten ^^ bis März .....

Weil die 15% mit dem Tesla-Chip realistisch klingen , weil der Chip nicht nur fürs Gaming ausgelegt ist , und sowas würden die nicht bringen aka Geforce , sone fette Die-Fläche mit ungenutzen Featuren , .


PS: Die Hoffnung stirbt zuletzt ......


Ich kann auch immer die Leute nicht verstehn , wozu soviel leistung ? , habt ihr euch die Benchmark bzw test von der neuen Crysis2 - Textur-mod reingezogen , da kommen 680 und 7970 auch nur auf ca 60 fps bei Full-hd.

Aber die meisten sagen dan eh wieder ich kann alles Flüssig spielen mit meiner 480 mit AA + AF und ultra-settings ... bei mir läuft alles flüssig .....................
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Und was war eig. mit Fermi? Stimmt der GF100 war auf den Gaming-Markt fokussiert.

PS: Ich bin mir sicher deine Hoffnung wird sterben, aber ich denke nicht das es so schlimm sein wird. ;)
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

wenigstens lässt du mir ein bißchen Hoffnung

Wenns schlimm wird , kauf ich mir beim Launch ne 680 oder evtl ne 7000 oder neue 8000 AMD
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Ein GK110 hat natürlich schlechtere Gamingeigenschaften, als ein hypothetischer "Gamer GK110" , aber eine 480 GTX oder 580 GTX war ja auch kein schreckliches Desaster im Vergleich zu der Mittelklasse und ich meine das ist eig. ganz gut so.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

@ Locuza
Joa, passt schon. Wir werden uns schon einig. Die Situation auf dem Grafikkartenmarkt war selten so gut wie heute, nur die Preise könnten teils geringer sein. :)

Egal ob GTX 670 mit Custom PCB oder eine möglichst günstige 7950 usw. - heutzutage wird jeder das finden, was er sucht.
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Autsch, wo kommt denn die TDP her? Oder erscheint mir das nur im Gegensatz zum GK104 viel uneffizienter?
Natürlich ist der Chip ineffizienter. Da wird einiges an Zeug mit rum geschleppt, was Gamer nichts/nicht viel bringt, aber fröhlich vor sich hin leaked. Dazu werden die Signalwege länger, was stärkere Treiber benötigt, was mehr Leakage verusacht usw usw.

Dafür kann man etwas niedriger takten, was wiederum die Effizienz steigert in vielen fällen, da man näher am sweetspot ist. Das Problem ist halt nur, so nen großer DIE lässt sich nur schwer fertigen, sprich die Qualität ist im Durchschnitt schlechter. Am End sind die großen Chips daher meist (bisher immer?) ineffizienter als die kleinen. Nach oben wird die Luft bei mehr Leistung halt immer dünner :D

Was mir allerdings deutlich auffällt, ist die Anzahl der Shader-Einheiten, bzw deren Steigerung:
Früher hatte NVidia immer deutlich weniger Shader, weil NVidia andere Shader benutzte.
Beipiel: 8800gt 112 Shader vs Radeon 4830 mit 640 Shadern. Etwa 1 zu 5.
Wurde zwar schon angesprochen, ich wills aber nochmal klar machen.
<=HD5k hatte AMD 5D VLIW Shader
HD6k hatte AMD 4D VLIW Shader
und seit der HD7k hat AMD 1D SIMDs
VLIW steht für VeryLongInstructionWord, also das man "sehr lange" Instructionen hat, die eben mehr als nur eine Aktion ausführen können. Das hatte den Vorteil, das man halt einige Instructionen kombinieren kann, die bei SIMD mehrere Taktzyklen brauchen. Auch haben die VLIW Shader von AMD recht wenig Platz gebraucht. Das Problem an der Sache ist halt, dass du aus dem normalen Code eben VLIW Instructionen bauen musst, und das ist "komplex", und wenn ich sage komplex, dann meine ich auch wirklich komplex. Das war ja der Grund, warum man von VLIW5 auf VLIW4 runter ist. Man hat einfach fast nie geschafft 5 Instructionen in ein VLIW-word zu packen. Die Reduktion von 5 auf 4 hat daher fast keine Leistung gekostet, aber eben einiges an Hardware eingespart. Das Grundsätzliche Problem von VLIW, also der Laufzeitcompiler, blieb aber bestehen, und genau das hat AMD/VLIW das Genick gebrochen. Es wurd einfach VIEL zu aufwendig, um für Games usw. den Compiler entsprechend an zu passen. Das hat unglaublich viel Ressourcen gekostet. VLIW ist toll, aber das bricht halt dem Design das Genick. Man hat ja gesehen, zu was VLIW in der Lage ist, wenn das Problem mal gut zur Architektur passt. Z.B. Hash-Tabellen berechnen. Da haben die AMD VLIW-Karten alles in Grund und Boden gerechnet! Wenn ich mich recht erinnere, ist selbst die HD7k nicht oder nur kaum schneller als die HD5870 in manchen Bereichen. Nur leider war dieser Fall halt sehr selten. Daher ist man dann mit der HD7k auch auf SIMD umgestiegen, genau wie nVidia. Man braucht halt keinen Laufzeitcompiler, bzw er ist halt DEUTLICH einfacher, was einem wiederum Resourcen für andere Entwicklungen frei macht.

So und nun nVidia.
<= GTX500 hatte nVidia SIMD mit HotClock
seit der GTX600 hat nVidia SIMDs ohne HotClock wie AMD jetzt auch.

HotClock bezeichnet man einen schnelleren Takt, als der normale. Bei nVidia sah das halt so aus, dass die Shader mit dem doppelten Takt gelaufen sind. Das ist jetzt nicht mehr so. Grob kann man sagen, ein HotClock Shader kann genau so viele Instructionen pro GPU-Takt verarbeiten, wie 2 Shader ohne HotClock. Einfach weil er eben doppelt so schnell taktet. :daumen:

HotClock hat dafür den Nachteil, das eben die Taktrate sehr viel höher ist, was höhere Anforderungen an geiwsse Teile des Chips hat, und dadurch eben "luftiger" gebaut werden muss, was zu größeren Chips führen KANN.

Wenn ich mir jetzt aktuelle oder auch die vermuteten Daten der kommenden Grafikchips ansehe, dann hat NVIdia jetzt soviele Shader-Einheiten wie AMD, ist aber nicht 5 mal schneller.
Das heißt entweder hat AMD seine Shader verbessert, oder - das halte ich für wahrscheinlicher, denn die Anzahl der Shadereinheiten sind bei NVidia förmlich explodiert, während bei AMD die Anzahl von Generation zu Generation kontinuierlich angestiegen ist - NVidia nutz weniger effiziente/leistungsfähige Shader. Davon hab ich aber noch nie was gelesen.
Wäre interessant, an dieser Stelle mal nachzuhaken und zu gucken, wo sich was technisch in der Entwicklung der Shader getan hat, oder?
siehe oben ;)
nVidia hat den HotClock weg gelassen. Daher musst du doppelt so viele Shader haben wie bisher für die gleiche Leistung (so grob)

Ich antwort mal an seiner statt, die GTX 680 hat kaum Double Precision Leistung. Wenn ich mich recht erinner können die Shader das schlicht nicht. Das ist Absicht, denn für Spiele wird es nicht benötigt und man spart so Transistoren und Chipfläche und erhöht somit auch die Effizienz. Es ist aber pro SMX eine separate DP Einheit vorhanden mit 1/24 der SP Leistung.
nVidia kann viel erzählen, wenn der Tag lang ist...
Es ist unwahrscheinlich, das Sie wirklich eine dedizierte DP-Unit gebaut haben. Man kann nämlich für FPUs die SP Unit mit recht wenig Aufwand zu einer DP-Unit machen. Wer schon mal Multiplizierer auf Gatterbasis gebaut hat, weiß das...

Ich denke nicht, dass die GTX 780 in der oben beschriebenen Form rauskommt. Ich vermute mal, dass es ein eigener Chip wird, mit evtl. 10 SMX oder mehr, dazu 320 Bit Interface und 3 GB Ram oder sowas in der art. Die DP Leistung wird zu gunsten der Effizienz beschnitten und vielleicht kommt ein 225 W Chip mit ~15-20% Mehrleistung gegenüber der GTX 680 raus. Das ist wohl auch das, was man von Seas Island erwarten darf. Das ist natürlich jetzt in meine persönliche Glaskugel geschaut, aber so würde mir das gefallen :)

bye
Spinal
Das wird GARANTIERT kein eigener Chip. Das Volumen im HPC-Markt ist zwar massiv angestiegen, aber noch immer viel zu klein, um die Entwicklungskosten für so einen Chip rein zu holen. Zudem kannst du da eben nur die Sahne verkaufen, also die besten Chips. Den ganzen Rest musst du aber auch irgendwo unter bekommen, und dieses "irgendwo" ist halt der Consumerbereich. Da kannste noch ziemlich viel "Schrott" an den Mann bringen für gutes Geld. Die Alternative wäre nämlich Müllhalde, und da musste am Ende noch für zahlen....

Oder wenn man AA-Bits nutzen will oder SSAO oder wenn man unkomplizierter DS einsetzen will oder wenn man einen gescheiten Bi-AF-Filter haben will oder wenn man eine leicht bessere MSAA-Kantenglättung haben will oder usw.

Ich finde eine Kaufberatung für einen Enthusiasten ist richtig schwer geworden. Für den normalen Consumer kann man wohl ohne länger darüber nach zu denken einfach die Karte einbauen die ein besseres Perf/Preis-Ratio hat, aber für preislich höhere Produkte wird es schwer.
Bei AMD gibt es halt das Bandbreiten und Compute-Potential, wodurch der Performance-Abstand in der Zukunft sich vergrößern könnte, allerdings könnte Tessellation auch einige Sachen für Nvidia abfedern.
Nvidia führt rein von den Features weiterhin und da wird es schwer, denn selbst wenn AMD mehr Performance für einen gewissen Preis anbietet, so hat Nvidia immer noch ihre typischen Vorteile bisher.
Und wer macht sich den Stress mit den AA-Bits? Das ist mal ne ganz nette Spielerei, abder auf Dauer nervt es die meisten Leute nur. Das ist wirklich nur ein sehr kleiner Kreis, der sich daran wirklich erfreuen kann. Wir Deutschen werden ja eh schon als BW-Nazis verschriehn... Aber selbst hier ist das vielen zu viel Aufwand für das Resultat. Und jetzt stell dir mal vor, wies in den anderen Teilen dieser Welt dann aussieht. Da ist es den Leuten sogar gelinde gesagt scheis egal, ob Sie jetzt das HD5k oder das HD7k, oder nVidia AF haben. Es interessiert die Leute einfach nicht wirklich. Man sollte die AA-Bits daher nicht zwangsläufig in die Wertung einbeziehen, sondern nur dann, wenn jemand wirklich bereit ist so was auch zu nutzen. Sprich nennen? JA auf jeden Fall, in die Wertung einlaufen lassen? Nur dann wenn es jemand auch wirklich nutzen will.

AA-Bits: Klares Pro Nvidia (für Tüftler), andererseits sind die Bits oft nötig, um überhaupt AA zu bekommen, während es bei AMD oft out-of-the-box geht.
SSAO: Noch ein Pro, ohne Frage.
Bi-AF-Filter: Was meinst du damit?
MSAA: Da ist Nvidia nicht besser, auch wenn das oft behauptet wird.

Das größte Pro seitens AMD/Ati ist das gut funktionierende SGSSAA mit LOD-Anpassung.

MfG,
Raff
Genau das ist doch das Problem an den AA-Bits. Selbst wenn man das ganz interessant findet, man verliert doch schnell die Geduld/Lust daran, so etwas zu machen. Klar, es gibt auch Leute, denen macht das richtig Spaß, und die begeistern sich dafür (btw. ich würde dich dazu zählen :D), aber die Mehrheit wird wohl recht schnell die Lust daran verlieren, und genau DA zieht dann eben der "out-of-the-box" Vorteil bei AMD. Das bekommt man nämlich immer, nimmt es also auch immer gern mit.
Ich ziehe daher auch AMD nVidia in Sachen BQ atm vor, einfach weil es einfacher und schneller zu machen ist, auch WENN man teilweise auf etwas BQ verzichten sollte. Das beste Feature nutzt einem halt nichts, wenn es zu aufwendig ist, und dadurch nicht genutzt wird. Und genau da sehe ich halt das Problem mit den AA-Bits. Daher sollte man die BQ auch, für die meisten, die sich eben den Aufwand nicht geben wollen, ohne die AA-Bits betrachten, und da liegt dann für mich AMD vorne.

bzgl Bi-AF-Filter:
Er meint ziemlich sicher Wichter 1, wo Bi-AF angefordert wird, was dann AMD/Ati auch liefert, und nVidia eben nen feuchten Haufen darauf setzt, und Tri-AF daraus macht... (zumindest erinnere ich mich daran, dass das so ist)


Ich habe in all meinen Vergleichen never Cuda als Vorteil für Nvidia aufzählen können. Was für ein verschwindend geringer Anteil muss dies als Vorteil ansehen? Oder schmeißt man da PhysX mit in den Bottich?
Ich habe übrigens die Zählung der Vorteile nur weiter geführt. Bei Downsampling und SSAO brauchst du erst einmal gar kein extra Tool dafür und sollte für Menschen die über 300 Euro für eine Grafikkarte ausgeben zugänglich sein.
Er hatte davor eine 580 GTX, ich glaube da sollte ich schon etwas ausführlicher werden, als mit MSAA oder MLAA.
PhysX ist oder war immer nur ein "kleines" Gimmick, aber ich könnte niemals behaupten lieber ohne als mit. Da soll jeder selbst entscheiden, ob er ohne mit Leben kann, bei einem gewissen Grad macht selbst die beste CPU auch nicht mehr mit und bei Batman und Mirrors Edge läuft das auf einer CPU wirklich beschii..eiden.
Tessellation führe ich auch heute gerne noch als Vorteil für Nvidia vor. Nvidia hat den doppelten Dreiecksdurchsatz und wenn DX11 dank PS4 und Xbox Next mehr Verbreitung findet, könnte sich da auch etwas zugunsten von Nvidia drehen.
Die Konsolen werden aber sehr wahrscheinlich nicht so einen massiven Tesselationeinsatz bringen, als dass das ins Gewicht fällt. AMD hat ja schon massiv die Tess-Leistung ausgebaut.

Die Limitiert ja eigentlich nur, wenn man so nen Schwachsinn wie Crytek mit dem Tessilierten Wasser unterhalb der Bildfläche macht :klatsch::wall:
Genau das wird aber bei dieser Betrachtung oft/immer vergessen. nVidia hat nur da einen massiven Vorteil bei Tesselation, wo einfach VOLLKOMMEN unsinnig/hirnverbrannt mit Tesselation um sich geworfen wird... So was wirst du bei Konsolen nicht haben, da man dort recht umsichtig mit seinen Ressourcen umgeht, da diese immer beschränkt sind, und man nicht einfach bessere Hardware voraussetzen kann...

Was ich hier natürlich toll finde, ist der Tessellationschalter von AMD, so kann ich den Faktor wenigstens herunterdrehen, viel Performance sparen, aber je nach Fall optisch kaum Einstriche hinnehmen.
Jo, das Ding ist schon ganz nett

Die Art und Weise, wie Nvidia Kepler gerade designt hat, macht mir ja die Entscheidung so schwer, wie ich schon auch ausgeführt habe, dass der Performance-Abstand auch wachsen könnte. Ich kann darauf halt ebenso nur spekulieren, dass die Compute-Leistung und die höhere Bandbreite AMD in paar Jahren einen Bonus geben.


SGSSAA ist nicht überall anwendbar und auch nicht überall problemlos. Ansonsten sollte man es natürlich DS vorziehen.
Man darf noch was zusätzliches sagen. Nvidia hat einen LOD-Bug beim AF. Wenn man die LOD-Basis verschiebt, dann führt das zu einer Flimmerneigung. SSAA ist somit mit einer Nvidia nicht zweifelsohne optimal nutzbar.
MSAA sehe ich so als Standardglättung an, die von vielen benutzt wird.


Bi-AF-Filter: Wenn ein Spiel einen bilinearen Filter anfordert (z.B. Witcher 1) dann filter die Grafikkarte auch in dem Modus. Der Filter flimmert weiterhin bei AMD munter vor sich, bei Nvidia ist er gewohnt sauber.
Falls du dich erinnerst das war die Sache, wo jeder fast einen halben Herzinfarkt bekommen hat, da dort Tahiti ebenso total ******* aussah ;)
MSAA: Direkt sichtbar besser vielleicht nicht, aber meinem Geschmack nach ist Nvidia da öfters besser, auch wenn AMD auch mal hier und da besser glättet.
3DCenter Forum - Unterschiede bei der Kantenglättungsqualität zwischen AMD & Nvidia
....
Also wenn ich mich nicht GANZ!!! arg täusche, dann ist das mit Witcher aber ein SEHR spezieller Fall, den man eigentlich nicht gelten lassen kann...

Wie oben schon gesagt, fordert Witcher Bi-AF an, was AMD dann eben auch liefert, und nVidia setzt halt nen Haufen drauf und macht Tri-AF draus.

Was man davon halten kann ist eine ganz eigene Diskussion... Ich für meinen Teil finde es MEGA SCHEISE!!! Wenn nen Entwickler etwas anfordert, dann wird er schon seine Gründe gehabt haben, warum er das macht, und dann sollte man auch genau das liefern... Specs sind dafür da, sich daran zu halten, und genau deswegen hat AMD vor kurzem auch von mir Verbal-Dresche bekommen, weil Sie sich über die Specs hinweg gesetzt haben. Frag mich aber gerade nicht, was es genau war. Ich glaub das war mit SSAO oder so.


@ Citynomad

Nein ich meine Witcher 1. Witcher 1 fordert einen bilinearen Filter, wo ich bei der Radeon keinen anisotropischen Filter erzwingen kann.
Mit SSAA haben die Texturen übrigens einen höheren Schärfegrad und es flimmert weniger.
Mit einer Nvidia-Karte habe ich ja noch mehr Möglichkeiten, wobei ich wirklich keine Ahnung habe wie sich das ganze bei Witcher 1 verhalten würde, wenn kein anisotropischen Filter zum Einsatz kommt und welches Resultat erzielt werden kann.
Aber das ist eben das, was ich an einer Nvidia schätze.
Ich kann, wenn ich will mir fast alles erzwingen lassen und bin den Implantationen der Entwicklern nicht hilflos ausgeliefert.
Siehe oben, das kann man nicht direkt vergleichen....

@ On/OFF

Yeah back to topic. Man schweift leider oftmals zu gerne ab.
Jedenfalls wäre eine Geforce sicherlich höher getaktet, als ein K20.
Mit 30% darf man als Minimum sicherlich rechnen.
Im laufe der Zeit könnte Nvidia auch am Ende des Jahres auch eine mit 14 SMX releasen, falls Bedarf besteht und die Ausbeute mit macht.
Ne 14 SMX Version wird es sicherlich noch dieses Jahr noch geben, aber eher für HPC als Tesla, denn als GeForce.

Und was soll hier "falls Bedarf besteht" bedeuten. Bedarf besteht immer, aber es trifft eben der zweite Teil zu "die Ausbeute mit macht" GENAU das ist doch das Problem, und da der Prozess schon 1 Jahr alt ist, sollte man auch nicht von all zu schnellen Verbesserungen ausgehen. Sprich eher dann 2014 ne 14 oder 15 SMX Version als Refresh, und davor als Tesla mit gewaltigem Aufschlag.

Was mich ein bißchen ärgert , wenns denn doch so kommen sollte mit den 15% , dann hätte ich mir auch gleich eine 680 gtx kaufen .
können. Gut , meine GTX 280 hat im Februar das Zeitliche gesegnet , und die 680 war noch nicht am Start . deswegen die Karte jetzt.Ist halt in dem Sinn ein Lückenfüller

Was ich noch Fragen wollte rein hypothetisch : Welche waren eigentlich die besseren Karten zu denen ihrer Zeit passend ?

Die mit den ungeraden Zahlen oder die mit den Geraden ?

Aber 550mm² bei 15% Mehrleistung , kann ich mir eigentlich garnicht vorstellen . Und dann noch die Abwärme , ( gut da würde ich dann eh wieder WaKü draufbasteln , Stromverbrauch sei erstmal dahingestellt .

Was ich langsam denke : Der Chip für die Tesla erscheint nicht als Geforce. Sondern ein auf die Chipfläche "verdoppelter" bzw Shader aufgebohrter 680 , was mir übrigens am liebstens wäre . Reiner Gamerchip mit dieser Chipfläche. Ich hoffe ich habe recht
Doch wird er ziemlich sicher. Du brauchst ja bei den beschissenen Yealds XY-Wafer, um erst mal genug Chips für den HPC zu bekommen. Dann haste aber noch immer sehr viele Z chips, die zwar für ne GeForce taugen würden, aber eben nicht für ne Tesla, weil ECC nicht funktioniert, oder oder oder. Die Chips schmeiste nicht einfach auf den Müll. Die machste noch zu richtig schönem Geld. Ansonsten haste auch kaum ne Chance, die Entwicklungskosten wieder rein zu holen. Du hast ja einfach gewaltige Fixkosten für R&D, aber auch für die Erstellung der Masken usw. Wenn ich es richtig im Kopf habe, musste für ne Maske(n-Satz?) >10Mio €/$ rechnen. Das muss man erst mal wieder rein holen... Allein für die Maske wirst du schon 5-10k Teslas brauchen, wenn nicht mehr je nach Yeald. So nen 300mm Wafer soll ja 6-8k€ kosten, und wenn du da nur 10 Chips raus bekommst, die für ne Karte taugen, dann wirds halt echt bitter...

Na wer weiß. Man kann die Chips ja noch abspecken und somit auch als 770 und 760 verkaufen. Low End Karten werden eh immer uninteressanter. Und wenn ein Gamer Big Kepler kommt, dann wird der vermutlich weniger Chipfläche haben und somit auch wieder Geld sparen.

bye
Spinal
Und wer bezahlt R&D, wer bezahlt die Masken, wer bezahlt die Validierung?

Ihr stellt euch das immer so einfach vor... Als ob man da paar Kästchen zusammenklickt, und tata hat man nen neuen Chip....

Wenn du so nen abgespeckten Chips konstruierst, dann musst du trotzdem einen großteil der Validierung laufen lassen, denn die einzelnen Bauteile haste zwar schon validiert, aber du musst auch schauen, ob die Signalwege/Timings stimmen, ob du V-Drops hast, ob nichts falsch geroutet/angeschlossen ist usw usw usw usw usw.... Das kostet alles sehr viel Zeit und Geld...

Zitat von Locuza : 2. Eine eigene Maske nur für ein paar High-End-Fetischisten wird Nvidia nicht auflegen.

Es geht hier ja nicht nur um die high-end -Fetischisten , das ist eine Neue schnelle Karte die jeder braucht ^^

Ja aber mit 15% können die hier nicht punkten , Und was soll an der Neuen Maske so schwer sein ? einfach die Shader bzw das alles verdoppeln bzw erhöhen was geht , einfach nur wie 680 als Rainer Gamer ^^ , bis halt die Chipfläche voll ist oder halt auch nur 450mm²
...
Siehe oben.... Ihr stellt euch das alles VIEL zu einfach vor....
Und wie gesagt, so ne Maske(n-Satz?) kostet >10Mio €/$
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

So und nun nVidia.
<= GTX500 hatte nVidia SIMD mit HotClock
seit der GTX600 hat nVidia SIMDs ohne HotClock wie AMD jetzt auch.

HotClock bezeichnet man einen schnelleren Takt, als der normale. Bei nVidia sah das halt so aus, dass die Shader mit dem doppelten Takt gelaufen sind. Das ist jetzt nicht mehr so. Grob kann man sagen, ein HotClock Shader kann genau so viele Instructionen pro GPU-Takt verarbeiten, wie 2 Shader ohne HotClock. Einfach weil er eben doppelt so schnell taktet. :daumen:

HotClock hat dafür den Nachteil, das eben die Taktrate sehr viel höher ist, was höhere Anforderungen an geiwsse Teile des Chips hat, und dadurch eben "luftiger" gebaut werden muss, was zu größeren Chips führen KANN.

nVidia hat den HotClock weg gelassen. Daher musst du doppelt so viele Shader haben wie bisher für die gleiche Leistung (so grob)

Man muss allerdings beachten dass die GTX 600 Serie von Haus aus höher getaktet ist und die Taktrate irgendwo zwischen dem "alten" Chiptakt und der Hotclock liegt Ein gutes Beispiel: GTX 480 hat 700 MHz Chiptakt und 1400 Mhz Hotclock, eine GTX 680 hat 1058 MHz Takt bei vollem Turbo und liegt fast in der Mitte.

nVidia kann viel erzählen, wenn der Tag lang ist...
Es ist unwahrscheinlich, das Sie wirklich eine dedizierte DP-Unit gebaut haben. Man kann nämlich für FPUs die SP Unit mit recht wenig Aufwand zu einer DP-Unit machen. Wer schon mal Multiplizierer auf Gatterbasis gebaut hat, weiß das...

Genau so kann deine Ausführung auch falsch sein. Fakt ist, die DP Leistung ist gering. Meine Ifos hatte ich aus der PCGH, aber das muss nix heissen.

Das wird GARANTIERT kein eigener Chip. Das Volumen im HPC-Markt ist zwar massiv angestiegen, aber noch immer viel zu klein, um die Entwicklungskosten für so einen Chip rein zu holen. Zudem kannst du da eben nur die Sahne verkaufen, also die besten Chips. Den ganzen Rest musst du aber auch irgendwo unter bekommen, und dieses "irgendwo" ist halt der Consumerbereich. Da kannste noch ziemlich viel "Schrott" an den Mann bringen für gutes Geld. Die Alternative wäre nämlich Müllhalde, und da musste am Ende noch für zahlen....

Ne 14 SMX Version wird es sicherlich noch dieses Jahr noch geben, aber eher für HPC als Tesla, denn als GeForce.

Und was soll hier "falls Bedarf besteht" bedeuten. Bedarf besteht immer, aber es trifft eben der zweite Teil zu "die Ausbeute mit macht" GENAU das ist doch das Problem, und da der Prozess schon 1 Jahr alt ist, sollte man auch nicht von all zu schnellen Verbesserungen ausgehen. Sprich eher dann 2014 ne 14 oder 15 SMX Version als Refresh, und davor als Tesla mit gewaltigem Aufschlag.


Doch wird er ziemlich sicher. Du brauchst ja bei den beschissenen Yealds XY-Wafer, um erst mal genug Chips für den HPC zu bekommen. Dann haste aber noch immer sehr viele Z chips, die zwar für ne GeForce taugen würden, aber eben nicht für ne Tesla, weil ECC nicht funktioniert, oder oder oder. Die Chips schmeiste nicht einfach auf den Müll. Die machste noch zu richtig schönem Geld. Ansonsten haste auch kaum ne Chance, die Entwicklungskosten wieder rein zu holen. Du hast ja einfach gewaltige Fixkosten für R&D, aber auch für die Erstellung der Masken usw. Wenn ich es richtig im Kopf habe, musste für ne Maske(n-Satz?) >10Mio €/$ rechnen. Das muss man erst mal wieder rein holen... Allein für die Maske wirst du schon 5-10k Teslas brauchen, wenn nicht mehr je nach Yeald. So nen 300mm Wafer soll ja 6-8k€ kosten, und wenn du da nur 10 Chips raus bekommst, die für ne Karte taugen, dann wirds halt echt bitter...

Und wer bezahlt R&D, wer bezahlt die Masken, wer bezahlt die Validierung?

Ihr stellt euch das immer so einfach vor... Als ob man da paar Kästchen zusammenklickt, und tata hat man nen neuen Chip....

Wenn du so nen abgespeckten Chips konstruierst, dann musst du trotzdem einen großteil der Validierung laufen lassen, denn die einzelnen Bauteile haste zwar schon validiert, aber du musst auch schauen, ob die Signalwege/Timings stimmen, ob du V-Drops hast, ob nichts falsch geroutet/angeschlossen ist usw usw usw usw usw.... Das kostet alles sehr viel Zeit und Geld...

...
Siehe oben.... Ihr stellt euch das alles VIEL zu einfach vor....
Und wie gesagt, so ne Maske(n-Satz?) kostet >10Mio €/$

Zum Thema eigener Chip: Also Vorstellung hin oder her, der GK106 und der GK107 haben ja schon gezeigt das sowas geht. Bei den Fermis das Gleiche. Intel hatte mit dem Core i7 3820 auch einen ganz eigenen Chip ausgebracht (wahrscheinlich aber auch als Xeon verwendet, weiß ich nicht so genau). Wieso sollte es nicht auch einen GK114 oder GK116 geben. Ich finde darüber kann man ruhig spekulieren.
Oder sehe ich das falsch? Was ist an einem Chip wie dem GK106 gegenüber dem GK104 jetzt anders oder wenbiger aufwändig, als bei einem möglichen Chip wie aus meiner Fantasie?

Btw.: Hast du ein paar Quellen für die Wafer usw. Preise? Würde mich wirklich interessieren was sowas kostet.
Mich machen die Wafer Preise etwas stutzig, wenn ein 300mm Wafer 6000$ kostet, wären dass nach einer kleinen Überschlagung (falls ich richtig liege) über 40$ pro 300mm² Chip. So ganz ungefähr. Kommt mir etwas teuer vor? Aber vielleicht habe ich auch ganz falsch gerechnet.

bye
Spinal
 
Zuletzt bearbeitet:
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Man muss allerdings beachten dass die GTX 600 Serie von Haus aus höher getaktet ist und die Taktrate irgendwo zwischen dem "alten" Chiptakt und der Hotclock liegt Ein gutes Beispiel: GTX 480 hat 700 MHz Chiptakt und 1400 Mhz Hotclock, eine GTX 680 hat 1058 MHz Takt bei vollem Turbo und liegt fast in der Mitte.
Deswegen sagte ich ja auch "so grob"...

Genau so kann deine Ausführung auch falsch sein. Fakt ist, die DP Leistung ist gering. Meine Ifos hatte ich aus der PCGH, aber das muss nix heissen.
Na die Ausführung ist nicht falsch. Es braucht schlicht wenig extra Hardware um aus SP 1/24 DP FPUs zu machen. Es kann aber dennoch sein, das Sie trotzdem dedizierte DP-FPUs haben, es macht nur ABSOLUT keinen Sinn...

Daher darf man daran durchaus zweifel haben.

Zum Thema eigener Chip: Also Vorstellung hin oder her, der GK106 und der GK107 haben ja schon gezeigt das sowas geht. Bei den Fermis das Gleiche. Intel hatte mit dem Core i7 3820 auch einen ganz eigenen Chip ausgebracht (wahrscheinlich aber auch als Xeon verwendet, weiß ich nicht so genau). Wieso sollte es nicht auch einen GK114 oder GK116 geben. Ich finde darüber kann man ruhig spekulieren.
Oder sehe ich das falsch? Was ist an einem Chip wie dem GK106 gegenüber dem GK104 jetzt anders oder wenbiger aufwändig, als bei einem möglichen Chip wie aus meiner Fantasie?
Dir ist der Unterschied zwischen GK104, GK106 und GK107 bekannt?

Das sind Chips für unterschiedliche Leistungsbereiche, wo man aufgrund ausreichender Yealds eben kleinere Chips fertigen kann, die dann auch wieder sehr gute Yealds haben. Zudem hast du da einfach richtig große Absatzmengen. DAS solltest du nicht vergessen. Von einem GK106 oder GK107 wird ein vielfaches im Vergleich zu einem GK104 verkauft. Ganz zu schweigen von einem GK110.

Zudem ist es halt wie schon gesagt ein gewaltiger Unterschied, ob ich ne extra Maske/Entwicklung für kleinere Chips mache, wo ich sehr hohe Volumen habe, und richtig viel einsparen kann, oder ob ich mit selbst Konkurrenz innerhalb des eigenen Hauses mache, die dann auch noch unwesentlich kleiner ist, und dazu führt dass ich bei der einen Linie (GK110) auch noch mehr Müll habe, weil ich die Teildefekten Chips nicht mehr als GeForce umlabeln kann....

Ich hoffe du erkennst den Unterschied.

Btw.: Hast du ein paar Quellen für die Wafer usw. Preise? Würde mich wirklich interessieren was sowas kostet.
Mich machen die Wafer Preise etwas stutzig, wenn ein 300mm Wafer 6000$ kostet, wären dass nach einer kleinen Überschlagung (falls ich richtig liege) über 40$ pro 300mm² Chip. So ganz ungefähr. Kommt mir etwas teuer vor? Aber vielleicht habe ich auch ganz falsch gerechnet.

bye
Spinal
Ne, das sollte so passen. Wenn du näheres wissen willst, frag Ailuros ausm 3DCenter. Der ist da allgemein recht gut informiert.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Dir ist der Unterschied zwischen GK104, GK106 und GK107 bekannt?

Das sind Chips für unterschiedliche Leistungsbereiche, wo man aufgrund ausreichender Yealds eben kleinere Chips fertigen kann, die dann auch wieder sehr gute Yealds haben. Zudem hast du da einfach richtig große Absatzmengen. DAS solltest du nicht vergessen. Von einem GK106 oder GK107 wird ein vielfaches im Vergleich zu einem GK104 verkauft. Ganz zu schweigen von einem GK110.

Zudem ist es halt wie schon gesagt ein gewaltiger Unterschied, ob ich ne extra Maske/Entwicklung für kleinere Chips mache, wo ich sehr hohe Volumen habe, und richtig viel einsparen kann, oder ob ich mit selbst Konkurrenz innerhalb des eigenen Hauses mache, die dann auch noch unwesentlich kleiner ist, und dazu führt dass ich bei der einen Linie (GK110) auch noch mehr Müll habe, weil ich die Teildefekten Chips nicht mehr als GeForce umlabeln kann....

Ich hoffe du erkennst den Unterschied.

Ja, ich verstehe was du meinst, für mich ist es dennoch denkbar, dass auch ein GK114 als GTX 780 kommt und kein GK110 als Geforce.

Ne, das sollte so passen. Wenn du näheres wissen willst, frag Ailuros ausm 3DCenter. Der ist da allgemein recht gut informiert.

Danke :)

bye
Spinal
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Ja, ich verstehe was du meinst, für mich ist es dennoch denkbar, dass auch ein GK114 als GTX 780 kommt und kein GK110 als Geforce.
Der Gk114 wird als solcher gar nicht angezweifelt, findet sich doch sicher schon in irgend einem Treiber?
Was nicht passieren wird, ist eine extra-High-End Maske die nur für den Consumer Market konzipiert ist.
 
AW: Tesla K20: Endgültige Spezifikation der K20 mit GK110-GPU enthüllt

Aber was ist denn mit dem GK104? Ist das nicht auch eine eigene High-End Maske für den Consumer Markt?

bye
Spinal
 
Zurück