GPU-Z Screen vom GK110 Chip

scoppy194

Kabelverknoter(in)
Juten Abend allerseits,

es gibt wieder neues Infomaterial zum GK110 Chip den ich Euch nicht vorenthalten möchte:D. Der GPU-Z Screen stammt von der gleichen Quelle wo es gestern schon mal Infos gab.
¡¾*TOP SECRET NVIDIA¸ç ×îÐÂÇ鱨 keplerÕÕƬGTX780Íâ¹ÛºÍ¹æ¸ñй©ÏûÏ¢¡¿-µÚ50Ò³-DIYÓëÔÜ»úÂÛ̳-ZOLÖйشåÔÚÏß

Wenns wirklich stimmt, überspringt NV doch nicht die 6 Reihe wie erst angenommen (aka. GTX780) als High-End Chip.

Macht Euch selber nen Bild.

Gruß scoppy194
 
Sollte der GPU-Z Screen stimmen, wurde die Anzahl der Transistoren/Shader verdoppelt, der Speicher mit 512Bit angebunden.
na ja bin skeptisch, wäre klasse, aber...
 
Ist sowieso ein Fake. Photoshop lässt grüßen.

Ich denke auch.
Der GK110 soll keine Hotclocks mehr haben, d.h. Shadertakt und GPU-takt sollen gleich sein.
Wenn man aber die verwaschene Schrift im Bereich GPU- und Shadertakt im GPU-Z Screen vergleicht, finde ich, dass die "Zahl" im Bereich Shadertakt größer ist als die im GPU-Takt-Bereich.

Sollte der GPU-Z Screen stimmen, wurde die Anzahl der Transistoren/Shader verdoppelt, der Speicher mit 512Bit angebunden.
na ja bin skeptisch, wäre klasse, aber...
Wie es mit den Transitoren aussieht, ka. Aber die Shader sollen, eben weil es keine Hotclocks mehr gibt, sogar noch mehr sein, ca. 1500 um die fehlende Leistung wieder auszugleichen...
 
ganz ehrlich:

mit 6000millionen transistoren wird das ein richtiger heizer, da der wechsel von 40 auf 28nm die effizienz nicht verdoppelt.
also richtig schnell für alle die gerne bereit sind nach dem kauf noch drauf zu zahlen beim strom^^. wollen wir hoffen das es ein fake ist und nvidia vllt mal wieder was entwickelt was auch ohne 300+watt verbrauch auskommt bei ssaa denn sonst bleibt einem ja ncihts übrig als auif maxwell zu warten wo ja laut roadmap endlcih ein besseres watt/performance verhältnis erreicht werden soll.

mfg
 
Sollte der GPU-Z Screen stimmen, wurde die Anzahl der Transistoren/Shader verdoppelt, der Speicher mit 512Bit angebunden.
na ja bin skeptisch, wäre klasse, aber...

Unrealistisch wäre das nicht- fragt sich dann nur, wie viel dieses Monster dann kostet...

Und wann es kommt :ugly:



Ich denke aber auch, dass es ein Fake ist
 
512 Bit Interface kann schon stimmen, wenn man schon max GDDR5 V Ram nehmen kann dann muss halt das Interface hoch.
AMD hat als letzten Trumpf immer noch XDR2 Vram, um nochmals kontern zu können, sollte der GK110 wirklich richtig gut werden.
Wirklich viel Aussagekraft hat der screenshot aber nicht.
 
AMD hat als letzten Trumpf immer noch XDR2 Vram

Das ist doch schon seit Wochen widerlegt - das war ne ENTE! :ugly:


Und dass das ein (auch noch schlechter) Fake ist sieht man sofort wenn mans ein bissl größer macht, Beispiel:
fake.png
 
Zuletzt bearbeitet:
Mein Fake-Check:

Das Problem habe ich schon gefunden. Die Namen von GPUs ist immer mit großen Buchstaben samt Zahlen zu versehen wie z.B. Nvidia Geforce GTX 460 (GF104); Geforce GTX 560 (GF114). Auf GPU-Z Screenshot eines Geforce GTX 680 ist das GPU als Gk110 identifiziert. Offiziell soll GK110 heißen. Schriftglättung kann unter Vista/7 aktiviert bzw deaktiviert werden. Er hat die Schriftglättung deaktiviert, um Fakes vorzutäuschen.

So... noch weitere verschwommene Stellen, was ein Faker alles gemacht hat...

ROPs (zweistellig) 48?
Bus Interface wie gewohnt PCIe 3.0 x16...
Pxelfüllrate - total verschwommen, leider nicht erkennbares.
Texturfüllrate - ~50,4
Bandbreite (dreistellige Zahlen) ~2xx,xx GB/s
GPU Clock (dreistellige Zahlen) ~7xx Mhz
Memory (vierstellig Zahlen) ~1xx2 Mhz
Shader (vierstellige Zahlen) ~15xx Mhz

Nvidia ForceWare 3xx.xx gibt es nicht. Kann nur höchstens die Betaversion 290.xx von der offiziellen Seite geholt werden.


Die Taktrate ähnelt sich wie eine Geforce GTX580. Wenn man es ein bisschen übertaktet, steigert die Bandbreite vom Speicherchips und die Pixel- und Texturfüllraten kann schneller gerendert werden.

Am Ende stellte ich fest: Eine leicht übertakteter Geforce GTX580

@Faker
F! (US-Schulnote)

Das wars! Mein Fake-Check ist zu Ende! :D

Mfg,
RedBrain


 
Zuletzt bearbeitet von einem Moderator:
Mal abgesehen davon, dass es keinen Grund gibt, die Anzahl der Lanes zu verpixeln oder die Taktraten.
Ganz zu schweigen davon, dass Die-Size und Anzahl der Transistoren innerhalb des Programms in einer internen Liste stehen und nicht irgendwie aus der Luft berechnet werden. Woher weiß GPU-Z dann die Anzahl der Transistoren (Ah - dann weiß der Programmierer wohl mehr - aber die Die-Size kennt er nicht?).

Natürlich kann es Forceware 3xx geben. DAS ist kein Argument. Könnte eine Kepleronly interne Version sein. ;)
Und der Screenshot ist manipuliert und nicht echt, da hat unser Alk recht. Man sieht es an den Pixeln. Wenn ich GPU-Z aufrufe sind die Abstände zwischen gleichen Zeichenpaaren immer gleich. Beim Screenshot ist das nicht so.

Da war nur jemand zu faul, das richtig durchzuziehen, deshalb gibts Gepixel.
 
Zuletzt bearbeitet:
@OctoCore

Weil das Tool es nicht kann. Er erkennt nur GK107, sonst nichts.

GPU-Z 0.5.6
- Removed PowerColor hardware giveaway
- Added support for ATI Radeon HD 6320, ATI FirePro V9800, AMD FirePro V4900
- Added support for GeForce GTX 560 Ti 448 cores, GeForce GTX 460 v2, NVIDIA Quadro NVS 420, NVIDIA Quadro NVS 450, NVIDIA Quadro FX 380 LP
- Fix for incorrect shader reading on Blackcomb
- Added basic detection for NVIDIA Kepler GK107
Quelle
 
Okay - dann mag die Transistorzahl stimmen - Trotzdem ist der Shot manipuliert.
Und wenn der Faker nicht einmal in der Lage ist, vernünftig ein Grafikprogramm zu bedienen, halte ich ihn erst recht nicht fähig, einen Treiber zu manipulieren (was gar nicht so einfach ist - die Treiber sind ganz gut geschützt dagegen, schon allein deshalb, um die erweiterten Features für Quadro und Co. nicht einfach so freischalten zu können - da braucht man schon sehr intime Kenntnisse der internen Struktur und der Checksummen).
Ist wahrscheinlich so, wie du schreibst - irgendeinen Shot einer normalen Karte genommen - aber dann ein wenig lahm nachgearbeitet.
 
Du glaubst immernoch an die XDR2 Gerüchte?! :wow:

nein, nicht bei der HD 7970 oder 7950.
Wenn aber Kepler sehr gut wird, und AMD schon deutlich zurückfällt, wird AMD irgendwie nachlegen müssen.
Und da ist nun mal die beste Möglichkeit einfach schnelleren Vram zu nehmen :D
Vielleicht also beim HD 7970 Nachfolger, wenn sich AMD genötigt sieht, mehr Performance zu liefern
 
Und da ist nun mal die beste Möglichkeit einfach schnelleren Vram zu nehmen :D

Das "einfach schnelleren vRAM nehmen" impliziert aber auch die komplette Neuentwicklung des Speichercontrollers in der GPU (womöglich noch für GDDR UND XDR Unterstützung) damit diese den XDR auch "versteht" und hat somit eine Neuentwicklung der GPU und im Falle der Unterstützung beider Standards auch eine weit größere Die-Fläche zur Folge.

Das ganze ist so aufwendig und teuer, dass es wenn überhaupt nur bei einer neuen Architektur sinnvoll wäre und nur dann, wenn die eventuelle Mehrfläche an benötigtem Die durch die XDR Nutzung auch einen wirklich großen Performancesprung bringen würde.

All das ist eigentlich ein Indiz dafür, dass wir so schnell keine XDR Karten sehen werden. Da wird im Falle einer massiven Bandbreitenlimitierung wohl eher die Taktrate der GDDR5 Chips oder die Speicheranbindung gepimpt.
 
Zurück