GK110: Weitere Details zur größten GPU der Welt

AW: GK110: Weitere Details zur größten GPU der Welt

Genau! Und Leider! :( Weil wenn man Downsampling + verschiedene AA-Modi kombiniert + Hi-Res Mods ist die GraKa sofort am Limit... also da sind natürlich 6GB ein feuchter Traum. :sabber:

Es ist anders wenn man Strategiespiele spielt, da ist die Prozessorleistung deutlich wichtiger. :D
 
Zuletzt bearbeitet:
AW: GK110: Weitere Details zur größten GPU der Welt

@skysnake
Layouts führen dauert nunmal und ist nicht wirklich mein Ding. Mir fehlt da der Reiz. Bin auch trotz Ausbildung arbeitstechnisch nicht im Elektronikberreich tätig sondern aktuell quasi in der Metallindustrie. Grad an Metalografie etc. lernen... Sprich eigene Fortbildung im Elektronikberreich was tools etc. anbelangt Fehlanzeige. Hiess ja früher, die tools kommen nahe dran und da geht was. Was draus geworden ist hmm nunja bin nicht up to date.
Ich wollte ja nur zum Ausdruck bringen, dass die Tolls nicht soo toll sind, wie einige meinen, und man trotzdem Leute mit VIEL Erfahrung dahinter setzen muss, damit die Dinger auch was brauchbares ausspucken. Der Teufel steckt halt wie immer im Detail....

Ich sitz jetzt auch schon locker 20h länger an nem Problem, als ich eigentlich gedacht habe, und bin aktuell ziemlich am Kotzen, weils doch deutlich komplizierter ist als gedacht :-_-:
 
AW: GK110: Weitere Details zur größten GPU der Welt

Ich hoffe dass schon anfang nächsten Jahres eine GTX Karte auf Basis des GK110 kommt die fände ich nähmlich sehr interessant...
 
John-800 schrieb:
Das Dingens soll gefälligst diesen Sommer raus! Die jetzige GTX680 ist nur Mainstream und die haben den GK110 garantiert schon fertig, oder wie war das mit der speziellen Strategie laut Lars? Die haben sich gedacht hauen wir die GK104 jetzt als Oberklassekarte raus, AMD kann ja sowieso im Augenblick nicht kontern, falls doch hauen wir den GK110 kurz danach raus, ansonsten lassen wir uns Zeit um mit dem GK 104 Kohle zu scheffeln. Da kann mir kommen wer will, das Dingens ist schon fertig. Die wollen nur Piraten spielen....

4GB sollten fürn Desktop definitiv reichen. Solange die aktuellen Konsolen die Oberhand haben sowieso. Der Grafikschwung ist garantiert erst nächstes Jahr zu erwarten, wenn die neuen Konsolen endlich mal auf den Markt kommen. Ja die lassen uns alle mit allem grad zappeln!!!

Und wenn sich nvidia mit dem release wirklich soviel Zeit lassen will, tausch ich meine zweite GTX580 von Palit gegen eine von EVGA bzw. die gleiche rein aka SC von EVGA wie berreits vorhanden und hau auf beide Wasserkühler drauf... bis big Kepler endlich rausgehaun wird.

Nvidia lässt dich keine Zeit: Zum Thema Zeitplan zitiere ich mich gerne mal aus einem anderen Thread:

Warum erwarten denn plötzlich alle, dass der Rythmus von einer GPU-Reihe pro 12 Monate, der ja die letzten Jahre immer galt (mal plus/minus 1 bis 2 Monate), plötzlich nicht mehr gilt? Ich denke, dass einfach die Erwartungshaltung bei vielen hier nicht mehr der Realität angemessen ist. Wenn AMD/Nvidia ein Takt-Upgrade bringen (wie die 4890 damals) oder einfach noch eine Karte verspätet in das aktuelle Portfolio einfügen, um defekte Chips noch zu verwerten (GTX 560-448), dann kann das natürlich auch mal außerhalb des 12-Monate-Rythmusses passieren, aber einen Sprung wie von GK104 zu GK110 wird bestimmt NICHT außerhalb des Jahresrythmusses erscheinen (Dies sei vor allem jenen gesagt, die den GK110 noch im Herbst für gesichert hielten und gar für die aktuelle Zeit erwarteten). Demnach passt ein Erscheinungstermin Ende des Q1 bis Anfang Q2 gut in den Rythmus.

Jetzt noch eine persönliche Meinung:

Es wird ja von einigen "Insidern" hier dauernd verbreitet, dass der GK110 schon längst fertig sei und Nvidia ihn schon längst releasen könnte, wenn sie denn in Zugzwang wären. Meiner Meinung ist es höchst unwahrscheinlich, dass Nvidia den GK110 so lange "im Schrank liegen lässt", bis die Konkurrenz vorgelegt hat und ein Handlungsdruck da ist. Man erinnere sich nur daran, wie es Anfang des Jahres 2010 aussah: AMD hatte im Herbst 2009 mit dem Cypress-Chip sehr stark und energieeffizient vorgelegt. NVidia hatte die Konkurrenz überrascht und Nvidia musste Fermi noch einmal überarbeiten, um die Leistungskrone (Nein, nicht mit dem Holzhammer, sondern mit dem Pfannenwender :ugly:) zurückzuholen.

Man übertrage die Situation auf heute: Nvidia steht, was Leistung und Energieeffizenz betrifft, sehr gut da. Man zwingt die 79X0er zu niedrigeren Preisen. AMD steht unter Druck. Wenn man nun ein Chipmonster wie den GK110 im Schrank hat, der (angeblich) schon sehr weit fortgeschritten ist, dann wird man doch versuchen, AMD in dieselbe Situation zu bringen wie man im Jar 2010 selber war (so würde ich es zumindest machen). Man released den neuen Chip so früh wie möglich und setzt AMD noch mehr unter Druck. Und vielleicht wiederholt sich ja die Fermi-Story und AMD muss seinen Chip noch einmal überarbeiten, um konkurrenzfähig zu bleiben, und verspätet sich enorm...

Zu folgender Aussage würde ich auch gerne mal was sagen:

John-800 schrieb:
Textur Mods solltens auch nicht sein ,den davor geht wohl die Rechenleistung in die Knie. Auflösung aka 3 Monitore auch weniger, da jene normalerweise nicht dermassen den vram anschwellen lässt.

Irgendwie hast du hier zwei kapitale Denkfehler drin:

1. Texturmods kosten keinerlei Rechenleistung. Solange der Speicher und dessen Anbindung ausreichen, kostet ein Texturpaket genau null fps.

2. Eine Nutzung von hohen Auflösungen/Downsampling/Multi-Monitoring fressen enorm viel Videospeicher. Das ist auch der Grund dafür, warum die 5870 mit einem Gigabyte VRam für Eyefinity nur sehr eingeschränkt geeignet war. Die 5870 mit 2GB VRam brach bei weitem weniger ein.
 
Zuletzt bearbeitet:
AW: GK110: Weitere Details zur größten GPU der Welt

Auch muss ich immer schmunzeln, wenn irgendwelche "Gamer" 16GB ram verbauen. Wozu, wenn man Spiele nutzt, die bei 2Gb zwecks 32bit abgeriegelt sind "G".

Woher willst du bitteschön wissen, dass die Menschen nur weil sie "auch" Gamer sind, den RAM nur für Spiele nutzen? :ugly:

Für beispielsweise Video bzw. Fotobearbeitung oder Rendering kann man niemals genug RAM besitzen!
Und das ist heutzutage mehr als normal, das man mal Videos editiert oder seine Fotosammlung mal etwas auffrischt. ;)

Darum gibt es da auch nichts zu "schmunzeln". :schief:

P.S. 32 bit Spiele müssen nicht zwingend ein Hindernis für die Nutzung von mehr RAM sein.
GTA 4 ist da ein sehr gutes Beispiel für. ;)
 
AW: GK110: Weitere Details zur größten GPU der Welt

Woher willst du bitteschön wissen, dass die Menschen nur weil sie "auch" Gamer sind, den RAM nur für Spiele nutzen? :ugly:

Für beispielsweise Video bzw. Fotobearbeitung oder Rendering kann man niemals genug RAM besitzen!
Und das ist heutzutage mehr als normal, das man mal Videos editiert oder seine Fotosammlung mal etwas auffrischt. ;)

Darum gibt es da auch nichts zu "schmunzeln". :schief:

P.S. 32 bit Spiele müssen nicht zwingend ein Hindernis für die Nutzung von mehr RAM sein.
GTA 4 ist da ein sehr gutes Beispiel für. ;)
Ich bitte dich. Diese 100 Leute, die tatsächlich mit Photoshop 16GB brauchen zählen einfach nicht für eine allgemein gültige Aussage. Es ist die Ausnahme und kaum einer der restlichen 99% kommt auch nur auf 8GB Nutzung. Ein PROFI benötigt in Ausnahmefällen vielleicht so viel, aber nicht wir Hobbypiloten. Ich hab 8GB in meinem System und ich habe nicht den Eindruck, dass ich mehr als 4 genutzt habe. Und bei den popeligen Fotoänderungen, die ich und die meisten machen, zählt halt hauptsächlich der Prozessor und nicht 16 GB Ram. Ram ist halt billig dieser Tage und so hat jeder zu viel drin.
Ist ja nicht schlimm. Bloß dieses ewige so tun, als ob man alles immer genau überlegt hat und man immer genau versteht wie alles funktioniert und man ist ja so "on top of things" geht mir heutzutage tierisch gegen den Strich. Nee, eben nicht. Man liest, man glaubt, man glaubt nicht, man kauft und überzeugt sich selbt von einem guten, sinvollen Kauf, damit das Geld sinnvoll ausgegeben scheint. Das ist der Eindruck, der mir bei allen technischen Dingen auffällt. Bei Autos und Fernsehern ist das auch so. Eigentlich eine Männerdomäne, gibts mittlerweile immer mehr Frauen, die bei technischen Zusammenhängen dauerhaft glauben, sie müssten anderen Leuten was erzählen, obwohl sie selbst null Ahnung haben.
Und der arme Speicher spielt in diesem Spiel halt auch mit.:(

Zu GTA4:. wie viel hat es denn bei dir benötigt, 8 GB?;) Ich kann auch das nicht sehen/erkennen.
 
AW: GK110: Weitere Details zur größten GPU der Welt

Ich bitte dich. Diese 100 Leute, die tatsächlich mit Photoshop 16GB brauchen zählen einfach nicht für eine allgemein gültige Aussage. Es ist die Ausnahme und kaum einer der restlichen 99% kommt auch nur auf 8GB Nutzung. Ein PROFI benötigt in Ausnahmefällen vielleicht so viel, aber nicht wir Hobbypiloten. Ich hab 8GB in meinem System und ich habe nicht den Eindruck, dass ich mehr als 4 genutzt habe. Und bei den popeligen Fotoänderungen, die ich und die meisten machen, zählt halt hauptsächlich der Prozessor und nicht 16 GB Ram. Ram ist halt billig dieser Tage und so hat jeder zu viel drin.
Ist ja nicht schlimm. Bloß dieses ewige so tun, als ob man alles immer genau überlegt hat und man immer genau versteht wie alles funktioniert und man ist ja so "on top of things" geht mir heutzutage tierisch gegen den Strich. Nee, eben nicht. Man liest, man glaubt, man glaubt nicht, man kauft und überzeugt sich selbt von einem guten, sinvollen Kauf, damit das Geld sinnvoll ausgegeben scheint. Das ist der Eindruck, der mir bei allen technischen Dingen auffällt. Bei Autos und Fernsehern ist das auch so. Eigentlich eine Männerdomäne, gibts mittlerweile immer mehr Frauen, die bei technischen Zusammenhängen dauerhaft glauben, sie müssten anderen Leuten was erzählen, obwohl sie selbst null Ahnung haben.
Und der arme Speicher spielt in diesem Spiel halt auch mit.:(

Zu GTA4:. wie viel hat es denn bei dir benötigt, 8 GB?;) Ich kann auch das nicht sehen/erkennen.

Wie gesagt du schließt von dir auf andere. Jeder User ist anders.
Ich kenne ne menge die den Speicher auch voll kriegen und das sind mehr als 100.
Natürlich gibt es auch viele darunter, die einfach nur vorgesorgt haben. Was ist so schlimm daran. ;)

Wenn´s danach ginge, dann müsstest du auch jeden anprangern der sich ne GTX 680 oder so besorgt. Braucht man jetzt schließlich auch nicht. :ugly:
 
AW: GK110: Weitere Details zur größten GPU der Welt

Du, daran ist gar nichts schlimm. Ich hab ja auch zuviel Ram drin. Es geht mir darum, dass die Leute immer so tun, als ob sie es bräuchten. Lächerlich! Kaum einer BRAUCHT das. Und mit der GTX 680 hast du recht. Wer mir erzählen will, dass er ja nicht weiter daddeln könne, weil er noch keine 680 hat, der macht sich einfach lächerlich und blamiert sich bis auf die Knochen. Menschlich einfach nicht ernst zu nehmen. Und sowas lese ich hier permanent. Wenn man Unsinn macht sollte man auch dazu stehen. DAS ist mein Punkt. und ich glaube nicht, dass mehr als 2% der PC Nutzer die 16 GB voll kriegen. Deine 100 Spezis vielleicht, aber nicht der Mediamarkt-Pöbel. Soviel zum Thema "Du schliesst von dir auf andere".;)
 
Hm, ich max BF3 mit ner 520 GT und brauche zum rendern nie mehr als 2 GB und ich render die Ränder der Milchalee - im Ernst lass sie doch Müll von sich geben, ist doch unterhaltsam;)
L
 
AW: GK110: Weitere Details zur größten GPU der Welt

so ist die commulity, je fetter was ist desto mächtiger ist man in der i-net welt :P

@topic: mir eigentlich egal um die gk110, klingt wieder nach so super brachial power karte.. ob´s so fett wird, mal schauen.
 
AW: GK110: Weitere Details zur größten GPU der Welt

Man o man, verschiedene Einstellungen hier kann ich Nachvollziehen auch wenn ich anderer Meinung bin, mancher hier geschrieben führt aber leider zu extremen Kopfschütteln, darum kann ich ja auch mal meine Meinung präsentieren (vielleicht schüttelt ja auch hier ein anderer den Kopf :ugly: )

Der GK110 soll im Vollausbau 15 SMX mit je 192 Cuda-Cores haben, die sündhaft teuren "perfekten" Tesla Karten werden aber nur 13-14 SMX Einheiten Aktiviert haben (Quelle Berichte von der GTC) somit "nur" 2496-2688 Cuda Cores haben. Alleine durch diesen Fakt gehe ich eher davon aus dass die Geforce Version zwecks Resteverwertung mit nur 12 SMX Einheiten daher kommt, also 2304 Cuda-Cores. Das sind knapp 33% Mehr Rechenkerne zum GK104, durch die Grösse des Chips wird der Stromverbrauch und Hitzeentwicklung aber deutlich höher sein, resp. der Takt wird um ein gutes Stück gesenkt.

Zum Ram, machen wir und hier nix vor, Ja die GTX680 bricht je nach Ereigniss stark ein, allerdings bricht sie zu einem Zeitpunkt ein, wo z.b. die AMD 7970 so eine Geringe Frame-Rate aufzeigt, dass ist so nicht spielen würde, alles unter 30fps ist absoluter no-go, dann verzichte ich lieber auf so hohe Auflösungen oder DS, SSAA.... bei den Benchmar wo beide Karte dann wieder Spielbare FPS liefern, hat die GTX680 it ihren NUR 2gb VRam, dann aber wieder meist die Nase vorne. Gehe hier davon aus dass die GTX780 mit 3GB kommen wird (wegen dem Speicher Interface) und Custom Designs mit 6GB (was in meinem Augen reines Marketing ist).
Bei den Telsa Karten sieht es anders aus, hier wird mehr Ram benötigt und wenn die Speicherchips es zulassen werden die mit sicherheit mit 12GB ausgeliefert.

Schlussendlich gehe ich davon aus dass eine GTX780 etwa 20% mehr Leistung haben wird bei einer geschätzten TDP von 225W und so gegen März 2013 verfügbar sein wird.

Erst Maxwell (GM100 ?) wird dann wieder grössere und interessantere Neuerungen bringen.
 
Zurück