Nvidia Kepler: Schneller als als Fermi bei geringerer TDP?

hattest du mal ne 8800 gtx in deinem pc? ich hatte mal eine zum verkaufen vor kurzem von nem kumpel. das gehäuse war offen und ich habe nur mal schnell im windows geprüft, ob sie einwandfrei läuft. danach habe ich den pc ausgeschalten und wollte sie ausbauen. habe mir dabei fast die finger verbrannt! die wurde dermaßen heiß. da kann man bei fermi und vor allem dem gf110 zu so lachen!

Ja klar,sonst könnte ich doch diese Aussage gar nicht tätigen! :schief:
Habe mir,aufgrund der Temps,auch nen anderen Kühler draufgebastelt-AC-extreme oder so hiess Der! Hat locker 20 Grad gebracht!!! :daumen: Und war um Einiges leiser! Habe ich auch noch zu nem guten Preis abtreten können!
 
Naja.. mir persönlich würde es nicht weh tun.Ist mir völlig Wurscht,solange sie nicht kaputt geht.Und Wegen ausgefallener Klimaanlagen,und Überhitzung,hatte ich noch nie,ein Drama.:D:lol:
 
Alles andere wäre ja auch mehr als verwunderlich, denn wer würde sich schon ein Produkt zulegen, das bei höherer TDP langsamer als der Vorgänger wäre? :ugly:
 
Schneller als als Fermi???

Warum warum ist ist den den das das als als zwei zwei mal mal vorhanden vorhanden ? ?
 
@PCGH: würde es gut finden wenn Ihr dinge wie "Das Oak Ridge National Laboratory (ORNL)" mit nem Link zu Wikipedia versehen würdet.
 
In der News ist noch ein Fehler drin, den noch keiner gesehen hat. :ugly:

Im Text ist die Rede vom XT6, in den bildern von einem XK6.



eine Verdreifachung? unglaubwürdig!
 
Ich wäre schon bei gleicher Leistung der GTX580 und deutlich weniger Stromverbrauch zufrieden.
Weniger wegen den Stromkosten sondern wegen der Abwärme.
Wenn ich BF-BC2 zocke wird die Karte nach ner Zeit sau laut und der ganze PC wird extrem warm.
 
Habe ich das richtig verstanden, daß Kepler wegen Leistungsproblemen verschoben wurde ?

Scheint was ernsteres zu sein, wenn die sich sogar das Weihnachtsgeschäft entgehen lassen ;)

Auf jeden Fall will ich mal schwer hoffen, daß sowohl Nvidia als auch AMD uns bloß nicht so'n Abklatsch der Vorgängerserie auftischen (so wie es bei der HD 6800er Serie von AMD der Fall war ! :daumen2: :nene:)
...weniger Stromverbrauch...jaja, toll toll, ist ja schön und gut, aber ich erwarte MINDESTENS das Leistungsniveau der GTX 580, eher noch mehr, und das dann NICHT mehr für über 300 €...

...aber es wird einem sicherlich nicht gegönnt sein, für -sagen wir mal- 229 € nächstes Jahr eine Kepler-Grafikkarte zu bekommen, die dieselbe Leistung hat wie eine GTX 580 :schief:
 
Bis dahin ist man mit einer einzigen GTX 580 mehr als gut bedient. Ich glaube zudem kaum, dass künftige Spiele der nächsten zwei Jahre die Hardware noch stärker fordern als heute. Selbst wenn BF3 stark auf DX11 setzen wird, glaube Ich nicht, dass man damit eine GTX 580 zu 100% auslasten wird.

Das glaub ich kaum, grade BF3 wird vermutlich nicht mal in 1920x1080 dauerhaft über bzw. auf 60fps bleiben (bei 60hz und vsync) was aber dringend nötig ist um wirklich gut spielen zu können. Dank 120hz monitor wären für das "perfekte" spielerlebnis sogar 120fps nötig. Du wirst mir sicher zustimmen das man das von einer GTX580 nicht verlangen kann.

Wenn ich mir die neusten Benchmarks so anschaue,

Battlefield Bad Company 2 in DX11 minimum fps: 42
Metro 2033 in DX11 minimum fps: 33
Crysis Warhead DX10 minimum fps: 30
Starcraft 2 minimum fps: 20
(quelle: pcgameshardware und alle in 1920x1080)

dann sieht man wohl deutlich das es zeit wird für eine neue GPU generation. Ich hoffe das wir nicht bis Maxwell warten müssen bis auch endlich Crysis "spielbar" wird. Und ja, mir ist bewusst das man keine 60/120fps für zum beispiel Anno und ähnliches brauch, auch wenn ich oben Starcraft 2 aufgezählt habe aber bei schnellen "Actionspielen", Egoshootern und Rennspielen ist es mir schon sehr wichtig mindestens 60fps zu bekommen. Und selbst bei Anno sind 60 oder gar 120fps fühlbar besser als zb. 20 oder 30.

Hmm ein Shrink gibt doch im Allgemeinen mehr Spielraum für entweder mehr Leistung bei gleicher TDP oder weniger Verbrauch bei gleicher Leistung oder? "Leistung" auch im Sinne von "mehr Funktionen" einbezogen...

Irgendwas muss sich mit dem gewonnenen platz doch anfangen lassen

Die aussage das ein Shrink bei gleicher TDP nicht zwingend schneller sein muss versteh ich nicht ganz. Das würde ja bedeuten: Die verkleinern den Chip, verbrauchen aber genau so viel strom wie vor dem shrink und die karte ist dabei nicht mal schneller. Also würde die karte einfach nur kühler sein? Oder nicht mal das, weil sie ja gleich viel strom verbraucht? Wenn doch, was hätte das für ein sinn ausser das man sie besser übertakten kann da mehr luft nach oben ist?

Ich seh das eher so wie Incredible Alk, entweder nutzen sie den platz nur für noch mehr features zb. für weitere hardwarebeschleunigung für videos oder ähnliches (die aber keine performance (im eigentlichen sinne) bringen)) oder aber sie nutzen den platz um den chip "größer" zu machen und damit am ende mehr leistung zu bekommen. Wenn der platz ungenutz bleiben würde dann versteh ich die gleiche TDP nicht.
 
Tjaja, wir wären jetzt deutlich schlauer, wenn einer auf der ISC2011 in Hamburg gewesen wäre :(

nVidia war dort, und ich vermute mal SEHR stark, dass die dort etwas über Kepler erzählt haben aus folgenden Gründen:


  • Live-Stream wurde während des Key-Notes ausgeknipst
  • Aufzeichnung war verboten
  • nVidia Deutschland, mit denen ich vorher gesprochen habe, dürfen keine Slides raus geben
  • Es sei wohl kein NDA drauf, aber einige Punkte noch nicht fix, daher keine Slides etc.
Tja schade :( PCGH sollte auf die ISC2011 echt mal jemanden hin schicken. Kostet zwar etwas, aber da gibt es einfach oft was neues zu hören/sehen.
 
Die ISC liegt nicht in unserem Fokus-Bereich, da wir uns idR mit Consumer-Produkten beschäftigen. Unter diesem Aspekt ist zB die dreifache DP-Leistung pro Watt von Kepler laut Nvidia für HPC sehr interessant - für Spieler jedoch bedeutungslos. Du wirst Details zur Architektur etc noch früh genug erfahren.
 
Ja ich hoffe es. Allerdings versteh ich wirklich nicht, warum ihr zumindest in D nicht einen für abstellt. Solltet doch kostenlos rein kommen oder? Mir ist schon klar, das 95% der Sachen halt total wayne sind für euch, aber dort sind halt auch Intel, AMD und nVidia eigentlich immer recht stark vertreten, und die Sachen die die vorstellen betreffen ja sehr oft direkt oder indirekt auch die ganzen 0815 Heimrechner.

Die zwei Märkte können ja nicht ohne einander. Der HPC Bereich treibt die Entwicklung voran, durch immer höhere Anforderungen, und der Gamer Markt, der das gerne mit nimmt, bringt schlicht die Stückzahlen, damit man sich das Zeug auch leisten kann. Das ist den Leuten ja auch klar. GPGPU gäbe es ohne die Gamer nicht! Das muss man so klar sehen, denn die Kosten wären schlicht weg zu extrem ohne die großen Stückzahlen aus dem Gamer-Bereich. "Klingt komisch ist aber so", sagte doch immer wieder jemand :D

Oder nehmen wir die "HotChip 21" vom 17.-19. August 2011. Da findet man folgendes:

  • AMD "Bulldozer" Core - a new approach to multithreaded compute performance for maximum efficiency and throughput
    Authors: Mike Butler
    Affiliations: AMD
  • AMD's "Bobcat" x86 Core - Small, Efficient and Strong
    Authors: Brad Burgess
    Affiliations: AMD
Link: Hot Chips - Conference Day Two
Ich denke, da würden sicherlich sehr viele Leute mit dem Sabber im Mund vor dem PC sitzen, und drauf warten, was es neues gibt. Irgendwas neues gibts da ja immer, auch wenn 90% PR-Geblubber ist. 90 min Rückblick Blablub etc. und 10 Minuten echte Neuigkeiten.

1-2 Seiten sind teils bei solchen Sachen vor Ort, z.B. Computex war das letzte, das ist toll, weil man endlich mal Infos aus "erster" Hand bekommt und nicht irgendwelche Sachen, die schon durch 3-4 Hände gegangen ist. Klar ist das mit nem gewissen Aufwand verbunden, aber die Infos sind halt teils erstklassig. Auf dem Fusion Developer Summit soll ja auch ne Menge spannendes Zeug gezeigt worden sein bzgl. GCN in den Workshops, soweit ich die Flöhe dies richtig husten gehört habe.

PS: Naja, da gibts ja noch viel mehr interessante Sachen für Gamer als das. Ich sag nur globaler Adressraum und Megatextures von ID. So was in der Art soll damit ja recht "einfach" zu implementieren sein und könnte wohl einen gewaltigen Sprung in Sachen Texturqualität mit sich bringen. Dynamisches Nachladen von Texturen aus dem RAM, ohne API/OS-Umwege etc. das hat schon verdammt viel Potenzial für extreme Sachen :hail:
 
Die beiden von dir genannten Präsentationen von der Hot Chips 22 sind öffentlich zugänglich, das NDA fiel während der Konferenz. Davon ab ist in Anbetracht dessen, was bei solchen Events rumkommt, idR den Aufwand und das Geld nicht wert - und am Ende entscheidet Thilo. Wir sind davon ab auf der Cebit, der Computex, der Gamescom, dem IDF, AMDs "IDF", der IFA und weiteren kleineren Events von Herstellern wie AMD, NV, Intel und Co.

Nehmen wir doch mal die Hot Chips 22: Was wurde da außer diesen beiden Präsentationen gezeigt, weswegen wir für unser Magazin hätten einen Redakteur für einige Tausend Euro nach Stanford schicken sollen? Das ist eine Kosten-Nutzen-Frage irgendwo. Und wenn den Herstellern daran liegt, die Informationen an die Presse zu kommunizieren, dann tun sie das auch. Alles andere steht sowieso unter NDA, egal ob man vor Ort ist oder nicht.

Gut, im Falle des ISC könnte man sich das überlegen - kommendes Jahr im Juni nach Hamburg.
 
Wat, ihr seid auf den ganzen Messen? Warum hört man darüber nichts/kaum etwas? :what: Zumindest an mir ging es völlig vorbei, das ihr auf dem Fusion Developer Summit (das meinst du wohl mit dem AMDs "IDF" gemeint) wart.

Btw. ich meinte die HotChip 23, sorry, da hab ich mich vertan.

Das die Sachen teuer sind, ist mir auch bewusst, wobei mich eher die Eintrittspreise abschrecken, sonst wäre ich in Hamburg aufgeschlagen, aber 200€+ fürn Ticket... Das ist einfach nicht drin. Ihr kommt dort doch hoffentlich für Umme rein, und habt halt "nur" die Nebenkosten, die sich halt grad bei Hamburg im Rahmen halten sollten.

Ich fände es wirklich klasse, wenn ihr euch das mit Hamburg mal durch den Kopf gehen lassen könntet :daumen: Das gute liegt manchmal so nahe :D

Btw. die HotChip sollte nur ein Bsp. sein, da mir außer der CeBIT jetzt keine Hardwaremesse bewusst in Erinnerung war, auf der ihr regelmäßig seid. Computex Taipeh ist z.B. an mir vorbei gegangen, das ihr dort auch wart/seid. Im Forum steht unter Messen ja auch nur "CeBIT und "Gamescom". Gibts einen Grund, warum ihr das nicht offensiver kommuniziert, das ihr euch den Stress/Aufwand/Kosten macht? Einfach zu viel Stress/Zeitdruck dafür?
 
Wenn du davon nichts mitbekommst, kann ich dir leider nicht helfen. Auf unserer Website ist die Berichterstattung von Cebit, der Computex, der Gamescom, dem IDF, der IFA und weiteren kleineren Events von Herstellern wie AMD, NV, Intel und Co. nachzuverfolgen. Mit AMDs "IDF" meine ich nicht die AFDS, sondern das Event, welches AMD idR zum Zeitraum des IDF ebenfalls in Frisco abhält - eine Art Gegenveranstaltung.

Ich selbst war in den letzten Jahren neben kleineren und häufigeren Sachen wie mehrmals dem EA Showcase und kürzlich dem Rage-Event unter anderem fast alljährlich auf der Cebit, der Computex und der Gamescom - IDF war angedacht, passte aber terminlich nicht bzw. ich lasse den Kollegen den Vortritt, da ich oft genug auswärts bin. Für "umme" kommt man übrigens lange nicht auf alle Messen oder Veranstaltungen, schön wär's. Von der Computex 2010 gibt's abseits der Berichterstattung zB auch eine Galerie zu Taipeh von mir.

Gibts einen Grund, warum ihr das nicht offensiver kommuniziert, das ihr euch den Stress/Aufwand/Kosten macht?
Offensiver die Webseite lesen wäre eine Idee :P Davon ab findet vieles keine explizite Verwendung als News, sondern wir als Wissen gesichert und in Artikeln etc. genutzt, auch sind nicht alle Termine darauf fokussiert, zu berichten, sondern "socialising" - also Kontaktpflege (ja, dazu zählen auch die PCGH-Shows, die ein extremer Aufwand sind jedes Mal).

Das alles ist jedoch völlig offtopic, wir lagern das bitte auf PNs aus.
 
Zurück