Gigabyte GTX580 ausgepackt und TechPowerup.com wohl unabsichtlich inoffiziellen Test online vor Ablauf des NDA

Status
Für weitere Antworten geschlossen.
AW: Gigabyte GTX580 ausgepackt und TechPowerup.com wohl unabsichtlich inoffiziellen Test online vor ablauf des NDA

Wo liest du bitte das die in 1920 ~30% schneller ist als die 480er? also ich glaub ich zweifel gleich an meiner Fähigkeit Diagramme zu lesen und Prozentrechenaufgaben zu lösen

GTX 480@ 1920x1200: 78%
GTX 580@ 1920x 1200: 100%

Will man jetzt aber behaupten: "Die GTX 580 ist x% schneller als die GTX480" muss man freilich von der GTX 480 als 100%- Niveau ausgehen

78*x=100 |/100
100/78= x= ~1,282 -> Umrechnungsfaktor für die Prozentwerte, wenn man von der GTX 480 als 100% ausgehen will

Wie man leicht erkennen kann hat die GTX 580 demnach 128,2%, die GTX 480 natürlich 100%, damit ist die GTX 580 +28,2% schneller, verzeih mir, dass ich die 1,8% aufgerundet habe

"Interessante" Herangehensweise in 1024x768 heute noch zu benchen, und diesen Blödsinn auch noch in "relative performance" einfließen zu lassen ...

Es zu benchen kann ja nicht schaden allerdings sollte man dann nicht hergehen und diesen Benchmark als primären Maßstab für die Leistung der Karte hernehmen an dem man beweinen kann, dass sie "nur" 11% schneller ist
 
Zuletzt bearbeitet:
AW: Gigabyte GTX580 ausgepackt und TechPowerup.com wohl unabsichtlich inoffiziellen Test online vor ablauf des NDA

Ähm du rechnest grad den Unterschied zwischen 580SLI und 580 SingelGPU aus.

100% ist 580SLI 78% 580 und 69% die 480.

Jetzt kannste entweder die 580 als 100% annehmen oder die 480 und kommst dann mit:

78/69=1,13 wenn du annimmst, das die GTX480 die 100% sein sollen bzw. (100*x=y)
1-69/78=0,115 wenn du die 580 als 100% nimmst, dann ist die 11,5% das was die 480 langsamer ist.
 
Naja... sofern die Werte stimmen und weitere Tests diese stützen... eine ordentliche Karte. Leider immer noch mit dem Manko des zu hohen Verbrauchs. Gemessen an der Leistung vs. Leistungsaufnahme aber immerhin eine gute Verbesserung.

@Skysnake
Wundert es dich das die Leute mal wieder nur die Balken sehen und nicht das was davor steht? :schief:
 
AW: Gigabyte GTX580 ausgepackt und TechPowerup.com wohl unabsichtlich inoffiziellen Test online vor ablauf des NDA

GTX 480@ 1920x1200: 78%
GTX 580@ 1920x 1200: 100%

Will man jetzt aber behaupten: "Die GTX 580 ist x% schneller als die GTX480" muss man freilich von der GTX 480 als 100%- Niveau ausgehen

78*x=100 |/100
100/78= x= ~1,282 -> Umrechnungsfaktor für die Prozentwerte, wenn man von der GTX 480 als 100% ausgehen will

Wie man leicht erkennen kann hat die GTX 580 demnach 128,2%, die GTX 480 natürlich 100%, damit ist die GTX 580 +28,2% schneller, verzeih mir, dass ich die 1,8% aufgerundet habe


Und wo: ist dann meine GW-GTX260-GS---------------?????:lol::lol::lol:

HHHHÄÄÄÄÄÄÄ
HHHHHÄÄÄÄÄÄÄ:huh::huh::huh::huh:



IHR SEID ECHT---- OVER-CLASS ----------:daumen:

wenn ich euch Küssen Könnt, würd ich es tun!

Ihr seid die Besten!
(Echt! Bitte nicht Falsch verstehen?! Und Nicht BÖSE Gemeint!))
 
Ähm du rechnest grad den Unterschied zwischen 580SLI und 580 SingelGPU aus.

Oho! Okay, dann hab ich wirklich gefailed

Na dann ist das Ergebnis wirklich nicht so berauschend... ein Fortschritt aber kein wirklich bahnbrechender...

Das sollte AMD auch schlagen können
 
Mach dir kein Kopf, man kann ja mal bischen aufgeregt sein, wenn man so ne unerwartete Meldung vor die Augen geschmissen bekommt ;) Da gehen manchem einfach die Nerven durch :P

Es ist halt eigentlich der "echte" Fermi. Da sieht man mal, was nVidia da für Probleme hatten, wenn selbst damit sind sie ja noch weit hinter ihren ursprünglichen Angaben zum GF100 zurück. Sie haben sich wohl doch einfach ziemlich mit dem Chip überhoben. Wenn man dann noch denkt das Keppler "bald" kommen soll mit noch viel mehr Leistung, dann bleibt nur zu hoffen, das sie dieses mal ihre Hausaufgaben besser machen, denn noch nen Fermi kann sich glaub ich nVidia wirklich nicht leisten.

@Superwip: Du solltest den Abstand zur HD5870 aber jetzt auch nicht unterschäten. 10% im Vergleich zur GTX480 sind halt doch würd ich mal übern Daumen peilen 12-15% mehr Abstand zur HD5870. AMD muss da schon einiges aufholen, aber wenn man sich die 68x0 anschaut, lässt sich vermuten, das sie es eventuell schaffen können. Mehr als 5% Mehrleistung seitens AMD im Vergleich zur GTX 580 mit der 6970 (also SingelGPU) erwarte ich nicht. Wobei ich 5% schon recht hoch gegriffen finde. Man muss halt schon zugeben das nVidia doch einen ganz guten Vorsprung hatte. Bleibt halt nur die Frage offen wieviel Watt Caymen nun brauch und wie gut er sich OC´en lässt. Für nVidia könnte aber eine schwere zweite Jahreshälfte anbrechen. Vorallem wenn AMD sich dazu entscheidet wieder die Preise zu drücken und uns die PIEP Händler keinen Strich durch die Rechnung machen. nVidia könnte da glaub ich dann wirklich langsam echt nen Problem bekommen. Ich wills aber nicht hoffen, denn wir brauchen einen starken Gegner für AMD im GPU Bereich.

@Kaktus: NE :D
 
Ich finde nicht das AMD unbedingt an der GTX 580 vorbei ziehen muss. Liegt diese auf GTX 480 Niveau wäre das schon ausreichend. Sofern der Stromverbrauch drunter liegt und somit auch die Kühlung leiser und einfacher zu bewerkstelligen ist. Und natürlich wenn der Preis stimmt.

Die Krone kann man sich auch wieder mit einer Dual-GPU Lösung holen.
 
Jup, seh ich genauso. Ich HOFFE inständig das AMD sich nicht auf das gleiche SCHEIS Spiel wie nVidia einlässt, auf biegen und Brechen dem anderen eins auszuwischen und vorne zu sein. Das wäre einfach nen riesen Schritt nach hinten.

Ich versteh aber ganz ehrlich jetzt nicht warum nVidia VOR AMD die Karte veröffentlicht hat. Passt doch garnicht zu denen. So können Sie garnicht schauen was Cayman kann und dann halt entsprechend die Brechstange auspacken um vorne zu bleiben, wie bisher.

Das lässt bei mir irgendwie die Vermutung aufkommen, das nVidia die Karte einfach nicht weiter treiben kann, da ansonsten irgendwelche anderen Probleme wieder auftreten, was auch wieder fürs OC eher schwarz sehen lässt.

Andererseits lässt dies für AMD hoffen, denn der Leistungszuwachs bei der 580 war ja jetzt doch geringer als erwartet. Vielleicht hat AMD daher nur <225, bzw. <300 geschrieben, damit sie ähnlich nVidia mittels Brechstange dann doch vor nVidia notfalls kommen, indem sie den Takt doch noch etwas weiter hochschrauben. (Ist jetzt aber eher Wunschdenken, ich glaub die 6970 wird so 250 Watt brauchen, also doch noch weniger als die 580 aber halt doch deutlich mehr als die 5870)

Wird auf jedenfall noch richtig Spannend die Woche.

EDIT:

PS: ich geh jetzt pennen :D Da TechPowerUp eh nicht mehr erreichbar ist, müssen wir wohl eh bis 15 Uhr warten. Also gn8
PPS: Bin mal auf den PCGH Test gespannt, was ihr zu dem Clockreduce sagt. Ich hoffe ich hab da nicht jemanden noch Zusatzarbeit für die Nacht damit aufgehalst :D Wobei ich mir nicht vorstellen kann, das ihr das nicht selbst gemerkt habt. Ihr seit ja meine PCGH :daumen:
 
Naja, Grafikkarten finde ich mittlerweile gar nicht mehr so spannend. Wirkliche Neuerungen kommen aktuell nicht, von daher... wayne. Und mehr Leistung.. Freaks ja, aber ich Gurke immer noch mit einer 4870 1GB herum und wüsste aktuell keinen Grund daran etwas zu ändern. Für das was ich Spiele.... z.b. Fallout 3 NW, Civ 5 oder mal BF 2142 it der Freundin ..... reicht die locker für 1680x1050 mit allen Details auf Max und 8xAA bei Fallout NW.

Und solche spirenzchen wie Downsampling sind mir zu umständlich und wird eh von den wenigsten genutzt.
 
Jo da haste Recht.

Ich muss aber sagen, ich kann bei den Karten garnicht genug Leistung sehen, denn ich will mich immer mehr mit OpenCL und Anwendungen darauf eben beschäftigen. Eventuell sogar meine Diplomarbeit in dem Bereich schreiben, also wissenschaftliches Rechnen.

Da wär so nen Quadsystem schon sehr geil :D Aber bezahlen müsste man es eben können ;( Als Student siehts da eher düster aus ;(
 
Mach dir kein Kopf, man kann ja mal bischen aufgeregt sein, wenn man so ne unerwartete Meldung vor die Augen geschmissen bekommt ;) Da gehen manchem einfach die Nerven durch :P

Ich bin vielleicht von PCGH her schon zusehr gewohnt, dass Multi nicht mit Singel GPU Systemen verglichen werden

Du solltest den Abstand zur HD5870 aber jetzt auch nicht unterschäten. 10% im Vergleich zur GTX480 sind halt doch würd ich mal übern Daumen peilen 12-15% mehr Abstand zur HD5870. AMD muss da schon einiges aufholen, aber wenn man sich die 68x0 anschaut, lässt sich vermuten, das sie es eventuell schaffen können.

AMDs Neuerungsansatz bei der HD 69X0er Serie ist auch weit radikaler als der von nVidia bei der GTX 580 und die HD 5870 als Referenz ist auch wesentlich älter, daher kann man durchaus einen größeren Leistungssprung von AMD erwarten

Allerdings bedeuted "radikal neu" nicht unbedingt "besser", vor allem wenn man bedenkt, dass das ganze eigentlich für 32nm geplant war; wenn es keinen deutlichen Fortschritt gäbe würde AMD die Karten aber kaum auf den Markt werfen

Ich muss aber sagen, ich kann bei den Karten garnicht genug Leistung sehen, denn ich will mich immer mehr mit OpenCL und Anwendungen darauf eben beschäftigen. Eventuell sogar meine Diplomarbeit in dem Bereich schreiben, also wissenschaftliches Rechnen.

Da wirst du mit der GTX 580/ dem GF 100 nicht unbedingt eine Freude haben, ich denke nicht, dass er in OpenCL u.ä. wesentlich schneller als der GF100 ist

Aber bei einer Diplomarbeit geht es ja auch eher um die Theorie und Programmierung des ganzen, wie schnell du ein konkretes Beispiel dann mit deiner Hardware rechnen kannst sollte auch nicht weiter wichtig sein
 
Zuletzt bearbeitet:
@Skysnake
Mein Onkel hat Chemie studiert und ist mitterweile Proffesor und arbeitet als Prof an der Uni und in der Industrie. Der hatte noch auf eine Pentium 60 Zuckermoleküle berechnen lassen die irgend ein bestimmtes Muster erzeugen sollten, so das man mit Zucker Kleidung herstellen könnte (rein theoretisch... denn im Regen... naja..lach). Der Rechner lief 2 Tage für eine simple Berechnung. Er hat es dann doch auf dem Papier gemacht, dauerte ein paar Stunden. Mehr Arbeit, aber schneller. :ugly:

Wenn man bedenkt was man heute an Rechenleistung hat.... warum unbedingt gleich ein Quad System?
 
Ah sag das nicht, weil wie willste Theorie machen bei Hardware"spezifischer" Optimierung von Programmen? Da wirste immer gezwungen sein das zu Testen, weil du sowas eigentlich kaum im Vorraus sagen kannst. Dazu sind die heuten Prozessoren, egal ob CPU oder GPU einfach viel zu kompliziert. Bei der GPU gehts ja noch halbwegs, aber bei der CPU haste keine Chance mehr, es sei denn du hast nen riesigen Cluster im Rücken der dir halt alles mögliche simuliert :ugly:

Der 580er ist für mich schon jetzt kein richtiges Thema mehr, denn er wird die gleichen Probleme wie der GF100 haben, nur etwas abgeschwächt. Beschnittene DP Leistung wird aber ganz sicher bleiben, massig Saft zieht er immer noch und Teuer ist er auch noch.

Ich hoffe die 69x0 reist da was. Ansonsten ist die 5870 einfach Top, wenn man DP brauch. ~520 GFlops sind halt schon top, vorallem bei dem Stromverbrauch. Naja, hab ich paar Neuigkeiten fürs Meeting am Mittwoch :D Wobei ich ganz ehrlich lieber was erfreulicheres zu erzählen hätte. So kann ich ihn halt eigentlich ziemlich in den Wind schiesen für MEINE Einsatzzwecke

@Kaktus:

Naja, eigentlich tuts zum Testen auch nen Dual System, aber man kann sich halt mit nem vollaufgebauten System besser anschauen, wies mit den Latzen, raceconditions etc aussieht. Sprich ob ich übern PCI-E überhaupt die alle versorgt bekomm etc. Wobei eigentlich brüchte man zwei Systeme, damit man auch gleich sieht wies mit Latenzen etc aussieht, wenn man aus der Maschiene rausgeht, und dannn halt mit wahrscheinlich MPI arbeitet. Dann wären aber entweder 3 SingelGPU´s pro System besser um den letzten Platz für Infiniband/Myrinet noch offen zu haben, oder aber zwei Dua-Karten, wobei die halt wieder etwas langsamer sind und nur noch 2 PCI-E anschlüsse haben, dafür aber intern eventuell etwas schneller kommunizieren können.

Also brauchste im Prinziep min 3 Rechner um möglichst gut zu schauen wie alles skaliert :ugly:

Naja, gibt aber auch viele andere Sachen, wo du halt einfach Monte-Carlo Simulationen laufen lassen musst, oder halt schilcht Datenanalyse betreiben musst. Da hilft die das so ausrechnen nicht viel. Aber du hast Recht. Es ist öfters auch mal schneller was von Hand zu machen :D zumal wie ein Prof von immer sagte:" Wenn sie es selbst rechnen, dann wissen sie wenigstens das es richtig ist. Wenn es der PC (Mathematica) rechnet, dann können sie sich nie sicher sein, dass das auch stimmt. Ich hatte erst gestern den Fall, das der mir totalen Blödsinn ausgegeben hat"

Ok da denkst dir ja klar ist gut :D Aber manchmal stimmts, zumal das programmieren teils auch sehr trickreich ist.

Naja, vielleicht gibts dieses Jahr von mir noch ne Simulation zur Wärmeverteilung auf ner Platte mit OpenCL. In ner Vorlesung die ich atm hör werden wir das mit MPI auf nem 16 Knoten 4 Wege 12Core AMD System implementieren :daumen: Wenn ich genug ZEit hab, wirds das auch in OpenCL geben.
 
Zuletzt bearbeitet:
@Skysnake
Deine Info übersteigt leider gänzlich meinen Wissensstand, so das ich dir kaum folgen kann. :ugly: Aber trotzdem danke für die Erklärung. Auch wenn du mich damit jetzt überfordert hast ;) Mein Gebiet sind Luftkühlungen :D Das ist schon komplex genug, auch wenn das viele nicht so sehen, weil sie die Details nicht verstehen. :ugly:
 
Bei 1920 sind es gerade einmal rund 10% Mehrleistung im Vergleich zur GTX 480

das is schon enttaeuschend.. wenn ich meine gtx 480 AMP! uebertakte werd ich dann, zumindest wenn ich solche aussagen glauben schenken darf, schneller sein áls das referenzmodell ?!
 
na sowas. der gf110 ist nichts anderes als ein fermi mit allen 512 cores? "GTX485" war als name wohl nicht gut bzw "groß" genug, wie?
 
@M4xw0lf
Du liegst falsch. Sieht man alleine an der Tatsache das der 110 bei mehr Leistung weniger verbraucht als der 100.
 
Sorry, wenn das das Maximum ist, was NV im Moment bieten kann, ist es doch sehr entäuschend. Schade, ich dachte das in dem Chip mehr steckt. Dann noch zu dem vermeindlichen Preis. Sehr Fraglich das ganze.
 
Hab ich das jetzt richtig verstanden? Es wurden GTX 580 Karten an Endkunden ausgeliefert - noch vor Ablauf des NDAs und der offiziellen Vorstellung?

Muss ich das verstehen? :ugly:
 
Status
Für weitere Antworten geschlossen.
Zurück