G300-Fermi: Startet Nvidias neue Grafikkartengeneration in drei Varianten?

Ein halber Fermi soll eine 5870 schlagen?Also ein ganzer hätte dann wohl mehr als das doppelte der Leistung einer 285?
Das halte ich doch für eine sehr "optimistische" Prognose.
Vor allem wenn der Chip wirklich mit Hauptaugenmerk auf Gpu-Computing entwickelt wurde.
Sollte er sich in Spielen aber wirklich als doppelt so schnell wie eine 285 rausstellen und dazu unter 500 kosten,ist der gekauft.:ugly:
 
Ein halber Fermi soll eine 5870 schlagen?Also ein ganzer hätte dann wohl mehr als das doppelte der Leistung einer 285?
Das halte ich doch für eine sehr "optimistische" Prognose.
Vor allem wenn der Chip wirklich mit Hauptaugenmerk auf Gpu-Computing entwickelt wurde.
GPU-Computing ist auch nichts anderes als Grafikberechnung. Je schneller das GPU-Computing, desto schneller natürlich auch die Shader. Solange man nicht an Textureneinheiten & Co spart, ändert das nichts.

Und zur Leistung: Angesichts der nur 10-20% Vorsprung des RV870 im Vergleich zum GT200 und natürlich des kleinen Fertigungsprozeßes und auch schon der ersten Gerüchte, dass die schnellste Fermi-Singlekarte mit der kommenden X2 konkurriert, müsste das hinkommen. Lassen wir uns überraschen :ugly:
 
Woher beziehst du eigentlich ständig diese 10-20%???
Die HD5870 ist bis 37 - 40% schneller als die GTX285, je nach Spiel und Einstellung auch mal deutlich drüber.
 
Woher beziehst du eigentlich ständig diese 10-20%???
Die HD5870 ist bis 37 - 40% schneller als die GTX285, je nach Spiel und Einstellung auch mal deutlich drüber.
Ich beziehe mich auf den PCGH-Test, da sind 10-20% realistisch (teilweise ist die HD5870 sogar lansamer als die GTX285), auf jeden Fall realistischer als 37-40%.
 
Woher beziehst du eigentlich ständig diese 10-20%???
Die HD5870 ist bis 37 - 40% schneller als die GTX285, je nach Spiel und Einstellung auch mal deutlich drüber.

Gegenfrage, woher beziehst du deine 37-40% ?
Dieser Wert grenzt ja schon an reine utopie....

Wenn man sich den pcgh test anschaut sind die 20% von bucklow doch soweit korrekt...
Radeon HD 5870: Die erste Direct-X-11-Grafikkarte im Benchmark-Test - Radeon HD 5870 Test, HD 5850, HD 5800, DirectX 11, Benchmark, Grafikkarte

Auch wenn er mir durch seine art noch nie possitiv aufgefallen ist, hat er in dem Fall recht.

mfg

Bärenmarke
 
Computerbase :ugly:

Die, die meinen das AF sei besser geworden? Man das aber nicht an den Spielen sieht, weil alles genau wie HD4x ausschaut? Also etwas besser als Katastrophal im Fazit? Axso :ugly:

Schau mal besser auf HT4U vorbei. Da wird kein gesponsorter Journalismus betrieben.

Woher beziehst du eigentlich ständig diese 10-20%?
[...]Auch wenn also nVidias Fermi-Chip bei diesem einem bedeutetenden Wert (der Rechenleistung) klar gegenüber ATIs RV870 zurückliegt, deuten alle anderen Anzeichen eher darauf hin, daß das Fermi-Design in der Spieleperformance letztlich vor dem RV870 herauskommen wird[...]

News des 2. Oktober 2009

Warten wir doch einfach ab wer den längeren hat :ugly:
Und was wolltest du mir damit jetzt genau sagen?
Das du Augen für die Realität schärfen solltest. Lesen Bildet :daumen:
 
Augen für die Realität? Ich bin zwar auf eine Brille angewiesen, aber ich bin kein Christ ;) Und DU willst MIR was übers LESEN erzählen? (ich weiß nicht wie viele Bücher du gelesen hast, aber mein Index an gelesenen Büchern übersteigt den deutschlandweiten Durchschnitt)

ComputerBase hatte schon immer sehr gute und vor allem ausführliche Tests und deren Fazit zur HD5870 entspricht weitestgehend dem auf anderen Seiten und Magazinen.
 
ComputerBase hatte schon immer sehr gute und vor allem ausführliche Tests und deren Fazit zur HD5870 entspricht weitestgehend dem auf anderen Seiten und Magazinen.
ComputerBase hat auch schon Tests dadurch vermasselt, dass man verschiedene Treiberversionen gemixt hat. Dennoch hast du mich gefragt, wo ich die 10-20% her habe und das ist halt PCGH und bei HT4U schauen die Abstände genauso aus.
 
Ich denke die Unterschiede rühren auch vom Testsystem her. Übrigens wurden bein HD5870-Test ähnliche Treiber verwendet. Darüber hinaus glichen die Resultate aus bisherigen CB-Tests auch immer der Realtiät bzw. denen anderer Webseiten. Bisher habe ich noch nie deartige erfahrungen mit ComputerBase gemacht.

Aber trotzdem gibt das dem Herrn vor dir nicht das recht meinen Bildungsstand und meine Sehschärfe in Frage zu stellen.
 
Mir kam die Frage blöd was ich denn sagen wolle. Du hast in die Runde eine Frage geworfen und einer hat geantwortet und die Quelle gepostet. Was gabs da denn für ein Grund zu Fragen: "Was willst du denn?"

TIP: Was CB schreibt, würd ich nicht mehr für volle Suppe nehmen.
 
Die beziehe ich aus ComputerBase, wieso?

Auch wenn du dich auf cb beziehst, ist der abstand um die 20% groß!
Abgesehen von 2560*1600, da hast du recht da beträgt der abstand 35%, aber diese Auflösung stellt wohl die ausnahme da, da wohl weniger wie 1% der user diese nützen.
Und die werte mit 8 fachen AA als Vergleichsbasis heranzuziehen, ist schon sehr dreist und da schönst du dir das Ergebnis doch sehr!
Den das der 8 fache AA mode bei den Nvidia karten sehr viel leistung kostet und keinen sichtbaren unterschied zu 4 fachen bringt ist bekannt.
Wenn du auf die AA qualität eingehen willst, bietet Nvidia da viel schönere an, kannst ja auf cbase gerne y33h@ fragen, wenn du dort so aktiv bist, der wird dir das gerne erklären ;)
Daher ist es, wenn man es objektiv gestalten will nur sinnvoll den 4 fachen zu testen, da der beide ungefähr gleich belastet und dann später auf die speziellen modis als extra "Schmankerl" einzugehen.
Anderst vergleichst du einfach Äpfel mit Birnen:daumen2:
Test: ATi Radeon HD 5870 (Seite 23) - 23.09.2009 - ComputerBase

mfg

Bärenmarke
 
Wenn es mir darum ginge, könnte ich mir jeden x-beliebigen Test im Netz ansehen
Tust du doch :ugly:

Ein angeblich seriöses Hardwaremagazin, dass den Umstand verschiedener Treiberversionen irgendwo unter Testsystem versteckt und nichtmal klar und deutlich im Text schreibt (eigentlich gehört sowas als Anmerkung DICK unter jedes Diagramm), ist einfach keine verlässliche Quelle.
 
Ich erwarte 10-20 Proc. mehr Leistung von G300 gegenueber HD5870. Aber auch bisschen weniger als die HD5870 X2.
Leider wird die Karte teuer und wird schon ordentlich Saft brauchen. Zudem wird im Dez. 2009 die nur das Topmodel zu erwerben sein und noch sehr knapp, bezahlbares Meinstream wird erst Ende Q1/2010 ausreichend verfurgbar sein.
Das wurde schon zw. der Zeilen gesagt, da die G300 Meldungen schon taeglich kommen.

Leider ist meine GTS8800-640 schon sehr alt, deshalb werde ich wohl mal zu der HD5870 greifen.
 
Also wenn ich die Werte aus CB zusammenrechne komme ich auf glatte 37%
Übrigens ist im dem Test auch nachzulesen, dass ATI insgesamt das bessere AA bietet.
 
Zurück