Radeon HD 6850 mit 1x 6-Pin unter DirectX 11 schneller als Radeon HD 5830?

Sturmtank schrieb:
Wann kann man mit einem test rechnen?
When it's done.

@ thysol

Das Referenzdesign der GTS 250 hat einen 2D-Mode, die 9800 GTX+ nicht.

@ ViP94

Nur weil die Karten gleich takten, sind sie dennoch nicht identisch. Kleiner, aber feiner Unterschied. Mit engstirnig hat das nichts zu tun, das sind halt einfach nur Fakten
 
Ich gebe thysol Recht nur muß die Aussage lauten: "Nein, Nvidia hat bereits Karten umbenannt und es wahr Null Unterschied zwischen dem neuen und alten Chip."
NV füllt ständig alten Wein in neue Schläuche auch gerade im Mobile-Segment. Das zu leugnen oder herunterzureden grenzt für mich an bewusste Irreführung.
 
Mobile ist schlimm und auch gleiche Performance [und gleichem Feature-Set!] bei anderem Namen ist natürlich übel. Da gibt's nichts zu diskutieren.
 
Ich gebe thysol Recht nur muß die Aussage lauten: "Nein, Nvidia hat bereits Karten umbenannt und es wahr Null Unterschied zwischen dem neuen und alten Chip."
NV füllt ständig alten Wein in neue Schläuche auch gerade im Mobile-Segment. Das zu leugnen oder herunterzureden grenzt für mich an bewusste Irreführung.

Jo, Nvidia verbaut den selben Chip sollte es heissen. AMD verbaut wenigstens einen neuen Chip.;)
 
nur das ne ati 5870 gerade mal um die 5-15% langsamer als deine geliebte gtx 480 ist!
deine gtx 480 impliziert einen super sportwagen,der 300 km/h bei 40 litern schafft,während die ati 5870 knapp 275km/h schafft bei ca. 20 litern...

trotzdem ist die metapher total sinnlos!aber kannst ja wohl dennoch kaum sagen,die 5870 ist viel langsamer als die gtx 480...absoluter quatsch

green it...wird sich nunmal durchsetzen,effizienz ist ein ganz großes thema,hier ist ati noch weit vor nv...nur 1-2% kaufen highend chips...damit gíbts keine kohle!
PC Games Hardware

„Nvidia liefert die bis dato schnellste Single-GPU-Grafikkarte ab. Ihr Vorsprung gegenüber der ohnehin schnellen Radeon HD 5870 beträgt im Mittel gute 20 Prozent.....Darüber hinaus bieten die GTX-400-Geschwister das von den Vorgängern gewohnte, hochwertige AF sowie den CUDA-Bonus. Letzterer manifestiert sich in Form von GPU-beschleunigter Physik (Physx) oder erweiterten Grafikeffekten in diversen aktuellen Spielen.“


Hier Bitte,selbst PC Games Hardware sagt das die GTX480 gute 20% mehr leistung hat als die ATI5870.
 
Wenn man der News von 3DCenter Glauben schenken mag, dann wird der Cayman dieses Jahr nicht mehr das Licht der erblicken, und die Präsentation des Barts eher eine als Hauruckaktion zu verstehen ist.
Ich persönlich fände, wenn das wirklich so wäre (bitte beachtet die Formulierung), eigentlich schade, denn eigentlich soll eine Grafikkarten generation erst dann auf den Markt kommen, wenn sie funktionstüchtig ist.

Ich finde es mit der neuen Namensgebung zwar etwas ungewohnt, aber wenn nun die Nachfolge so geregelt ist, das 57X0 -> 68X0, 58X0 -> 69X0 und 67X0=57X0, dann ist das halt so.
Aber man darf dann leider nicht nicht den Fehler machen und die sog. Äpfel mit Birnen vergleichen. Der Bart wird gegenüber dem Juniper einen deutlichen Sprung nach vorn machen und darum kann man ihn im Preisbereich zw. 150 und 230€ schon als gelungen sehen (sofern die ganzen Spekulationen stimmen sollten).

Nächste Woche ist offizielle Vorstellung der Barts. Bis dahin wird bestimmt noch einiges an Infos kommen. Und wenn der cayman wirklich nicht mehr vor Weihnachten kommt, dann wäre es schade, aber nicht tragisch...
 
Du hast scheinbar immer noch nicht realisiert, das die HD6870 nicht die Nachfolgerin der HD5870 ist. Auch wenn der Name dies andeutet. Fakt ist aber, das die HD6870 die reguläre Nachfolgerin der HD5770 ist. Ergo ist deine Rechnung völlig falsch!


Du verstehst anscheinend nicht, worauf ich hinaus will...

Leistungsvergleich:

HD 4870 (160 Shader Units/40TMUs) = HD 5770 (160 Shader Units/40TMUs)

HD 5850 (288 Shader Units/72TMUs) = HD 6870 ( 240 Shader Units/ 48 TMUs)

(Die HD 6870 hat zwar weniger effektive Shader Units, dafür aber einen höheren GPU-Takt)

Test: ATi Radeon HD 5770 (CrossFire) (Seite 2) - 13.10.2009 - ComputerBase


Das Problem ist, dass die HD 6870 trotz ungefähr gleicher Leistung einer HD 5850 viel weniger Texelleistung hat. Vielleicht mag dich das nicht stören, jedoch zerstört es bei mir jegliche übrig gebliebene Hoffnung, dass AMD uns endlich einmal einen vernünftigen AF-Filter anbietet :daumen2:

Ich weiß ja, für AMD-Fans ist das total unwichtig, Hauptsache der Balken ist lang genug. Genauso wie zu Zeiten der HD 4870 Strom sparen für AMD-Fans unwichtig war und nun mit der HD 5870 Strom sparen das aller wichtigste Entscheidungskriterium ist :ugly: :schief:

Nur für mich eine einige andere ist ein vernünftiges AF ebenso wichtig, wie Energieeffizienz. Und wenn ich nun sehe, dass die Texelleistung im Verhältnis schon wieder gesunken ist, dann weiß ich leider genau, dass zu Weihnachten wieder dazu gezwungen bin eine Nvidia-Karte zu kaufen. Und ich bin es echt langsam leid eine solch geringe Auswahl zu haben!

Und komm mir jetzt bloß nicht mit "das ist doch gar nicht schlimm" oder "das sieht man doch eh nicht". Ich habe die Flimmerhölle mit einer HD 4870 erlebt und ich will sie nie wieder auf meinem Bildschirm sehen müssen!
 
Du verstehst anscheinend nicht, worauf ich hinaus will...

Leistungsvergleich:

HD 4870 (160 Shader Units/40TMUs) = HD 5770 (160 Shader Units/40TMUs)

HD 5850 (288 Shader Units/72TMUs) = HD 6870 ( 240 Shader Units/ 48 TMUs)

(Die HD 6870 hat zwar weniger effektive Shader Units, dafür aber einen höheren GPU-Takt)

Test: ATi Radeon HD 5770 (CrossFire) (Seite 2) - 13.10.2009 - ComputerBase


Das Problem ist, dass die HD 6870 trotz ungefähr gleicher Leistung einer HD 5850 viel weniger Texelleistung hat. Vielleicht mag dich das nicht stören, jedoch zerstört es bei mir jegliche übrig gebliebene Hoffnung, dass AMD uns endlich einmal einen vernünftigen AF-Filter anbietet :daumen2:

Ich weiß ja, für AMD-Fans ist das total unwichtig, Hauptsache der Balken ist lang genug. Genauso wie zu Zeiten der HD 4870 Strom sparen für AMD-Fans unwichtig war und nun mit der HD 5870 Strom sparen das aller wichtigste Entscheidungskriterium ist :ugly: :schief:

Nur für mich eine einige andere ist ein vernünftiges AF ebenso wichtig, wie Energieeffizienz. Und wenn ich nun sehe, dass die Texelleistung im Verhältnis schon wieder gesunken ist, dann weiß ich leider genau, dass zu Weihnachten wieder dazu gezwungen bin eine Nvidia-Karte zu kaufen. Und ich bin es echt langsam leid eine solch geringe Auswahl zu haben!

Und komm mir jetzt bloß nicht mit "das ist doch gar nicht schlimm" oder "das sieht man doch eh nicht". Ich habe die Flimmerhölle mit einer HD 4870 erlebt und ich will sie nie wieder auf meinem Bildschirm sehen müssen!

Nein ich will und kann nicht verstehen wo drauf Du hinaus willst. Für mich vergleichst Äpfel (HD6870) mit Birnen (HD5850)! Soll heißen Deine Äufzählung ist nicht im geringsten korrekt oder sinnig. Trotz gleicher oder ähnlicher Hardware kann man doch so ohne Weiteres nicht plötzlich die Highendvariante der Vorgängergeneration mit der Mittelklasse der neuen Generation vergleichen. Wie schräg ist das denn?! Du kannst doch nur die Highendvarianten beider Generationen miteinander vergleichen. Du vergleichst doch auch den aktuellen VW Polo nicht mit dem Golf V? Nur weil der neue Polo jetzt ungefähr so groß ist wie der vorletzte Golf.

Was den Stromhunger aktueller GPUs angeht, so war und ist mir dieser, ehrlich gesagt, ziemlich egal. Sonst hätte ich nicht den ATi- Schluckspecht schlechthin in meinem Rechner. Was dein geflame gegen die Texturaufbereitung von AMD angeht, so empfinde ich das als extrem übertrieben. Ich empfinde diese "Problem" garnicht so stark, das soll nicht heißen das ich es nicht bemerke. Aber es tangiert mich maximal äußerst periphär, da ich beim zocken auf ganz andere Dinge Wert lege. Und auf diese Dinge konzentriere ich mich dann automatisch so sehr, das ich von diesem "Problem" nicht das geringste mitbekommen.
Alles in Allem sehe ich in der, zugegebenermaßen, besseren Texturaufbereitung der Nvidia- Karten keinen zwingenden Kaufgrund. Und bitte fang jetzt nicht mit Cuda oder PhysX an. Das sind sind zwar nette Zusatzfeatures, aber mehr auch nicht. Und PhysX nutze ich schon weit länger als Nvidia damit hausieren geht. Und das einzige was ich mit PhysX zocke ist GRAW-Serie. Und dafür brauche ich nicht zwingend eine Nvidia-Karte.
Also nicht das wir uns jetzt falsch verstehen. Ich finde die Leistung der neue 400er- Serie von Nvidia gut und überzeugend. Und deren Stromverbrauch ist mir persönlich schnuppe. Ich kaufe derzeit keine grüne Karte weil mir die Firma und ihre kundenunfreundliche Firmenpolitik stinkt. Denn auch wenn ich PhysX nur mit meiner Agaia-Karte nutze und auch nur in der GRAW-Serie, so würde ich trotzdem sehr gerne den Treiber von Zeit zu Zeit aktualisieren. Das kann ich aber nicht, da Nvidia sich ins Hemd pißt weil ich ja eine Radeon als Bilderzeuger nutze. Und da geht mir das Messer in der Tasche auf. Aber das ist hier nicht das Thema.

Ich freu mich auf die nächste Generation von AMD da mir Bildwiederholraten wichtiger sind als Texturaufbereitung. Da habe ich mehr von als von hübschen Texturen oder geraderen Kanten. Das sind Dinge die, meiner Meinung nach, künstlich gehypt werden und zu dem eigentlich ziemlich nebensächlich sind. Aber auch hier stehe ich auf dem Standpunkt: jedem Tierchen sein plesierchen.
 
Ich verstehe nicht was daran so schlimm sein soll, wenn die mal das Namensschema ändern.

Die 6850 wird die 5770/5830 ablösen die 6870 die 5850 und die 6970 die 5870. Die 6990 wird wieder ihres gleichen suchen dürfen, aber wird wohl wieder die schnellste Werden.

Damals bei der 88er hat NV das Namensschema auch umgehaun, da wurde auch die 88GTS von der 88GT und die 88GTX von der 88GTS abgelöst.

Beide Firmen haben so ihre Strategien, ist doch normal das sowas mal kommt.
 
Nein ich will und kann nicht verstehen wo drauf Du hinaus willst. Für mich vergleichst Äpfel (HD6870) mit Birnen (HD5850)! Soll heißen Deine Äufzählung ist nicht im geringsten korrekt oder sinnig. Trotz gleicher oder ähnlicher Hardware kann man doch so ohne Weiteres nicht plötzlich die Highendvariante der Vorgängergeneration mit der Mittelklasse der neuen Generation vergleichen. Wie schräg ist das denn?! [...]

Macht eigentlich schon Sinn. Ich persönlich bin der Meinung, die Mittelklasse einer neuen Generation sollte mindestens genauso schnell, wenn nicht sogar schneller als die alte High-End-Variante sein - wenn man bedenkt, dass die Technologien schnell voranschreiten und die Geschwindigkeit stetig gesteigert wird. Was man jetzt wo einordnet, mal außen vorgelassen. Von daher ist der Vergleich nicht so dumm, wie du das denkst. Dass die 68xx nicht der Nachfolger der 58xx sind, steht dabei auf einem anderen Blatt.

MfG
 
Ich habe die Flimmerhölle mit einer HD 4870 erlebt und ich will sie nie wieder auf meinem Bildschirm sehen müssen!

Als "Flimmerhölle" kann das meiner Meinung nach nur jemand empfinden, der entweder ein in höchstem Maße gesteigertes Empfindungsvermögen hat oder von vornherein nicht ganz objektiv an die Sache ran geht.

Und da ich schon viele deiner Kommentare lesen musste weiß ich, dass der Zweite Punkt bei dir der Fall ist.:schief:

btw: Die Flimmerneigung wurde schon bei der HD5K gesenkt.
 
Macht eigentlich schon Sinn. Ich persönlich bin der Meinung, die Mittelklasse einer neuen Generation sollte mindestens genauso schnell, wenn nicht sogar schneller als die alte High-End-Variante sein - wenn man bedenkt, dass die Technologien schnell voranschreiten und die Geschwindigkeit stetig gesteigert wird. Was man jetzt wo einordnet, mal außen vorgelassen. Von daher ist der Vergleich nicht so dumm, wie du das denkst. Dass die 68xx nicht der Nachfolger der 58xx sind, steht dabei auf einem anderen Blatt.

MfG

Nein macht es nicht. Da keiner von beiden Herstellern je so verfahren ist. Die Mittelklasse der 5000er- Serie ist auch nicht schneller als die Highendklasse der 4000er- Reihe. Das würde für die Hersteller auch nicht den geringsten Sinn oder Vorteil ergeben. Sie wollen ja schließlich auch noch die alten Karten abverkaufen.

Und bei Nvidia ist mir auch Nichts Vergleichbares je vorgekommen.
 
Nein ich will und kann nicht verstehen wo drauf Du hinaus willst. Für mich vergleichst Äpfel (HD6870) mit Birnen (HD5850)!

Nö, ich vergleiche lediglich die 3D-Leistung der beiden Karten miteinander, denn diese soll/wird wohl identisch sein, wenn die Gerüchte stimmen.

Soll heißen Deine Äufzählung ist nicht im geringsten korrekt oder sinnig.

Doch, ist sie, einfach mal den Text lesen und verstehen ;)

Trotz gleicher oder ähnlicher Hardware kann man doch so ohne Weiteres nicht plötzlich die Highendvariante der Vorgängergeneration mit der Mittelklasse der neuen Generation vergleichen. Wie schräg ist das denn?! Du kannst doch nur die Highendvarianten beider Generationen miteinander vergleichen. Du vergleichst doch auch den aktuellen VW Polo nicht mit dem Golf V? Nur weil der neue Polo jetzt ungefähr so groß ist wie der vorletzte Golf.

Ein Auto ist keine Grafikkarte und hinkt als Vergleich - in diesem Fall sogar sehr stark, denn hier vergleichst du Äpfel mit Birnen ;)

Ob High-End oder nicht ist bei der nächsten Generation immer total irrelevant! Eine GTX 260 ist trotzdem schneller als eine 8800 Ultra, obwohl die GTX 260 keine High-End-Karte ist. Die GTX 260 ist aber eine neuere Generation und ist deshalb schneller. Eine 8800GTS/640 ist auch schneller als eine 7900GTX...


Als "Flimmerhölle" kann das meiner Meinung nach nur jemand empfinden, der entweder ein in höchstem Maße gesteigertes Empfindungsvermögen hat oder von vornherein nicht ganz objektiv an die Sache ran geht.

Im Gegensatz zu dir, habe ich hier eine GTX 280 und eine HD 4870 und habe beide Karten schon mehrfach direkt miteinander verglichen. Aber vielleicht liegt es ja auch an deinen Augen oder deinem Monitor, dass du das Flimmern nicht siehst. Oder aber du willst es wie viele andere ATI-Besitzer einfach nicht war haben...

Aber du hattest ja auch die Möglichkeit die Bildqualität von ATI und Nvidia-Karten miteinander zu vergleichen, wenn ich das hier so lese:

Keine Ahnung was du damit machst. Muss am User liegen oder einfach extrem Pech gehabt. Meine letzten 5 Karten waren alle ATIs und ich hatte nur sehr sehr selten kleinere Probleme die auch schnell behoben waren. Zudem nutze ich fast jeden neuen Treiber.

Also bitte nicht pauschalisieren.

Wo ist denn nun bitte deine Möglichkeit objektiv und sachlich die Bildqualität zu vergleichen, wenn deine letzten fünf Karten von ATI waren? :ugly:


Und da ich schon viele deiner Kommentare lesen musste weiß ich, dass der Zweite Punkt bei dir der Fall ist.:schief:

Das muss ich mir jetzt von einem ATI-Kartenbesitzer sagen lassen, der das Flimmern und Banding nicht sieht oder auch klein redet? Sorry, wenn ich lachen muss :lol:

btw: Die Flimmerneigung wurde schon bei der HD5K gesenkt.

Und dafür gibt es jetzt zusätzlich Banding :schief:

Aber das siehst du bestimmt auch nicht, nicht wahr? :ugly:
 
Zuletzt bearbeitet:
Im Gegensatz zu dir, habe ich hier eine GTX 280 und eine HD 4870 und habe beide Karten schon mehrfach direkt miteinander verglichen. Aber vielleicht liegt es ja auch an deinen Augen oder deinem Monitor, dass du das Flimmern nicht siehst. Oder aber du willst es wie viele andere ATI-Besitzer einfach nicht war haben...

Wenn man den direkten Vergleich zwischen ATI und Nvidia macht, also eine Gamesequenz nebeneinander, dann merkt man den Unterschied in der Bildqualität.
Wenn man aber immer nur ATI Karten hatte, dann weiß man nicht, wie es auch anders aussehen kann, dann ist es klar, dass man das Bild super findet.
 
Wenn man den direkten Vergleich zwischen ATI und Nvidia macht, also eine Gamesequenz nebeneinander, dann merkt man den Unterschied in der Bildqualität.
Wenn man aber immer nur ATI Karten hatte, dann weiß man nicht, wie es auch anders aussehen kann, dann ist es klar, dass man das Bild super findet.

Schlimm wird es nur wenn die entsprechenden Leute diese Möglichkeit nicht in Betracht ziehen. Und bereits bewiesene Fakten leugnen oder nicht wahr haben wollen ;)

Hätte ich vor der HD 4870 keine 8800 GTX gehabt, sondern eine HD 2900XT/HD 3870, dann wäre mir das Flimmern wohl auch nicht aufgefallen. Ich hätte mich aber nie der Wahrheit oder den Fakten gegenüber verschlossen, so wie es leider zu viele andere Leute machen. Und genau die sind daran schuld, dass AMD weiterhin die Bildqualität verschlechtert, oder so belässt...
 
Zurück