AMD glaubt, dass Nvidia mit Fermi den Spielemarkt aus den Augen verliert

ALso ich weiß nicht, ob eine 285er das Gegenstück zu einer 8800GTS ist, eher nicht ;) aber selbst die ist nicht in der Lage der Leistung zu verdoppeln! Ich
denke eher, dass die GTX als Gegenstück zu setzen ist (leider nicht im Test, aber ich habe keinen besseren)
Eine GTX285 is ungefähr doppelt so schnell wie eine 8800Ultra. Hab nun weiß Gott genug Benchmarks mit den Quadro-Karten gemacht, um das sagen zu können.

Ja ,das ist schon richtig, allerdings reden wir hier von der Fermi Architektur, und die hat als Gegner die 5800 Series.
Und Diese Karte trumpft schon ziemlich auf in Sachen Bildqualität und Stromverbrauch!
Aufgetrumpft? Sie hat mit der alten Nvidia-Architektur (GT200) gleichgezogen, das ist aber auch alles. Das das pure Gleichziehen mit der veralteten Technologie des Mitkonkurrenten schon ein "ziemliches Auftrumpfen" ist, sagt schon alles :P

Es bleibt abzuwarten wie sich der Fermi schlägt, tatsache ist,dass AMD die neuen Karten schon draußen hat und sich um die neue Architektur kümmern kann (Die 5870 ist ja nur ein Refresh des RV 770).
Genau das ist der Punkt. ATI muss die neue Architektur erstmal zum laufen kriegen, Nvidia veröffentlicht sie schon sehr, sehr bald. Viel zu früh, als es ATI lieb ist ;)
 
Ok das kann schon sein!
Dann hat Nvidia halt die Karten spätestens im 1Quartal draußen, und AMD muss sich dann beeilen, und bringt ihre im Sommer raus (nur mal so geschätzt)
Dann hat jeder immer ein halbes Jahr Leistungs Vorsprung:P
 
Die HD5870 ist schneller, leiser, kühler und hat eine insgesamt bessere Bildqualität als eine GTX285. Von "gleichgezogen" sehe ich da nix:hmm:
 
Und außer der DX11 Unterstützung ist AMD doch mit den 5xxx gerade mal da, wo Nvidia bereits mit den GT200 war (Stromverbrauch, Performance ;)). Auch wenn dies div. Fanbois nicht wahrhaben wollen, aber die Benches sprechen für NV...

Zum Glück ist dem nicht so ... der Verbrauch unter Last ist für mich inakzeptabel, GDDR3 hab ich schon seit 5 Jahren nicht mehr im Rechner gehabt und die mördermäßigen Chips voll mit theoretischer Leistung konnten diese einfach nicht umsetzen. Eine OC 4870 (ab Start für 200€ zu haben) oder eine norm 4890 machen mehr FPS in Crysis wie auch in Grid (und weitere) als eine 280/285 und da ich auch noch 8AA Spieler bin und meine Graka im Windows unter den Verbrauch einer 260er gebracht habe, ohne Wasser in Wein verwandeln zu können ... sehe ich eine NV weit zurück.

Stimmt :daumen:


Der RV770 war auch chancenlos in der Leistung ;)

Immerhin musste NV wegen ihm die 150€ an geprellte Kunden zurückzahlen, weil sie dachten, sie wären schneller, was sich dann aber als Ente rausstellte. An dem Tag musste ich reichlich lachen ....
 
Lasset die Schlammschlacht beginnen :)

@Two-Face beachte aber, dass der 285 noch in 55nm und nicht in 40 wie die 5870 produziert wird. Somit könnte sie rein theoretisch in hinblick kühler, leister, stromsparender gleichziehen, denn so groß ist der abstand nicht.
Ich warte ab und bin mal gespannt, was der Fermi uns bringt.
 
Die HD5870 ist schneller, leiser, kühler und hat eine insgesamt bessere Bildqualität als eine GTX285. Von "gleichgezogen" sehe ich da nix:hmm:
Die ersten drei Punkte gehen auf das Konto des besseren Fertigungsprozeßes und über den letzten kann man lange ohne Ergebnis diskutieren. Ich wage mal zu behaupten, dass 99% der Leute hier im Forum den BQ-Unterschied zwischen einer GTX285 und einer HD5870 nicht sehen können (und ja, ich beziehe mich da selbst mit ein).
 
Also ich denke, dass hier wieder viel zu schnell geschossen wird. Gerade weil es im Graka-Bereich, wie bei den CPU's ja ebenfalls, immer nur zwei nennenswerte Protagonisten gibt, kennt man die Spielchen doch aus der Vergangenheit: Einer prescht vor, der andere etwas später hinterher und das dann eben mehr oder weniger erfolgreich.

Von daher würde ich nicht vorschnell urteilen und hier schon mal die Gamingsparte von Nvidia beerdigen...

Persönlich hoffe ich aber dringend darauf, dass die Grünen bald in die Gänge kommen, nicht etwa, weil ich Fanboy wäre, sondern weil Konkurrenz die Preise senkt. ;)
 
Die HD5870 ist schneller, leiser, kühler und hat eine insgesamt bessere Bildqualität als eine GTX285. Von "gleichgezogen" sehe ich da nix:hmm:
Das schon, aber die die GTX200er gehören nicht nur rein architekturtechnisch der "letzten" Generation (HD4XXX/GTX2XX) an, sondern sind auch im größeren Fertigungsprozess erschienen, alles andere als "schneller, leiser, kühler" wäre da für die neue Radeon eine ziemliche Blamage gewesen.

Die GTX285 ist auch gar nicht der Gegner der HD5870, das wäre wie 'ne 8/9800GTX mit ner HD4870 zu vergleichen -> Ist klar, dass die Radeon davonzieht. Der Gegner der HD5870 heißt GTX380, und der steigt nunmal erst in ~3 Monaten in den Ring, und geht man mal von dem aus, was so durchs Netz geistert (512 MIMD-Shader, 384Bit Interface, GDDR5 Speicher ...) wird das Teil ein ziemlich fixes Teil werden. Und dann kann man mal ernsthaft "schneller, leiser, kühler" vergleichen. =)

nVidia muss ja "nix weiter" machen als die Leistung vom Vorgänger GTX285 verdoppeln, und darauf deuten eigentlich schon die oben erwähnten nackten Zahlen hin (240SIMD Shader > 512MIMD Shader, 512Bit/GDDR3 > 382Bit/GDDR5 ...), von daher (hoffe ich mal) was die Leistung betrifft von nVidia wieder positiv überrascht zu werden, damit sich das Warten auf die Karte auch gelohnt hat, mein Händler um die Ecke hatte mich erst kürzlich angerufen, ob er mir 'ne HD5870 zurücklegen soll (kenne ihn ziemlich gut), und hab dankend abgelehnt, ich hoffe net umsonst. :D

Was die Bildquali angeht so hat die HD5870 nichts weiter gemacht als endlich mit der GeForce-Riege wieder gleichgezogen, das bisherige AF war schlicht eine Beleidigung der schönbildaffinen Spieler, inzwischen befinden sich beide Karten auf einem etwa ähnlichen Niveau, und die Frage lautet nun nur ob nVidia der potenten GTX380 auch neue/bessere Modi zur Bildaufhübschung spendiert hat oder nicht, oder ob es beim Quasi-Patt in der Bildqualität bleibt.



Denn hinzu kommt ja, das der G300 - so viel ich bisher weiß - "endlich" mal wieder ein neuer Chip von nVidia ist, G92 und GT200 waren im Grunde überarbeitete Fassungen vom G80 der 8800GTX von vor über 3 Jahren. AMDs HD5870 basiert wiederum auf dem Vorgänger RV770, weshalb der Entwicklungsaufwand für die Karte auch geringer war, da nVidia ja was Neues bringt, und nichts überarbeitetes.
 
Zuletzt bearbeitet:
Im Moment sehe ich nicht von einem ,,Fermi", also wird das wohl noch eine Weile dauern. Nächstes Jahr soll ja schon ein neuer AMD-Beschleuniger kommen - es ist ein Geben und Nehmen.
 
Das Topmodel der GT300 wird bestimmt die 5870 Schlagen, aber ob das viel wird ?
Technisch gesehen wird GT300 die eine Milliarde mehr Transistoren haben wird als der RV870 Chip, eher für GPGPU konstruiert sein. Da schon gesagt wurde, dass der GT300 bessere Rechengenauigkeit haben wird als die anderen GPUs.
Preislich wird der GT300 nur für absolute nVidia Fans interessant sein, oder für Kunden die CUDA benutzen. Da die GTS Modele des GT300 erst im späten Q1/2010 erscheinen werden. Die ersten Karten werden bestimmt Preis/Leistungs-technisch den HD5xxx Reihe unterlegen sein.

Ich habe seit meiner Voodoo2 keine andere Karte als die von nVidia gehabt,
angefangen bei Riva TNT bis 8800 GTS-640. Jetzt habe ich mir die HD5870 geholt und bin zufrieden mit den ATI Treibern und der Hardware erst recht.
 
Die HD5870 ist schneller, leiser, kühler und hat eine insgesamt bessere Bildqualität als eine GTX285. Von "gleichgezogen" sehe ich da nix:hmm:

Mich würde mal interessieren wie du darauf kommst, dass die HD5870 angeblich eine bessere Bildqualität als eine GTX285 liefern soll? :what:

PCGH sagt dazu nämlich etwas anderes:

Erfreulich ist, dass das Gesamtbild einer HD 5000 weniger flimmert als auf einer Radeon HD 4000/3000/2000. Das sogenannte Banding, Übergänge zwischen Texturen, ist weniger auffällig. Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung"). Mit HQ-AF ohne Sparmaßnahmen filtert eine aktuelle Geforce jedoch nach wie vor homogener als eine Radeon HD 5000.

Quelle: Radeon HD 5870: Die erste Direct-X-11-Grafikkarte im Benchmark-Test - Radeon HD 5870 Test, HD 5850, HD 5800, DirectX 11, Benchmark, Grafikkarte


Ansonsten hast du natürlich recht, die HD5870 ist kühler, leiser und stromsparender als eine GTX285 ;)
 
Nun, zwischen dem SGSSAA der HD5870 und Nvidias SSAA, oder den kombinierten Modi gibt es keinen sichtbaren unterschied. Bei ATI kann man das bessere AA lediglich im Treiber offiziell anwählen, während man bei Nvidia dies nur über nHancer aktivieren kann. Bei Nvidias SSAA, oder den kombinierten Modi wird zudem gleich noch automatisch das LOD mit angepasst, sodass mann bis zu 64xAF hat. Bei der HD5870 muss man das LOD manuell verstellen. Letztendlich hat Nvidia insgesammt immer noch die Nase vorne, wenn es um die Bildqualität geht, zumal man AF in jedem Spiel aktivieren kann, was bei AA nicht immer möglich ist ;)
 
die kalifornier haben scheinbar den fokus gewechselt.
was man in der letzten zeit so liest, klingt schwer nach einem leisen rückzug aus dem 3d-Beschleuniger-Markt.
wollen wir hoffen, dass dies nicht zutrifft.

eins scheint aber klar, die nächsten 3-6 monate wird die radeon hd5xxxer serie das mass aller dinge im gpu-sektor bleiben. selbst wenn g300 und konsorten im ersten quartal 2010 erscheinen, werden die preise wohl kaum konkurrenzfähig sein. so hat es jedenfalls die vergangenheit gezeigt.
 
Nun, zwischen dem SGSSAA der HD5870 und Nvidias SSAA, oder den kombinierten Modi gibt es keinen sichtbaren unterschied. Bei ATI kann man das bessere AA lediglich im Treiber offiziell anwählen, während man bei Nvidia dies nur über nHancer aktivieren kann. Bei Nvidias SSAA, oder den kombinierten Modi wird zudem gleich noch automatisch das LOD mit angepasst, sodass mann bis zu 64xAF hat. Bei der HD5870 muss man das LOD manuell verstellen. Letztendlich hat Nvidia insgesammt immer noch die Nase vorne, wenn es um die Bildqualität geht, zumal man AF in jedem Spiel aktivieren kann, was bei AA nicht immer möglich ist ;)

Das sehe ich etwas anders: SGSSAA ist der Kantenglättung von Nvidia überlegen; diese können den Nachteil auch durch eine breitere Auswahl an Modi und der besseren AF-Qualität nur bedingt aufwiegen; ich finde den Unterschied durch die Kantenglättung deutlich.
 
Das sehe ich etwas anders: SGSSAA ist der Kantenglättung von Nvidia überlegen; diese können den Nachteil auch durch eine breitere Auswahl an Modi und der besseren AF-Qualität nur bedingt aufwiegen; ich finde den Unterschied durch die Kantenglättung deutlich.
Nur das SGSSAA defakto nur bei ziemlichen alten Spielen mangels ausreichend Rechenleistung verfügbar ist.
 
Zurück