Was bist du denn für einer? Schon mal was Programmiert das mehr als 1000 Zeilen hatte? ... Wenn du überhaupt schonmal programmiert hast, würde mich das stark wundern!Eines muss ich schon sagen. Es ist ein Armutszeugnis, wie Spieleprogrammierer sowie Treiberprogrammierer eine eindeutig definierte API wie Direkt X oder Open GL immer wieder fehlerhaft in ihr Produkt implementieren können.
Entweder sind die Produktzyklen zu kurz und es ist nicht möglich ausreichend zu testen - oder - die Alternative mag ich nicht aussprechen. Von wegen Inkompetenz und so.
Nur das er halt genau aus diesen Grund damals schon mal verschwunden ist. SGSSAA ist durch den enormen Leistungsverbrauch nicht wirklich zu gebrauchen und von der Technik her schon fast Computer Steinzeit. Wenn ich mich recht erinnere, gab es die ersten Beschreibungen dieses Verfahren schon in meinen Uni Büchern und die sind so alt, da haben einige der Herrn hier noch in die Windeln gemacht!Two-Face schrieb:Ich halte SGSSAA bei weitem nicht für unnötig, im Gegenteil. Der Haken ist halt der enorme Rechenaufwand.
Mmh, von welchen Technologievorsprung redest du? Nenn mir doch bitte nur mal einen wirklich Vorsprung und komme mit bitte nicht mit DX11 oder 40nm Fertigung ... Wir reden hier von Technologien und nicht von son Mumpitz!Klar gibt es Sachen die einem NV Chip besser liegen wie einem ATI Chip, aber das man mit aller Gewalt den zum Teil beachtlichen Zeit und Technologievorsprung von ATI wegdiskutieren will das geht garnicht.
Ohh, jetzt wirds lustig!Da ich aber einige Hard und Software Experten kenne und diese eben von einem zahnlosen Tieger sprechen wenn man den Femi erwähnt gibt mir halt zu denken.
Ihre Argumente
Mit welcher Argumentation? Weil der Treiber zwischen SP und DP umschalten können muss? Das ist bei heutigen Architecturen auch schon der Fall und CPU machen das seid Jahren! Ich möchte nur daran erinnern, dass der Pentium MMX niemals gleichzeitig MMX und FPU Benutzen konnte, weil sich beide Einheiten ein Registersatz teilten.1 komplexe Treiberstruktur
Haha, verwechselt du das gerade die Firmen? Ist es nicht ATI die immer wieder Problem haben ihre Einheiten zu fühlen? 20-30% Unterschied zwischen den RV870 und den GT200! Und das bei 1600 Units gegen 240 Units? Welches Architectur ist da wol effektiver?2 schwer auszulastende Hardware auch mit guten Treibern ( nur Grafikpower )
Muss nicht zwingend sein. Bei ATI hat man auch die Einheiten verdoppelt und verbraucht nur minimal weniger, was anderes macht nvidia hier auch nicht. Die Modufikationen im Shaderkern werden nicht soviel Strom ziehen. Oder wissen deine Experten mehr als ich?3 der Verbrauch wird zumindest unter Last alles sprengen was man bislang von Karten mit einer GPU kennt
Kann ich nichts zusagen, kenn ich mich nicht mit aus.4 Sehr teuer in der Herstellung was den Endkunden Preis auch in ungeahnte Gefilde für single GPU Karten treibt.
ROFL! Du bist der Held! Um es einmal ganz klar zusagen, wenn nvidia nicht gesagt hätte, dass man hier den DP Durchsatz deutlich erhöhen will, was meinst du wohl was dann für Kommentare gekommen wären? Die Kerne des Fermi und des G200 unterscheiden sich zwar schon, aber nicht so stark wie du, oder besser deine Experten behaupten. Fakt ist, die SP Leistung wird nicht beeinträchtigt und Fakt ist auch die Einheiten zahl hat sich in etwa verdoppelt, also was meinst du wohl kommt daraus?5 Die Architektur ist nicht primär auf hohe Grafikleistung getrimmt wer sich damit auskennt sieht auf anhieb das dieser Femi mit den Vorgängern so garnix gemeinsam hat, NV hat sozusagen das Rad neu erfunden.
ATI hat vielleicht seine Hausaufgaben gemacht, aber diese Architectur ist nun einiges zu alt und die nächste kommt erst 2011! Rede nicht son Müll wenn du offensichtlich nicht weißt wovon du redest.ATI hat seine Hausaufgaben schon gemacht, NV sollte nun auch mal langsam in die Gänge kommen, uns Zockern bringt das ja nur Vorteile wenn der hoffendlich nicht ganz so zahnlose Tieger den Markt erreicht. Eventuell sind sie ja schon dabei ihm ein Gebiss anzufertigen
Welcher Zeit- und Technologievorsprung? ATI nutzt nun immer noch die uralte R600-Architektur, während Nvidia mit einer (wie du ja selbst sagst) komplett neuen Architektur kommt. Wer da jetzt also den Technologievorsprung hat, ist doch eindeutigKlar gibt es Sachen die einem NV Chip besser liegen wie einem ATI Chip, aber das man mit aller Gewalt den zum Teil beachtlichen Zeit und Technologievorsprung von ATI wegdiskutieren will das geht garnicht.
Das einzig beeindruckende ist, dass eine 1 1/2 Jahre alte Karte mit dem größeren Fertigungsprozeß immer noch so gut mithält. eine GT200 in 40nm würde der HD5870 locker das fürchten lehren.Schon klar die Architektur ist zu alt, also ich für meinen Teil finde das dann beeindruckend das die ATI Karten mit der hoffnungslos veralteten Architekur die schnellsten und besten Karten am Markt sind.
Nun ja, ganz so leicht kann man das nicht sagen. Der GT200 ist im prinzip eine Modifizierte G80 Architectur. Das selbe gilt natürlich auch für die ATI Serien 2xxx, 3xxx, 4xxx und 5xxx. Nur das man nvidia dafür geprügelt hat, dass der GT200 kein neuer Chip ist. ... Jetzt kommt ein neuer Chip und es ist auch wieder nicht recht! Ich frage gar nicht erst was dann richtig wäre.Welcher Zeit- und Technologievorsprung? ATI nutzt nun immer noch die uralte R600-Architektur, während Nvidia mit einer (wie du ja selbst sagst) komplett neuen Architektur kommt. Wer da jetzt also den Technologievorsprung hat, ist doch eindeutig
Das einzig beeindruckende ist, dass eine 1 1/2 Jahre alte Karte mit dem größeren Fertigungsprozeß immer noch so gut mithält. eine GT200 in 40nm würde der HD5870 locker das fürchten lehren.
Schei* aufs Prestige, mir persönlich gehts um pure Leistung, und wenn die GTX380 (wovon man anhand vermeintlich geleakter Ausstattungs-Daten ausgehen kann) der HD5870 davon zieht kaufe ich mir die GTX380, Preis ist mir da relativ egal, dass nVidia 500-600€ für ihre schnellste Karte nimmt ist jetzt auch keine schockierende Nachricht mehr, durch Verkauf der "alten" Karten kommt man außerdem billiger weg, hab da 2x GTX285er die bald einen neuen Besitzer suchen.Glaube wenn NV mit den 300ern kommt backt ATI schön kleine Brötchen.
Die 295 ist unbestritten immernoch auf Platz 1.
Bis dato haben die 5000er auch nix drann geändert.
Wachablöse Platz 1 wird wieder Nvidia sein.
Aber teuer sindse muss man zugeben.
Prestige hat nunmal seinen Preis.
Glaube wenn NV mit den 300ern kommt backt ATI schön kleine Brötchen.
Die 295 ist unbestritten immernoch auf Platz 1.
Bis dato haben die 5000er auch nix drann geändert.
Wachablöse Platz 1 wird wieder Nvidia sein.
Aber teuer sindse muss man zugeben.
Prestige hat nunmal seinen Preis.
Fanatikern kann es Nvidia sowieso nicht recht machen, egal was sie tun. Selbst wenn eines eine GTX380 mit doppelter Leistung der HD5870 für 10€ gäbe, würden einige noch ATI kaufen.Nun ja, ganz so leicht kann man das nicht sagen. Der GT200 ist im prinzip eine Modifizierte G80 Architectur. Das selbe gilt natürlich auch für die ATI Serien 2xxx, 3xxx, 4xxx und 5xxx. Nur das man nvidia dafür geprügelt hat, dass der GT200 kein neuer Chip ist. ... Jetzt kommt ein neuer Chip und es ist auch wieder nicht recht! Ich frage gar nicht erst was dann richtig wäre.
Habt ihr ja beide recht ... aber ich muss mich hier ja nicht noch outen ... oder?Dasselbe gilt doch auch für die Nvidianer^^
Mir ist das egal, ich werd mir so schnell eh keine Grafikkarte mehr kaufen müssenDasselbe gilt doch auch für die Nvidianer^^