AMD glaubt, dass Nvidia mit Fermi den Spielemarkt aus den Augen verliert

Und wo ist der Nutzen von Qualität, die keinem was nutzt?

Ich find auch die ganzen Benchmarks in irgendwelchen unspielbaren Settings völlig unsinnig. Was bringts mir, dass eine Karte 5fps schafft und die andere 6? Nette Spielerei, aber mehr auch nicht, für den Alltag völlig unnötig.
 
Ich halte SGSSAA bei weitem nicht für unnötig, im Gegenteil. Der Haken ist halt der enorme Rechenaufwand. Sollten ATIs zukünftige Karten nicht bedeutend schneller und/oder der Modus performanter werden, so wird SGSSAA wohl für immer dazu verdammt sein, nur ältere Spiele zu verschönern. Crysis wird dann wohl erst mit einer HD7870 mit SGSSAA flüssig spielbar sein, während Crysis 2 erst mit einer HD9870 mit SGSSAA flüssig darstellbar sein wird, wobei sich zum selben Zeitpunkt das Problem mit Crysis 3 auftut.
 
Eines muss ich schon sagen. Es ist ein Armutszeugnis, wie Spieleprogrammierer sowie Treiberprogrammierer eine eindeutig definierte API wie Direkt X oder Open GL immer wieder fehlerhaft in ihr Produkt implementieren können.

Entweder sind die Produktzyklen zu kurz und es ist nicht möglich ausreichend zu testen - oder - die Alternative mag ich nicht aussprechen. Von wegen Inkompetenz und so.
Was bist du denn für einer? Schon mal was Programmiert das mehr als 1000 Zeilen hatte? :what: ... Wenn du überhaupt schonmal programmiert hast, würde mich das stark wundern!

Wer in Sachen DirectX oder OpenGL von einer eindeutig definierten SChnittstelle redet, der hat echt keine Ahnung. Für den Anwendungsentwickler sieht das eindeutig aus, aber aus Treiberentwicklersicht ist es alles andere als Eindeutig! :devil:

Ich verlange ja nicht viel, aber etwas mehr zurückhaltung was solch dämliche Sprüche angeht sollte schon herschen. Oder willst du dir deine Treiber mal selber Programmieren?

Edit:
Two-Face schrieb:
Ich halte SGSSAA bei weitem nicht für unnötig, im Gegenteil. Der Haken ist halt der enorme Rechenaufwand.
Nur das er halt genau aus diesen Grund damals schon mal verschwunden ist. :-P SGSSAA ist durch den enormen Leistungsverbrauch nicht wirklich zu gebrauchen und von der Technik her schon fast Computer Steinzeit. Wenn ich mich recht erinnere, gab es die ersten Beschreibungen dieses Verfahren schon in meinen Uni Büchern und die sind so alt, da haben einige der Herrn hier noch in die Windeln gemacht!
 
Zuletzt bearbeitet:
Ich verstehe wirklich nicht warum einige so überzeugt von einem nicht erhältlichen Produkt sind.

Klar gibt es Sachen die einem NV Chip besser liegen wie einem ATI Chip, aber das man mit aller Gewalt den zum Teil beachtlichen Zeit und Technologievorsprung von ATI wegdiskutieren will das geht garnicht.
Ich z.B nutze schon jahrelang privat Systeme mit AMD CPU´s dennoch würde ich den beachtlichen Technologievorsprung von Intel niemals abstreiten.
Ist ja schön wenn man mit seinem NV Beschleuniger zufrieden ist, aber die Argumente die da gegen ATI kommen sind echt reines Fanboy geblubber.
Schon klar DX11 ist unnütz das braucht kein Mensch, die Modi zur Bildverbesserung stammen aus grauer Vorzeit und taugen nichts und diese miesen Treiber von ATI.

Bis NV ein Produkt am Markt hat das besser ist was ATI momentan vorzuweisen hat vergehn noch ein paar Monate. Ich habe sowieso erst nächstes Jahr vor aufzurüsten sollte NV bis dann ein besseres Produkt am Markt haben fasse ich das auch ins Auge.

Da ich aber einige Hard und Software Experten kenne und diese eben von einem zahnlosen Tieger sprechen wenn man den Femi erwähnt gibt mir halt zu denken.

Ihre Argumente

1 komplexe Treiberstruktur
2 schwer auszulastende Hardware auch mit guten Treibern ( nur Grafikpower )
3 der Verbrauch wird zumindest unter Last alles sprengen was man bislang von Karten mit einer GPU kennt
4 Sehr teuer in der Herstellung was den Endkunden Preis auch in ungeahnte Gefilde für single GPU Karten treibt.
5 Die Architektur ist nicht primär auf hohe Grafikleistung getrimmt wer sich damit auskennt sieht auf anhieb das dieser Femi mit den Vorgängern so garnix gemeinsam hat, NV hat sozusagen das Rad neu erfunden.

ATI hat seine Hausaufgaben schon gemacht, NV sollte nun auch mal langsam in die Gänge kommen, uns Zockern bringt das ja nur Vorteile wenn der hoffendlich nicht ganz so zahnlose Tieger den Markt erreicht. Eventuell sind sie ja schon dabei ihm ein Gebiss anzufertigen :-)
 
Klar gibt es Sachen die einem NV Chip besser liegen wie einem ATI Chip, aber das man mit aller Gewalt den zum Teil beachtlichen Zeit und Technologievorsprung von ATI wegdiskutieren will das geht garnicht.
Mmh, von welchen Technologievorsprung redest du? Nenn mir doch bitte nur mal einen wirklich Vorsprung und komme mit bitte nicht mit DX11 oder 40nm Fertigung ... Wir reden hier von Technologien und nicht von son Mumpitz!

Da ich aber einige Hard und Software Experten kenne und diese eben von einem zahnlosen Tieger sprechen wenn man den Femi erwähnt gibt mir halt zu denken.

Ihre Argumente
Ohh, jetzt wirds lustig!

1 komplexe Treiberstruktur
Mit welcher Argumentation? Weil der Treiber zwischen SP und DP umschalten können muss? Das ist bei heutigen Architecturen auch schon der Fall und CPU machen das seid Jahren! Ich möchte nur daran erinnern, dass der Pentium MMX niemals gleichzeitig MMX und FPU Benutzen konnte, weil sich beide Einheiten ein Registersatz teilten.

2 schwer auszulastende Hardware auch mit guten Treibern ( nur Grafikpower )
Haha, verwechselt du das gerade die Firmen? Ist es nicht ATI die immer wieder Problem haben ihre Einheiten zu fühlen? 20-30% Unterschied zwischen den RV870 und den GT200! Und das bei 1600 Units gegen 240 Units? Welches Architectur ist da wol effektiver?

3 der Verbrauch wird zumindest unter Last alles sprengen was man bislang von Karten mit einer GPU kennt
Muss nicht zwingend sein. Bei ATI hat man auch die Einheiten verdoppelt und verbraucht nur minimal weniger, was anderes macht nvidia hier auch nicht. Die Modufikationen im Shaderkern werden nicht soviel Strom ziehen. Oder wissen deine Experten mehr als ich?

4 Sehr teuer in der Herstellung was den Endkunden Preis auch in ungeahnte Gefilde für single GPU Karten treibt.
Kann ich nichts zusagen, kenn ich mich nicht mit aus.

5 Die Architektur ist nicht primär auf hohe Grafikleistung getrimmt wer sich damit auskennt sieht auf anhieb das dieser Femi mit den Vorgängern so garnix gemeinsam hat, NV hat sozusagen das Rad neu erfunden.
ROFL! :lol:Du bist der Held! Um es einmal ganz klar zusagen, wenn nvidia nicht gesagt hätte, dass man hier den DP Durchsatz deutlich erhöhen will, was meinst du wohl was dann für Kommentare gekommen wären? Die Kerne des Fermi und des G200 unterscheiden sich zwar schon, aber nicht so stark wie du, oder besser deine Experten behaupten. Fakt ist, die SP Leistung wird nicht beeinträchtigt und Fakt ist auch die Einheiten zahl hat sich in etwa verdoppelt, also was meinst du wohl kommt daraus?

ATI hat seine Hausaufgaben schon gemacht, NV sollte nun auch mal langsam in die Gänge kommen, uns Zockern bringt das ja nur Vorteile wenn der hoffendlich nicht ganz so zahnlose Tieger den Markt erreicht. Eventuell sind sie ja schon dabei ihm ein Gebiss anzufertigen :-)
ATI hat vielleicht seine Hausaufgaben gemacht, aber diese Architectur ist nun einiges zu alt und die nächste kommt erst 2011! Rede nicht son Müll wenn du offensichtlich nicht weißt wovon du redest.
 
Es ist echt erfrischend, wie schnell die jeweiligen Fanboys vom vorgegeben Thema abweichen, kluge Posts zum Topic hingegen glatt ignoriert und dafür immer nur galant mit emotional aufgeheizten Troll-Zitaten das übliche Foren-Jojo gespielt wird.

Ich hatte in einem anderen Post mal die Treiberproblematik und die wesentlichen Unterschiede in den Architekturen der Karten in verschiedenen Anwendungsszenarien beschrieben - wohlgemerkt aus Sicht eines Programmierers. Ich besitze aktuelle Karten beider Hersteller, finde den Catalyst eine mittelgroße Katastrophe und gebe trotzdem deutlich über 300€ für eine HD 5870 aus. Aus purer Neugier und weil es sich mit so einer Karte in einigen wenigen Bereichen deutlich besser rechnen lässt, als mit einer aktuellen Geforce.

Eine Schnittstelle ist der kleinste gemeinsame Nenner. Mehr nicht. Trivialstes Beispiel: sie sagt nichts darüber aus, wie komplex/progressiv ein Mesh sein kann, um der jeweiligen Kombination aus Karte/Treiber entgegen zu kommen oder ob man nicht lieber teilt. Man kann die Karte des Herstellers A schnell über Texturen zuballern, Karte B zuckt nicht mal drüber, kann fertige Texturen nutzen/laden oder selbst welche erstellen (Fraktale) und/oder diese zur Laufzeit modifizieren. Genauso irreführend ist der gern verwendete Begriff Rohleistung. Die Leistung ist da und abrufbar. Nur wird die Hardwarestruktur nie idealerweise dem Anwendungsprofil exakt entsprechen können. Hier sind die Treiberprogrammierer gefordert, Ausnahmen und Schwachstellen der eigenen Basis zu erkennen und Abhilfe zu schaffen. Diese Optimierungen für bestimmte Spiele basieren aus der Einsicht, dass nichts ideal sein kann, aber man über Umwege doch zum Ziel kommt. Das Thema ist einfach zu komplex, als es emotionsbehaftet und inhaltlich zufriedenstellend in einem Forum auszudiskutieren.

Ich bin sicher, Fermi wird ein Knaller. Das Weglassen dessen, was für Gamer nicht relevant ist, wird auch kein Problem sein. Genauso wenig, wie das Weglassen von Einheiten für die Anpassung an die unteren Leistungsklassen. Aber weder ATI noch Nvidia können momentan den Markt bedienen - dazu mangelt es beim Auftragsfertiger an Ausbeute und Stückzahl. Warum also sollte Nvidia den Geschäftskundenmarkt, der mehr Gewinn abwirft, nicht als erstes bedienen? Man wirbt immer für das, was man gerade verkaufen kann. Und da wirbt ATI für meinen Geschmack momentan zu viel.
 
@ Beulchen

Brauchst mich doch nicht so anzufahren, die Leute von denen diese Aussagen kommen arbeiten zum Teil bei sehr Namenhaften Softwareunternehmen.

Und sorry DX11 ist nun mal wichtig, eventuell jetzt noch nicht das streitet keiner ab, aber das es kommen wird wirst du wohl auch nicht abstreiten können.

Also du weißt nicht wie teuer das ist einen solch komplexen Chip zu bauen, aber hast große Kenntnisse von Chipdesign, sorry aber das stellt unter Beweis das du nicht so viel Ahnung hast wie du hier vorgibst.

Schon klar die Architektur ist zu alt, also ich für meinen Teil finde das dann beeindruckend das die ATI Karten mit der hoffnungslos veralteten Architekur die schnellsten und besten Karten am Markt sind. Ja, der Core 2 Duo ist ja auch nur ein extreem aufgebohrter P3 ;-) macht trotzdem jede AMD CPU platt.
Alte Architekturen reifen ständig, die junge Architektur von NV braucht ne Weile um ihr volles Potenzial zu nutzen. Mehr hat auch keiner der Experten behauptet.

Wie gesagt, ich habe nicht gepredigt sondern meine Meinung geschrieben, das ist kein Grund persönlich zu werden, eine sachliche Diskusion ist doch viel angenehmer.
 
Klar gibt es Sachen die einem NV Chip besser liegen wie einem ATI Chip, aber das man mit aller Gewalt den zum Teil beachtlichen Zeit und Technologievorsprung von ATI wegdiskutieren will das geht garnicht.
Welcher Zeit- und Technologievorsprung? ATI nutzt nun immer noch die uralte R600-Architektur, während Nvidia mit einer (wie du ja selbst sagst) komplett neuen Architektur kommt. Wer da jetzt also den Technologievorsprung hat, ist doch eindeutig :schief:

Schon klar die Architektur ist zu alt, also ich für meinen Teil finde das dann beeindruckend das die ATI Karten mit der hoffnungslos veralteten Architekur die schnellsten und besten Karten am Markt sind.
Das einzig beeindruckende ist, dass eine 1 1/2 Jahre alte Karte mit dem größeren Fertigungsprozeß immer noch so gut mithält. eine GT200 in 40nm würde der HD5870 locker das fürchten lehren.
 
Glaube wenn NV mit den 300ern kommt backt ATI schön kleine Brötchen.
Die 295 ist unbestritten immernoch auf Platz 1.
Bis dato haben die 5000er auch nix drann geändert.
Wachablöse Platz 1 wird wieder Nvidia sein.
Aber teuer sindse muss man zugeben.
Prestige hat nunmal seinen Preis.
 
@Geo
Sorry, war etwas im Ton vergriffen!

Welcher Zeit- und Technologievorsprung? ATI nutzt nun immer noch die uralte R600-Architektur, während Nvidia mit einer (wie du ja selbst sagst) komplett neuen Architektur kommt. Wer da jetzt also den Technologievorsprung hat, ist doch eindeutig :schief:


Das einzig beeindruckende ist, dass eine 1 1/2 Jahre alte Karte mit dem größeren Fertigungsprozeß immer noch so gut mithält. eine GT200 in 40nm würde der HD5870 locker das fürchten lehren.
Nun ja, ganz so leicht kann man das nicht sagen. Der GT200 ist im prinzip eine Modifizierte G80 Architectur. Das selbe gilt natürlich auch für die ATI Serien 2xxx, 3xxx, 4xxx und 5xxx. Nur das man nvidia dafür geprügelt hat, dass der GT200 kein neuer Chip ist. ... Jetzt kommt ein neuer Chip und es ist auch wieder nicht recht! Ich frage gar nicht erst was dann richtig wäre. :devil:

Was den Unterschied zwischen RV870 und GT200 anbetrifft, so befürchte ich leider auch, dass ein kleiner GT200 im Schnitt ganz nahran kommen würde. Allerdings wird noch mehr Leistung im RV870 Design stecken und die Kollegen bei ATI bekommen da sicherlich noch mehr raus. Allerdings gehe ich mal davon aus das Fermi da noch mal kräftig ein drauf haut. ;) Rein vom Bauchgefühl her würde auf 5950 niveau oder ganz knapp drunter tippen.
 
Glaube wenn NV mit den 300ern kommt backt ATI schön kleine Brötchen.
Die 295 ist unbestritten immernoch auf Platz 1.
Bis dato haben die 5000er auch nix drann geändert.
Wachablöse Platz 1 wird wieder Nvidia sein.
Aber teuer sindse muss man zugeben.
Prestige hat nunmal seinen Preis.
Schei* aufs Prestige, mir persönlich gehts um pure Leistung, und wenn die GTX380 (wovon man anhand vermeintlich geleakter Ausstattungs-Daten ausgehen kann) der HD5870 davon zieht kaufe ich mir die GTX380, Preis ist mir da relativ egal, dass nVidia 500-600€ für ihre schnellste Karte nimmt ist jetzt auch keine schockierende Nachricht mehr, durch Verkauf der "alten" Karten kommt man außerdem billiger weg, hab da 2x GTX285er die bald einen neuen Besitzer suchen. :devil:

Sollte die GTX380 - wider Erwarten - der HD5870 hinterherlaufen wirds halt mal wieder nach langer Zeit 'ne Radeon, aber irgendwie glaube ich nicht, dass nVidia sich die Butter vom Brot nehmen wird, da wie schon weiter oben erwähnt bereits eine 40nm GTX 285 (mit dann höheren Taktraten) auch schon mit einer HD5870 mithalten könnte, und so schöne Sachen wie 240->512 Shader sprechen eher dafür, dass nVidia da noch nen dicken Schuss im Rohr hat. <3
 
Glaube wenn NV mit den 300ern kommt backt ATI schön kleine Brötchen.
Die 295 ist unbestritten immernoch auf Platz 1.
Bis dato haben die 5000er auch nix drann geändert.
Wachablöse Platz 1 wird wieder Nvidia sein.
Aber teuer sindse muss man zugeben.
Prestige hat nunmal seinen Preis.

Das ist zu hoffen, nachdem die 5870 die Leistung ihrers Vorgängers fast verdoppelte müssen das die NV ja auch, um schneller zu sein, alles andere wäre desaströs für meinen Geldbeutel. Leider bin ich von NV etwas entäuscht, denn ich wollte mir die neue ATI günstig untern Weihnachtsbaum legen, aber derzeit sieht es ja nicht so aus als ob das noch klappt. Wenn die sich noch mehr Zeit lassen, schaffen sie es vieleicht sogar, 2 Jahre keine neue Generation rausgbracht zu haben, is ja schon fast wie die Generationen davor. :daumen2:

Allerdings vergleiche ich nicht die 295 mit einer 5870. Die beiden Karten haben soviel gemeinsam wie ein Sempron mit einem i7

Los, gas geben NV ....:slap:
 
Mit der HD5870 hat ATI lediglich die Shader verdoppelt, aber nicht die Leistung - was wohl einfach mit der Optimierung und dem Treiber zusammenhängt.
 
Nun ja, ganz so leicht kann man das nicht sagen. Der GT200 ist im prinzip eine Modifizierte G80 Architectur. Das selbe gilt natürlich auch für die ATI Serien 2xxx, 3xxx, 4xxx und 5xxx. Nur das man nvidia dafür geprügelt hat, dass der GT200 kein neuer Chip ist. ... Jetzt kommt ein neuer Chip und es ist auch wieder nicht recht! Ich frage gar nicht erst was dann richtig wäre. :devil:
Fanatikern kann es Nvidia sowieso nicht recht machen, egal was sie tun. Selbst wenn eines eine GTX380 mit doppelter Leistung der HD5870 für 10€ gäbe, würden einige noch ATI kaufen.
 
Zurück