Geforce GTX 580: Paper-Launch angeblich am 08. November

daran ist eigentlich nichts schlimm, nur im Artikel ist von Verfügbarkeit erst 2011 die Rede - das sind dann mal glatt 2 Monate und nicht 2-3 Wochen. Mit ein bisschen Glück gibts wie ber der HD58xx ein paar Alibikarten am Markt, dann heissts halt schnell zuschlagen.

mfg


tja wird bei AMD 69XX genau so sein
und was der Typ von Nvidia hält wissen wir alle
also noch ne Gute Woche warten und dann werden ab spätestens ab Dezember erste 580er zu haben sein :daumen:
 
Und da halte ich gegen. Ich wette hier und jetzt, dass selbst die HD 6990 nicht mehr als 300 Watt TDP haben wird.

Laut aktuellen Meldungen hat die HD 6970 255 Watt TDP, jedoch sind wir es von AMD seit der HD 5000 Serie gewohnt, dass die Karten deutlich weniger aufnehmen, ich setze auf etwa 200 - 210 Watt im Spiele-Betrieb, wo die GTX 480 bereits gegen 300 Watt tendiert.

Bei PCGH stand doch im artikel das die HD 6970 15-20% schneller ist bei ÜBER 255 Watt TDP oder irre ich mich?
 
Besser? Dazu sage ich mal: Was zu beweisen wäre. 3DVision nutzt eh kein Schw@nz, gibt's außerdem inzwischen auch in ähnlicher Form von AMD, vom Nutzen von PhysX brauchen wir gar nicht erst anfangen, aber wo wir schon dabei sind, schon mal was von Bullet gehört und Cuda ist genau wie Stream dank OpenCL eigentlich hinfällig. Wenn man nun noch aufhören würde Entwickler mit Geld zu bestechen proprietäre Lösungen zu verwenden und statt dessen auf offene Standards setzen würde, könnte mal das ehrliche direkte Vergleichen anfangen ;)

Zum Thema Bildqualität: In meinem Rechner hing schon so ziemlich alles rum, aber nen Unterschied zwischen NV oder ATI hab ich außer auf Vergleichsbildern von Worstcase Szenarios nie feststellen können. War sowohl mit NV als auch mit ATI immer zufrieden.

Statt zu spekulieren wie verrückt... einfach abwarten wann die Karten wirklich da sind und was sie dann bringen. Was soll man denn 2 Monate auf etwas warten, was mit Features protzt die eh kaum einer nutzt, nicht definitiv besser oder schneller ist und wahrscheinlich auch nicht günstiger ist? Zur Not, verkauft man halt in 3 Monaten wieder, hat nen Verlust von 30 bis maximal 50€ (Pillepalle im Vergleich zu 3 Monaten warten) und kauft dann neu ;)


Boar...ich kann jedes Wort bestätigen...:daumen::daumen:Alsob ich es selbst geschrieben haette.
 
tja wird bei AMD 69XX genau so sein
und was der Typ von Nvidia hält wissen wir alle
also noch ne Gute Woche warten und dann werden ab spätestens ab Dezember erste 580er zu haben sein :daumen:

Es ist genau dieses Fanboy-Gequatsche das man hier im Forum NICHT braucht.:daumen2:

Alles was man bisher erfährt stammt aus der Gerüchteküche. Also haltet den Ball mal flach und wartet einfach ab wie der November laufen wird. Wenn die 69XX die erwartete Leistung bringt und neben einem akzeptablen Verbrauch auch mit Verfügbarkeit und Preis überzeugen kann, ist das doch wunderbar... und zwar für Jedermann!!!

Denn nur DANN wird Nvidia gezwungen sein, SCHNELL mit leistungsfähigen Karten und passendem Gesamkonzept nachzuziehen. Konkurrenz belebt das Geschäft und senkt, unabhängig von Wechselkursen, idR. den Preis.

Ein Paper-Launch hingegen interessiert mich nicht sonderlich. Wer darauf reinfällt, oder sich von einer (vielleicht) sinnvollen Investition abhalten lässt, ist schlicht und einfach "gerade dumm und empfänglich genug für Marketing-Sprüche". Entschuldigung, ist leider so. Die "neuere/spätere" Karte ist meistens die Schnellere. Aber trotzdem kein Grund ein gutes, aktuelles Produkt zu verteufeln/verschmähen.

Aber das mag für den einen oder anderen Fanboy einfach zu viel sein.:lol:
 
tja wird bei AMD 69XX genau so sein
und was der Typ von Nvidia hält wissen wir alle
also noch ne Gute Woche warten und dann werden ab spätestens ab Dezember erste 580er zu haben sein

das ist sicher richtig, aber die HD6xxx interessiert mich mit der aktuellen Bildqualitätgeschichte überhaupt nicht

Es ist genau dieses Fanboy-Gequatsche das man hier im Forum NICHT braucht.

Es ist nunmal so das die Quelle der News eine Seite ist die ganz klar Pro AMD eingestellt ist

Wenn die 69XX die erwartete Leistung bringt und neben einem akzeptablen Verbrauch auch mit Verfügbarkeit und Preis überzeugen kann, ist das doch wunderbar... und zwar für Jedermann!!!

nein ist es nicht, zumindest dann nicht wenn die Sache mit der schlechteren Bildqualität so weiter geht - da verzichte ich gerne auf den längeren Balken

mfg
 
tja wird bei AMD 69XX genau so sein
und was der Typ von Nvidia hält wissen wir alle
also noch ne Gute Woche warten und dann werden ab spätestens ab Dezember erste 580er zu haben sein :daumen:
Was der Typ von Nvidia hält?
Also wenn du XE85 meinst, nein der ist mir im Gegensatz zu dir nicht als Nvidia/AMD Fanboy aufgefallen
Und warum sollte Nvidia sagen, dass es die Grakas erst ab anfang 2011 geben wird, wenn sie schon viel früher verfügbar sein werden?
Warum kann es nicht mal einen Graka Thread geben, imdem ganz objektiv über die Grakas diskutiert wird?
Eigentlich sollte es für Fanboyposts auch Punkte geben....
 
Es ist nunmal so das die Quelle der News eine Seite ist die ganz klar Pro AMD eingestellt ist.
Was aber nicht zwangsläufig bedeutet, dass sie deshalb inhaltlich falsch ist und das dem eben nicht so ist hat man bei den oftmals zutreffenden Fermi-Prognosen gesehen.

Wenn man die gLaubwürdigkeit einer Person jetzt schon daran festmacht, welcher Marke eher persönlich näher steht, dann wären attock fast alle hier im Forum unglaubwürdig. ;)
nein ist es nicht, zumindest dann nicht wenn die Sache mit der schlechteren Bildqualität so weiter geht - da verzichte ich gerne auf den längeren Balken
M. M. n. ein Punkt der unnötig aufgebauscht wird. Niemand strietet ab das bei 100% Standbildaufnahmen welche dabei sind, wo die beschriebenen Effektschwächen sichtbar sind jedoch i. d. R. eben nicht im normalen Gebrauch. Ich besitze jeweils eine Nvidia GPU und eine von AMD und kann aus meiner persönlichen Erfahrungen keinen Unterschied bezüglich der Bildquallität feststellen.

MfG
 
Was der Typ von Nvidia hält?
Also wenn du XE85 meinst, nein der ist mir im Gegensatz zu dir nicht als Nvidia/AMD Fanboy aufgefallen
Und warum sollte Nvidia sagen, dass es die Grakas erst ab anfang 2011 geben wird, wenn sie schon viel früher verfügbar sein werden?
Warum kann es nicht mal einen Graka Thread geben, imdem ganz objektiv über die Grakas diskutiert wird?
Eigentlich sollte es für Fanboyposts auch Punkte geben....

Dieses dämliche Fanboy gehabe da immer. Lächerlich ist das!!!:daumen2: Dann bin ich auch ein Fanboy weil ich ATI garantiert NIE WIEDER kaufen werde......

Wenn die Argumente ausgehen, dann wird die gegenseite kurzerhand als Fanboy beschimpft. Einfach lächerlich.....
 
Was aber nicht zwangsläufig bedeutet, dass sie deshalb inhaltlich falsch ist und das dem eben nicht so ist hat man bei den oftmals zutreffenden Fermi-Prognosen gesehen.

Klar muss das nichts bedeuten, man sollte aussagen socher Webseiten aber trotzdem nicht zu voll nehmen

M. M. n. ein Punkt der unnötig aufgebauscht wird. Niemand strietet ab das bei 100% Standbildaufnahmen welche dabei sind, wo die beschriebenen Effektschwächen sichtbar sind jedoch i. d. R. eben nicht im normalen Gebrauch.

Es geht nicht um Standbilder - CB hat dazu Videos gemacht wo man es schön sieht

Das wäre auch nicht weiter schlimm wenn man es wie bei nv, zumindest über Tools, komplett deaktivieren könnte

Ich besitze jeweils eine Nvidia GPU und eine von AMD und kann aus meiner persönlichen Erfahrungen keinen Unterschied bezüglich der Bildquallität feststellen.

Es geht ja auch primär um die verschlechterung bei der HD6k gegenüber der HD5k

mfg
 
Also, SemiAccurate habe ich eher im Hinterkopf für möglichst vorpreschende, nicht immer "akkurate" ;) News... Charlie Demerjian ist ganz klar gegen Nvidia... von da aus schaun mer mal.

Ich hab jetzt schon von einem Verkaufsstart zwischen 22. Nov und Mitte Januar gelesen... wobei ich mir nicht vorstellen kann das sich Nvidia das Weihnachtsgeschäft durch die Lappen gehen lassen will. Ausserdem ist mir aufgefallen, dass manche GTX480er immer schlechter verfügbar werden (etwa die evga gtx480 hc ftw).

Schaun mer mal...
 
das ist sicher richtig, aber die HD6xxx interessiert mich mit der aktuellen Bildqualitätgeschichte überhaupt nicht

Dich vielleicht nicht. 9/10 andere aber schon.


Es ist nunmal so das die Quelle der News eine Seite ist die ganz klar Pro AMD eingestellt ist

Mag sein, ändert trotzdem nichts am Fanboy-Gehabe hier im Forum. Nur mit dem Unterschied dass die Leute hier weniger als einen Zehntel der Ahnung haben.


nein ist es nicht, zumindest dann nicht wenn die Sache mit der schlechteren Bildqualität so weiter geht - da verzichte ich gerne auf den längeren Balken

Für dich ist es ne große Nummer, für 9/10 andere nicht. Und diese 9 brauchen sich auch keine Gedanken machen.
 
Für dich ist es ne große Nummer, für 9/10 andere nicht.

möglich, aber ich behaupte das es von den 9 mindestens 7 nicht wissen das AMD die Bildqualität bewusst verschlechtert hat, zum einen weil viele Tester gar nicht richtig darauf eingehen und zum anderen weil viel nur die Balekn anschaun.

mfg
 
möglich, aber ich behaupte das es von den 9 mindestens 7 nicht wissen das AMD die Bildqualität bewusst verschlechtert hat, zum einen weil viele Tester gar nicht richtig darauf eingehen und zum anderen weil viel nur die Balekn anschaun.

mfg

Insofern man die Treibereinstellung von Q auf HQ ändert, sollte der Unterschied so gering sein, dass man es fast vernachlässigen kann. Der Balken geht dann zwar auch um ca. 5 % zurück aber ich beispielsweise würde diese 5 % gern für eine bessere BQ investieren! :rollen:
 
Oh mein Gott... dieses ganze dämliche Gelaber hier um die eigene Marke zu schützen oder die andere nieder zu machen! Hat einer schon ne 6950 oder 6970 im Test, im Video, in freier Wildbahn oder im eigenen Rechner? NEIN! Einzig die HD68xx Karten wurden getestet und sind zu haben. Über die Qualität und die Leistungsfähigkeit der HD69xx kann doch noch keiner was sagen! Über die Möglichkeiten in zukünftigen Treibern ebensowenig.

Und wer kann einem garantieren, dass NV bei zukünftigen Grafikkarten nicht auch an der Bildqualität ein wenig spart, um die gewünschte Performance zu bringen?

Abwarten, Ball flach halten und Tee trinken!

PS: mein Grakawerdegang

ATI Mach 64, Matrox Mystique+Voodoo2, Riva TNT2, Geforce 2MX, Geforce FX5700, HD3850 (256MB), 8800GTS 320, 8800GTX, HD5770 und bald wohl ne GTX470 (wegen Tesselationsleistung), wenn die neuen Karten die Preise weiter drücken.
 
Insofern man die Treibereinstellung von Q auf HQ ändert, sollte der Unterschied so gering sein, dass man es fast vernachlässigen kann. Der Balken geht dann zwar auch um ca. 5 % zurück aber ich beispielsweise würde diese 5 % gern für eine bessere BQ investieren!

leider ist es bei AMD aktuell so das selbst bei HQ die optimierungen nicht weg sind und man sie auch über umwege wie Tools nicht wegbekommt. Und da das bei der HD6k noch stärker ausgeprägt ist als bei der HD5k ist es eben nicht vernachlässigbar und ein klarer kritikpunkt.

Oh mein Gott... dieses ganze dämliche Gelaber hier um die eigene Marke zu schützen oder die andere nieder zu machen! Hat einer schon ne 6950 oder 6970 im Test, im Video, in freier Wildbahn oder im eigenen Rechner? NEIN! Einzig die HD68xx Karten wurden getestet und sind zu haben. Über die Qualität und die Leistungsfähigkeit der HD69xx kann doch noch keiner was sagen! Über die Möglichkeiten in zukünftigen Treibern ebensowenig.

ob es sich um eine 68xx und 69xx handelt ist in diesem Punkt völlig irrelevant, die optimierungen laufen über den Treiber. Ein umdenken bei zukünftigen Treibern ist sehr wünschenswert. Aber warum sollte AMD seine Strategie jetzt aufeinmal ändern.


so nun BtT

Ich hoffe stark das die 580 noch vor Weihnachten in den Regalen steht.

mfg
 
Naja aber immerhin haben die 69xx Karten komplett andere shader!

Für die musste der Treiber stakr umgeschrieben werden und in diesem Zug sind auch die Bildqualitätsoptionen stark verändert worden!

Das wäre doch eine recht real klingende Möglichkeit oder?!?
 
Und wenn die Filterung ein Hardware-Problem ist und AMD die TMUs nicht angerührt hat? Dann ist's Essig mit Treibern. Eine X1800 XT (R520) filtert mit AI off und Area-AF übrigens jede HD2k, HD3k, HD4k, HD5k und HD6k in Grund und Boden. Praktisch kein Banding oder Flimmern - und das war vor 5 Jahren! Seitdem ging's bei AMD leider BQ-mäßig (AF!) bergab.

Wie "komplett" anders die Shader sind, gilt es abzuwarten.
 
Ein Paper-Launch bringt doch nicht viel...außer, dass die Daten dann offiziel sind.

Mit der Aktion will Nvidia ATI nur ein wenig ärgern. :schief:
 
Zurück