Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten [Update]

AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Eigentlich nicht. Eigentlich ist es bei ATI auch so, dass sie unter Furmark mehr verbrauchen würden, als die TDP sagt, aber die Grafikkarte erkennt den Bench und taktet sich runter, fährt also nicht mit voller Leistung. Das verfälscht die Ergebnisse. Aber weniger brauchen tun sie schon, das stimmt
1. War dies nur bei der 4000er Reihe der Fall
2. Wurde die .exe vom FurMark deswegen extra in "etqw.exe" geändert, die dann der Treiber als solches erkennt.
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Produktionskosten erheblich gesenkt....

Unglaublich. Gibts dann die Leistung einer HD5870/GTX470 für 200€ oder was?

Schon jetzt werden die einem doch schon hinterhergeschmissen. Wer erinnert sich noch an die Zeiten, wo ne 8800 Ultra (Single GPU!) 700€ kostete. Mittelklasse 300-400€, low end 100-200€.

Heute bekommt man diese höchste Leistungsklasse (60+ FPS in fast allen Spielen) für 300€. Bedeutet, dass sich in 3 Jahren der Preis halbiert hat. Und jetzt solls noch günstiger werden...


Na ja, is ja super. :D
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Wirklich sehr aussagekräftig formuliert von den Herrn. Demnächst auf 'ner BMW Pressekonferenz: "Das neue Model bewegt sich Leistungstechnisch irgendwo zwischen 318i und M3" :ugly:

Ich halte mich da nur an die Quelle - dort wird es nicht anders formuliert, so weiß es der geneigte Leser. ;) Zudem kann man ja wohl durchaus ausmachen, dass sich "Barts" laut dieser Aussage - sofern sie denn stimmt - dementsprechend wohl auf dem Niveau einer HD5830 /50 bewegen wird. Aber warten wir es doch erst mal ab.
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Nur 1024mb Ram?? Sorry aber ich will mir nicht nach 4 Monaten nochmal ne neue Graka wegen Rammangel holen müssen.
Ich hol mir glaubich eine 5870 2GB. Lohnt sich kurz- und längerfristig am allermeisten!
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Ich dachte Cayman soll erst im Februar 2011 kommen? Klingt ja alles soweit schon mal ganz gut, wobei mir die Aussage mit den Barts auch nicht so ganz in den Kopf gehen will. Da liegen ja Welten an Perfomance zwischen der HD 5770 und der HD5870...:what:
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

Warum nicht einfach abwarten was rauskommt. Was sich vorab aber schon sagen lässt,
a) es wird keine sowas von arg inszenierte PR-Schlacht wie für den Toaster von Nvidia
b) Das Produkt wird sehr wahrscheinlich auch zum angekündigten Termin erscheinen
c) Für die kalten Wintermonate ist die GTX 480 sicherlich mehr zu empfehlen, was die Leistung angeht, steht das Ergebnis allerdings bis zum Erscheinen unabhängiger erstellter Benches vollkommen offen.
 
AW: Intel-Ingenieur wechselt zu AMD, Erste HD6xxx-Daten

1. War dies nur bei der 4000er Reihe der Fall
2. Wurde die .exe vom FurMark deswegen extra in "etqw.exe" geändert, die dann der Treiber als solches erkennt.

Ab dem Catalyst 9.8 kannst du die Furmark.exe in alles umbennen was du willst, sie wird trotzdem vom Treiber gedrosselt (ohne das der angezeigte Takt dabei sinkt, siehe hier Catalyst 9.8 and 9.9 Improve Protection Against FurMark - 3D Tech News, Pixel Hacking, Data Visualization and 3D Programming - Geeks3D.com . Bei der HD5000-er Reihe ist es so, das hardwareseitig Vorkerungen getroffen wurden, die den Takt der GPU bei zu starker Beanspruchung senken ATI Cypress (Radeon HD 5870) Cards Have Hardware Protection Against Power Virus Like FurMark and OCCT - 3D Tech News, Pixel Hacking, Data Visualization and 3D Programming - Geeks3D.com Radeon HD 5970 Overclocking Problems with FurMark - 3D Tech News, Pixel Hacking, Data Visualization and 3D Programming - Geeks3D.com .
 
klingt für mich so als ob die Preise der HD58xx wohl auch zu HD68xx wohl halbwegs stabil bleiben :)

na mal abwarten
 
Also Barts klingt schon sehr interessant. Was kostet eine 5770 derzeit? 130-150€.

ATI wird definitiv die 6770 gegen die GTX460 (GF104) antreten lassen, es ist zu erwarten, dass die 6770 gleich oder etwas schneller ist, sich also leistungstechnisch irgendwo zwischen 5830/5870 bewegen wird. Ansonsten würde es keinen Sinn machen, Barts zuerst zu bringen.

Naja und da man erwarten kann, dass man die 6770 zum gleichen Einführungspreis wie damals die 5770 bekommen wird, wird das ne harte Preis-/Leistungskonkurrenz zur GTX460, vom Stromverbrauch mal ganz abgesehen (150W vs. 17xW).

Und schlagt euch mal ausm Kopf, dass Cayman 300W verbraten wird. Im ATI-Forum steht lediglich, dass durch den 6+8 Pin-Anschluss eine TDP von weniger als 300W feststehen, und zwar genauer irgendwas zwischen 225W und 300W (sonst würde 2x6 Pin reichen). Ich tippe vom Stromverbrauch her auf GTX470-Niveau, also ca. 230W. Also kein Grund zur Panik :daumen:

Nvidia muss dann auch die Preise senken, das passt doch...:)
 
Also Barts klingt schon sehr interessant. Was kostet eine 5770 derzeit? 130-150€.

ATI wird definitiv die 6770 gegen die GTX460 (GF104) antreten lassen, es ist zu erwarten, dass die 6770 gleich oder etwas schneller ist, sich also leistungstechnisch irgendwo zwischen 5830/5870 bewegen wird. Ansonsten würde es keinen Sinn machen, Barts zuerst zu bringen.

Naja und da man erwarten kann, dass man die 6770 zum gleichen Einführungspreis wie damals die 5770 bekommen wird, wird das ne harte Preis-/Leistungskonkurrenz zur GTX460, vom Stromverbrauch mal ganz abgesehen (150W vs. 17xW).
Ich glaube aber kaum, dass ATI die HD 6770 anfangs für den selben Preis wie damals die 5770 verkauft (also ca. 140-150€). ATI wird das sicherlich erstmal etwas ausnutzen, dass man eine Leistung auf Niveau der GTX 460 (?) Karten erreicht, preislich gesehen attraktiver ist und stromsparender ist.

Von daher denke ich, dass die HD 6770 (wenn sie denn noch so heißt) etwas teurer wird als damals die 5770, aber etwas billiger als die GTX 460. Wenn das alles so eintreten sollte, sprich die Gerüchte alle stimmen, kann sich NV aber warm anziehen, welche ja noch nicht mal die ganze Produktpallete ihrer Fermies präsentiert haben und verkaufen können - und da bringt ATI schon fast wieder eine neue Generation...! :ugly:
Und schlagt euch mal ausm Kopf, dass Cayman 300W verbraten wird. Im ATI-Forum steht lediglich, dass durch den 6+8 Pin-Anschluss eine TDP von weniger als 300W feststehen, und zwar genauer irgendwas zwischen 225W und 300W (sonst würde 2x6 Pin reichen). Ich tippe vom Stromverbrauch her auf GTX470-Niveau, also ca. 230W. Also kein Grund zur Panik :daumen:
Genau so sehe ich das auch. :)
Die 6+8Pin heißt ja nicht automatisch 300W. Und ehrlich gesagt glaube ich auch nicht, dass ATI so eine Politik betreibt, dass sie jetzt die Fermies um jeden Preis (Leistungsaufnahme + Wärmeabgabe) um längen schlagen wollen.
Nvidia muss dann auch die Preise senken, das passt doch...:)
Das wird sich NV aber reglich überlegen müssen - sie verdienen doch jetzt schon wenig mit ihren GTX 460 Karten. ;)
 
Wie kommst du denn darauf?
Puh, genau weiß ichs nicht mehr, aber entweder aus der Print, oder Online.

Aber plausibel ist es.
Auch der GF104 ist immer noch ein ganzes Stück größer (wenn auch potenter) als vergleichbare ATI-Chips, z.B. der Redwood XT.
Die Chipausbeute ist immer noch nicht berauschen und je großer der Chip, desto höher die Wahrscheinlichkeit, dass der Chip (Teil-) defekt ist.

Außerdem bietet NV die GTX 460 für 180-220€ an und hat sogar wenige Tage nach dem Realese die Preise gesenkt (senken müssen?).

Ich sagte ja nicht, dass die kaum etwas damit verdienen, aber der Kracher ist es definitiv nicht. ;)
 
Außerdem bietet NV die GTX 460 für 180-220€ an und hat sogar wenige Tage nach dem Realese die Preise gesenkt (senken müssen?).

Ich sagte ja nicht, dass die kaum etwas damit verdienen, aber der Kracher ist es definitiv nicht. ;)

Dass ist bestimmt so aehnlich wie mit den aktuellen Phenom 2 CPUs. AMD verdient bestimmt nicht viel an den CPUs obwohl sie sich "relativ" gut verkaufen.;)
 
Dass ist bestimmt so aehnlich wie mit den aktuellen Phenom 2 CPUs. AMD verdient bestimmt nicht viel an den CPUs obwohl sie sich "relativ" gut verkaufen.;)
Ganz genau. ;)
Wobei hier beim 45nm Prozess die Ausbeute an einwandfreien Chips wohl etwas höher ist, als beim neueren 40nm Chip. Außerdem ist der Deneb-Chip ja auch um einiges kleiner, als der Fermie von NV. :ugly:

Naja und AMD verkauft ja auch die Teildefekten 4Kern-Chips als 2- und 3Kern Varianten, somit hat AMD weniger "Abfall".

Das ändert nichts daran, dass AMD durch den PhenomII nicht reich (geworden) ist. :(
 
Also ich jedenfalls gönne es AMD.

Aber der Bulldozer ist ja nicht AMDs einziges heißes Eisen im Feuer:

  • Die HD5000 erfreut sich großer Beliebtheit (auf alle Sektoren bezogen) und sie hat den Vorteil, dass die Evergreens viel früher auf den Markt kamen, als NVs Pendant. Damit will ich sagen, dass in viel Notebooks, Komplett-PCs schon eine HD5xxx steckt und manche ihre Lager mit ATI-Karten schon teilweiße belegt haben - NV wirds da schwer haben, weil der Markt teilweiße schon etwas gesättigt ist. ;)
  • Zum anderen hat AMD vor Kurzem die beiden mobilen Plattformen auf den Markt geworfen und beide machen sich ganz gut. Wobei die Nile (also der Atom-Killer) mehr ein Erfolg werden dürfte als die Danube.
  • Dann kommt ja noch, wie kurzlich erfahren, die HD6000 dieses Jahr auf den Markt und das wahrscheinlich mit hervorragenden Ergebnissen - wie gesagt, NV hat noch nicht mal ihre ganze Produktpallete vorgestellt. ;)
  • Und dann kommt ja auch noch Llano und Ontario. Vor allem für die mobile Variante sprechen die guten Gerüchte. :)
  • Tja vielleicht kommen ja auch die 28nm Northern Islands gegen Ende 2011 raus....
Also denke (aber vielmehr hoffe) ich, dass 2011 ein gutes Jahr für AMD und dessen Gewinn werden könnte. :)
 
Also denke (aber vielmehr hoffe) ich, dass 2011 ein gutes Jahr für AMD und dessen Gewinn werden könnte. :)

Also im GPU Segment macht AMD bestimmt momentan ordentlich Geld und ich denke dass wird sich vorerst auch nicht aendern. Dass goenne ich der Marke auch.

Im CPU-Segment sehe ich nicht so gutes fuer AMD. Erstens kommt Bulldozer wahrscheinlich deutlich spaeter als Sandy Bridge und zweitens ist es eher unwahrscheinlich dass Bulldozer genauso schnell ist wie Sandy Bridge. Aber dass finde ich auch gut wenn Intel da weiterhin die besseren CPUs hat und mehr Kohle macht.:D
 
Zurück