Ich verstehe nicht, wieso du hier Pro mit XT vergleichst?
Das führt zu nichts, wenn du schon zwei Generationen vergleichst, benutze auch die entsprechenden Modelle, und das sind hier nunmal Tahiti XT und Cayman XT, was den vergleich Cayman Pro gegen Tahiti Pro anbelangt, gedulde dich bis zum 31.01.
Wenn man das beachtet, hat AMD ähnliches geschafft wie damals bei der 5870. Eine Grafikkarte mit geringem Stromverbrauch und einer durchweg überzeugenden Rechenleistung, hier von einer schwachen Leistung zu sprechen ist meiner Meinung nach fatal.
[...]
Ich habe von Node zu Node verglichen und dieser Vergleich macht auch total Sinn? Ähnlich wie man die 5870 zur 4870 vergleichen kann. ( Ja viele haben noch die 4890 zum Vergleich hergezogen, was ich als Vergleichskarte gerne nehme, aber nicht als direkten Vorgänger)
Dieser Vergleich macht auch in so fern mehr Sinn, als ein frisches Produkt im neuen Node, mit der Refresh Generation von der alten Node zu vergleichen. Der Vergleich von Cayman Pro vs. XT rührt daher, dass Cayman XT ein unverhältnismäßiger Chip war. 10% mehr Leistung für 30% mehr Stromverbrauch. Da ist es auch kein Wunder, dass Tahitit XT so gut dasteht. Cayman Pro war für mich der beste Kompromiss aus Leistung und Stromverbrauch den man aus der Terascale Architektur für den 40nm Prozess pressen konnte. GCN hat einen schwachen Sprung hingelegt in Bezug auf den Graphics-Bereich, denn ich einmal nicht betonnen wollte.
Was die GPU in Compute Anwendungen leistet, ist mehr als nur eine große Leistung im Vergleich zu den alten Grafikkarten.
GCN ist aber für den Graphics-Bereich nicht ausnahmelos das gleiche wie es die HD 5870 zur selben Zeit war.
Das wird definitiv nicht kommen, also zumindest nicht bei den verkauften Karten.
GEnau so werden auch keine 2304 Streamcores kommen. Das passt gar nicht in die Aufteilung der CUs, da dies 36 CUs wären. Was passt ist, das man 4 CUs weiter drauf packt. Das geht nämlich wohl anders gar nicht, da sich diese einiges teilen. Man hätte dann allerdings einen asymmetrischen Aufbau, da diese 36 CUs 9 CU-Blöcken entsprechen (Wir erinnern uns 4 CUs = 1 CU-Block, der die kleinste Einheit ist, die man auf ein DIE funktionsfähig packt). Wenn werden es also 40 CUs, was dann 2560 Streamcores entspricht, respektive 10 CU-Blöcken.
2560 wäre dann aber schon ein ganz schöner Hammer.
Wo wäre eigentlich das Problem von 8 auf 9 zu verlängern?
Edit: Gerade die Architektur angeschaut. Das wäre ja total fail.
Müssen echt zehn sein und das gibt dann der Die-Space für mich endgültig nicht mehr her.
ATI(AMD) baut keine high end gpu chips mehr?
Gut zu wissen, frage mich nur wie du darauf kommst?!
ATI war in den letzten jahren doch immer an nvidia dran, und das mit großem erfolg.
Leistungsmäßig war das topmodell von ati immer langsamer als das von nvidia, aber auch nur weil nvidia später released hat und somit abschätzen konnte wie viel leistung sie benötigen um an der spitze zu sein.
Schau dir mal die chipfläche von ati und nvidia an, da bringt ati einiges mehr an rechenleistung pro quadratmillimeter
Skysnake hat es ja schon erwähnt, AMD hat es sich abgeschrieben große und fehleranfällige Dies zu produzieren und nur um Prestige Willen Geld aus zu geben. Es stimmt schon, dass Marktpsychologisch sich dieser Prestige Status auf die ganze Grafikserie auswirken kann, was man bei einigen Menschen in Bezug auf Nvidia merkt, aber aus AMD-Sicht lohnt es sich nicht mehr oder sie haben einfach nicht mehr die Ressourcen um da mitspielen zu wollen. AMD war auch nur im Grafik-Bereich sehr dicht an Nvidia. Nvidia hat in anderen Bereichen die AMD-Reihe alt aussehen lassen. Was die Flexibilität der Programmierung anbelangt, das compilieren, die Auslastung der einzelnen Gruppen, die Compute-Power usw.
Da hat GCN ja in vielen Sachen nachgezogen und Fermi in vielen Bereichen auch überholt. Die 61% mehr Transistoren sind aber wie man in den Benchmarks sieht, nicht zweifelsohne nur für den Grafik-Bereich eingeflossen.
Das hab ich auch NIE bestritten. AMD/ATI gehen aber schon eine ganze Weile nicht mal mehr in die Nähe des absolut möglichen auf einem Prozesses.
[...]
Fakt ist aber, AMD reizt die Sachen nicht aus. Daher sind Sie auch hinter nVidia, wenn man aber bedenkt mit wie wenig Aufwand, seh ich Sie eigentlich vor nVidia
Wäre halt nur mal schön ein AMD/ATI Chip in den Dimensionen eines GF100 zu sehen. Man behält zwar das Powerlimit bei, mit niedrigeren Taktraten sollte sich da aber doch noch einiges an Performance raus holen lassen. Ich denke nVidia wäre dann auch nicht mehr dazu in der Lage AMD zu schlagen. Aber warum so ein teures Monste bauen, wenn man so auch ganz gut fährt?
AMD liegt leider dennoch in einigen Kernbereichen zu Nvidia stark zurück und ich sehe die Fusion mit AMD nicht unbedingt für die ersten paar Jahre von Vorteilen, auch wenn das Schicksal mit dem R600 mit oder ohne AMD besiegelt war.
Ich hoffe nur das AMD ihren Perf/Watt und Perf/mm² Vorteil in vielen Bereichen halten kann, aber ich sehe das Polster leider schwinden. Nvidias Arbeitergröße, Kapital usw. ist einfach dem von AMDs Grafikabteilung überlegen und da muss sich auch niemand wundern, dass AMD nicht so präsent und so weit wie Nvidia in so vielen Gebieten sein kann.
Bei AMD darf man sich auch wenig Hoffnung machen, dass sie mit Intel einfach so gleichziehen können. AMD schafft es aber wirklich meisterhaft mit einem Minimum an verfügbaren Mitteln sehr effizient zu arbeiten und mit der Konkurrenz wenigstens im Grafik-Bereich Schritt halten zu können.
Ich will das sie endlich Geld mit ihren Sparten verdienen und in vielen Bereichen einfach sehr stark nachziehen.
Als ATI- (AMD nur als Underdog) Fan will ich sie einfach flächendeckend vorne sehen
Bzw. einfach mal wieder eine Radeon im Rechner haben
Ich finde das AMD auf den Verbrauch achtet ist gar nicht so schlecht denn der Energieverbrauch wird in Zukunft von immer größerer Bedeutung werden.
Er ist schon von großer Bedeutung und das für Beide. Nvidia achtet genau so ganz besonders darauf. Es ist ein Abwägen aus Entscheidungen und Fermi hat seine Ziele nicht erreicht, dass wurde von Nvidia mehrmals selbst bestätigt. Aber wie viele (nicht du) gerade Fermi als Vorzeigeprojekt auf Kepler krampfhaft projizieren zu versuchen, finde ich auch nicht mehr normal. Ich projizieren mit jeder GPU-Neuerscheinung von AMD auch nicht den R600 auf ihre Produkte
Lassen wir uns überraschen, ich denke das Potenzial von GCN werden wir erst mit dem Nachfolger zu sehen bekommen!
Da könnte uns ein richtiges Prachtexemplar erweisen!
Zur DIEsize: AMD hat einfach die richtige Mischung aus DIE-Size, Strombedarf und Leistung gefunden! Da hat nVidea noch viel nachholbedarf! Die hauen unverhältnismäßig große Chips raus um, koste es was es wolle, die Leistungskrone zu erhalten!
Ich denke da wird Nvidia mit Kepler ein sehr rundes Paket herausbringen und besser mitziehen als die letzten Male. Ich hoffe aber das AMD mit dem Nachfolger wieder einen größeren Schritt nach vorne macht, weil Nvidia agiert da zunehmend und bringt jedes mal irgendwelche technologischen Fortschritte. AMD ist da eher gemäßigt und baut eher konservativ ihre Basis aus. Vielleicht werden sie das auch wieder aggressiver gestalten, weil es AMD relativ gesehen besser geht, als die letzten Jahren.
Nvidia kann die aktuelle Generation der Karten eh ganz easy countern. Wieviel ist die 7970 schneller als die 580? 30%? Das kriegt man im 28nm ganz leicht hin:
Entweder man gibt der 580 30% mehr Einheiten oder schraubt den Takt hoch oder ein Mittelding oder beides.
Da ein neuer Prozess fast doppelt so viele Transistoren bei derselben Die-Fläche zulässt könnte man die Leistung theoretisch eben auch fast verdoppeln. Also sagen wir 70-80% sind drin. Von daher nicht Angst haben vor AMD, Nvidia ist in der Position, dass man einfach nur regaieren muss.
Integrationsdichte steigt um 70-80%. Verdopplung der Leistung never ever, besonders in Hinblick darauf, dass doppelt so viele Transistoren niemals doppelt so viel Leistung erbringen. 40-60% mehr Leistung sehe ich, mit auch erhöhtem Stromverbrauch. Ich spekuliere auf ein ca. 40-50% besseres Perf/Watt Ratio im Vergleich zum 580 GTX.
70-80% sind zu viel, sowas kommt nur in absolut handverlesenen Benchmarks raus. Die 7970 liegt auch im Durchschnitt "nur" 30-40% vor der 6970, trotz 65% mehr Transistoren, 33% mehr Recheneinheiten und 5% mehr GPU-Takt.
Und Nvidia wird bei Kepler laut der Gerüchteküche erstmals seit dem G80 keine Hotclock mehr für die Shader haben, wodurch diese dann wohl im Vergleich zu Fermi-Shadern mit ca 40% weniger Takt auskommen müssen, also werden 30% mehr Shader etc. wohl nicht ausreichen.
Deshalb glauben wir ja, dass die Cuda-Cores einfach verdoppelt werden bzw. die Vektorlänge.