AMD plant eine schnellere Single-GPU-Grafikkarte als die HD 7970

Ich freue mich auf die Karten, warum immer alles schlecht machen? Ob jetzt Nvidia schnellere Karten rausbringt als ATI hat keine Bedeutung. ATI wird auch wieder schnellere Karten rausbringen als es die nächste Nvidia sein wird.
Um die Technik zu vergleichen sollte man immer vom momentanen Status ausgehen. Und da hat AMD nunmal (ob es den NVidia Fanboy schmeckt oder nicht) die Nase vorn!

Man sollte es Positiv sehen, dadurch ist Nvidia dazu genötigt schnellere Karten rauszubringen, ohne diesen Konkurrenzkampf hätten wir noch viel langsamere Hardware... das ist Positiv, für ATI Nutzer (eine geile schnelle Karte) und für Nvidia Fan's (die können mit einer Reaktion seitens Nvidia rechnen).

Wer weiss ob das nicht sogar alles besprochen oder abgekartet ist. Wahrscheinlich läuft schon eine Produktion schnellerer Chips, nur wir wissen nichts davon :D
 
Zuletzt bearbeitet:
Nvidia kann die aktuelle Generation der Karten eh ganz easy countern. Wieviel ist die 7970 schneller als die 580? 30%? Das kriegt man im 28nm ganz leicht hin:
Entweder man gibt der 580 30% mehr Einheiten oder schraubt den Takt hoch oder ein Mittelding oder beides.
Da ein neuer Prozess fast doppelt so viele Transistoren bei derselben Die-Fläche zulässt könnte man die Leistung theoretisch eben auch fast verdoppeln. Also sagen wir 70-80% sind drin. Von daher nicht Angst haben vor AMD, Nvidia ist in der Position, dass man einfach nur regaieren muss.

70-80% sind zu viel, sowas kommt nur in absolut handverlesenen Benchmarks raus. Die 7970 liegt auch im Durchschnitt "nur" 30-40% vor der 6970, trotz 65% mehr Transistoren, 33% mehr Recheneinheiten und 5% mehr GPU-Takt.
Und Nvidia wird bei Kepler laut der Gerüchteküche erstmals seit dem G80 keine Hotclock mehr für die Shader haben, wodurch diese dann wohl im Vergleich zu Fermi-Shadern mit ca 40% weniger Takt auskommen müssen, also werden 30% mehr Shader etc. wohl nicht ausreichen.
 
Nvidia kann die aktuelle Generation der Karten eh ganz easy countern. Wieviel ist die 7970 schneller als die 580? 30%? Das kriegt man im 28nm ganz leicht hin:
Entweder man gibt der 580 30% mehr Einheiten oder schraubt den Takt hoch oder ein Mittelding oder beides.
Da ein neuer Prozess fast doppelt so viele Transistoren bei derselben Die-Fläche zulässt könnte man die Leistung theoretisch eben auch fast verdoppeln. Also sagen wir 70-80% sind drin. Von daher nicht Angst haben vor AMD, Nvidia ist in der Position, dass man einfach nur regaieren muss.
Also ganz easy würde ich jetzt nicht sagen. Das Sie schneller sind, wird aber wohl kaum einer bezweifeln. Bei x Monaten später und Y% größerem Chip aber auch keine Kunst, sofern dann auch noch die TDP/Verbrauch ansteigt.

Was du aber bei deiner "geringfügig" groben betrachtung vergisst sind Sachen wie Speicherinterface, welche nicht mit skalieren, und der Platzbedarf für Leitungen, welcher Ansteigt mit der Anzahl der Transistoren und zwar NICHT linear!

Und mal ganz davon abgesehen muss nvidia erst mal die Eier auf den Tisch legen. Davor kann man viel erzählen wenn der Tag lang ist.
 
Ich verstehe nicht, wieso du hier Pro mit XT vergleichst?
Das führt zu nichts, wenn du schon zwei Generationen vergleichst, benutze auch die entsprechenden Modelle, und das sind hier nunmal Tahiti XT und Cayman XT, was den vergleich Cayman Pro gegen Tahiti Pro anbelangt, gedulde dich bis zum 31.01.
Wenn man das beachtet, hat AMD ähnliches geschafft wie damals bei der 5870. Eine Grafikkarte mit geringem Stromverbrauch und einer durchweg überzeugenden Rechenleistung, hier von einer schwachen Leistung zu sprechen ist meiner Meinung nach fatal.
[...]

Ich habe von Node zu Node verglichen und dieser Vergleich macht auch total Sinn? Ähnlich wie man die 5870 zur 4870 vergleichen kann. ( Ja viele haben noch die 4890 zum Vergleich hergezogen, was ich als Vergleichskarte gerne nehme, aber nicht als direkten Vorgänger)
Dieser Vergleich macht auch in so fern mehr Sinn, als ein frisches Produkt im neuen Node, mit der Refresh Generation von der alten Node zu vergleichen. Der Vergleich von Cayman Pro vs. XT rührt daher, dass Cayman XT ein unverhältnismäßiger Chip war. 10% mehr Leistung für 30% mehr Stromverbrauch. Da ist es auch kein Wunder, dass Tahitit XT so gut dasteht. Cayman Pro war für mich der beste Kompromiss aus Leistung und Stromverbrauch den man aus der Terascale Architektur für den 40nm Prozess pressen konnte. GCN hat einen schwachen Sprung hingelegt in Bezug auf den Graphics-Bereich, denn ich einmal nicht betonnen wollte.
Was die GPU in Compute Anwendungen leistet, ist mehr als nur eine große Leistung im Vergleich zu den alten Grafikkarten.
GCN ist aber für den Graphics-Bereich nicht ausnahmelos das gleiche wie es die HD 5870 zur selben Zeit war.

Das wird definitiv nicht kommen, also zumindest nicht bei den verkauften Karten.

GEnau so werden auch keine 2304 Streamcores kommen. Das passt gar nicht in die Aufteilung der CUs, da dies 36 CUs wären. Was passt ist, das man 4 CUs weiter drauf packt. Das geht nämlich wohl anders gar nicht, da sich diese einiges teilen. Man hätte dann allerdings einen asymmetrischen Aufbau, da diese 36 CUs 9 CU-Blöcken entsprechen (Wir erinnern uns 4 CUs = 1 CU-Block, der die kleinste Einheit ist, die man auf ein DIE funktionsfähig packt). Wenn werden es also 40 CUs, was dann 2560 Streamcores entspricht, respektive 10 CU-Blöcken.

2560 wäre dann aber schon ein ganz schöner Hammer.
Wo wäre eigentlich das Problem von 8 auf 9 zu verlängern?

Edit: Gerade die Architektur angeschaut. Das wäre ja total fail. :ugly:
Müssen echt zehn sein und das gibt dann der Die-Space für mich endgültig nicht mehr her.

ATI(AMD) baut keine high end gpu chips mehr?
Gut zu wissen, frage mich nur wie du darauf kommst?!

ATI war in den letzten jahren doch immer an nvidia dran, und das mit großem erfolg.
Leistungsmäßig war das topmodell von ati immer langsamer als das von nvidia, aber auch nur weil nvidia später released hat und somit abschätzen konnte wie viel leistung sie benötigen um an der spitze zu sein.

Schau dir mal die chipfläche von ati und nvidia an, da bringt ati einiges mehr an rechenleistung pro quadratmillimeter ;)
Skysnake hat es ja schon erwähnt, AMD hat es sich abgeschrieben große und fehleranfällige Dies zu produzieren und nur um Prestige Willen Geld aus zu geben. Es stimmt schon, dass Marktpsychologisch sich dieser Prestige Status auf die ganze Grafikserie auswirken kann, was man bei einigen Menschen in Bezug auf Nvidia merkt, aber aus AMD-Sicht lohnt es sich nicht mehr oder sie haben einfach nicht mehr die Ressourcen um da mitspielen zu wollen. AMD war auch nur im Grafik-Bereich sehr dicht an Nvidia. Nvidia hat in anderen Bereichen die AMD-Reihe alt aussehen lassen. Was die Flexibilität der Programmierung anbelangt, das compilieren, die Auslastung der einzelnen Gruppen, die Compute-Power usw.
Da hat GCN ja in vielen Sachen nachgezogen und Fermi in vielen Bereichen auch überholt. Die 61% mehr Transistoren sind aber wie man in den Benchmarks sieht, nicht zweifelsohne nur für den Grafik-Bereich eingeflossen.

Das hab ich auch NIE bestritten. AMD/ATI gehen aber schon eine ganze Weile nicht mal mehr in die Nähe des absolut möglichen auf einem Prozesses.

[...]
Fakt ist aber, AMD reizt die Sachen nicht aus. Daher sind Sie auch hinter nVidia, wenn man aber bedenkt mit wie wenig Aufwand, seh ich Sie eigentlich vor nVidia ;)

Wäre halt nur mal schön ein AMD/ATI Chip in den Dimensionen eines GF100 zu sehen. Man behält zwar das Powerlimit bei, mit niedrigeren Taktraten sollte sich da aber doch noch einiges an Performance raus holen lassen. Ich denke nVidia wäre dann auch nicht mehr dazu in der Lage AMD zu schlagen. Aber warum so ein teures Monste bauen, wenn man so auch ganz gut fährt?:(
AMD liegt leider dennoch in einigen Kernbereichen zu Nvidia stark zurück und ich sehe die Fusion mit AMD nicht unbedingt für die ersten paar Jahre von Vorteilen, auch wenn das Schicksal mit dem R600 mit oder ohne AMD besiegelt war.
Ich hoffe nur das AMD ihren Perf/Watt und Perf/mm² Vorteil in vielen Bereichen halten kann, aber ich sehe das Polster leider schwinden. Nvidias Arbeitergröße, Kapital usw. ist einfach dem von AMDs Grafikabteilung überlegen und da muss sich auch niemand wundern, dass AMD nicht so präsent und so weit wie Nvidia in so vielen Gebieten sein kann.
Bei AMD darf man sich auch wenig Hoffnung machen, dass sie mit Intel einfach so gleichziehen können. AMD schafft es aber wirklich meisterhaft mit einem Minimum an verfügbaren Mitteln sehr effizient zu arbeiten und mit der Konkurrenz wenigstens im Grafik-Bereich Schritt halten zu können.
Ich will das sie endlich Geld mit ihren Sparten verdienen und in vielen Bereichen einfach sehr stark nachziehen.
Als ATI- (AMD nur als Underdog) Fan will ich sie einfach flächendeckend vorne sehen :D
Bzw. einfach mal wieder eine Radeon im Rechner haben :ugly:

Ich finde das AMD auf den Verbrauch achtet ist gar nicht so schlecht denn der Energieverbrauch wird in Zukunft von immer größerer Bedeutung werden.
Er ist schon von großer Bedeutung und das für Beide. Nvidia achtet genau so ganz besonders darauf. Es ist ein Abwägen aus Entscheidungen und Fermi hat seine Ziele nicht erreicht, dass wurde von Nvidia mehrmals selbst bestätigt. Aber wie viele (nicht du) gerade Fermi als Vorzeigeprojekt auf Kepler krampfhaft projizieren zu versuchen, finde ich auch nicht mehr normal. Ich projizieren mit jeder GPU-Neuerscheinung von AMD auch nicht den R600 auf ihre Produkte ;)

Lassen wir uns überraschen, ich denke das Potenzial von GCN werden wir erst mit dem Nachfolger zu sehen bekommen!
Da könnte uns ein richtiges Prachtexemplar erweisen!

Zur DIEsize: AMD hat einfach die richtige Mischung aus DIE-Size, Strombedarf und Leistung gefunden! Da hat nVidea noch viel nachholbedarf! Die hauen unverhältnismäßig große Chips raus um, koste es was es wolle, die Leistungskrone zu erhalten!
Ich denke da wird Nvidia mit Kepler ein sehr rundes Paket herausbringen und besser mitziehen als die letzten Male. Ich hoffe aber das AMD mit dem Nachfolger wieder einen größeren Schritt nach vorne macht, weil Nvidia agiert da zunehmend und bringt jedes mal irgendwelche technologischen Fortschritte. AMD ist da eher gemäßigt und baut eher konservativ ihre Basis aus. Vielleicht werden sie das auch wieder aggressiver gestalten, weil es AMD relativ gesehen besser geht, als die letzten Jahren.


Nvidia kann die aktuelle Generation der Karten eh ganz easy countern. Wieviel ist die 7970 schneller als die 580? 30%? Das kriegt man im 28nm ganz leicht hin:
Entweder man gibt der 580 30% mehr Einheiten oder schraubt den Takt hoch oder ein Mittelding oder beides.
Da ein neuer Prozess fast doppelt so viele Transistoren bei derselben Die-Fläche zulässt könnte man die Leistung theoretisch eben auch fast verdoppeln. Also sagen wir 70-80% sind drin. Von daher nicht Angst haben vor AMD, Nvidia ist in der Position, dass man einfach nur regaieren muss.
Integrationsdichte steigt um 70-80%. Verdopplung der Leistung never ever, besonders in Hinblick darauf, dass doppelt so viele Transistoren niemals doppelt so viel Leistung erbringen. 40-60% mehr Leistung sehe ich, mit auch erhöhtem Stromverbrauch. Ich spekuliere auf ein ca. 40-50% besseres Perf/Watt Ratio im Vergleich zum 580 GTX.

70-80% sind zu viel, sowas kommt nur in absolut handverlesenen Benchmarks raus. Die 7970 liegt auch im Durchschnitt "nur" 30-40% vor der 6970, trotz 65% mehr Transistoren, 33% mehr Recheneinheiten und 5% mehr GPU-Takt.
Und Nvidia wird bei Kepler laut der Gerüchteküche erstmals seit dem G80 keine Hotclock mehr für die Shader haben, wodurch diese dann wohl im Vergleich zu Fermi-Shadern mit ca 40% weniger Takt auskommen müssen, also werden 30% mehr Shader etc. wohl nicht ausreichen.
Deshalb glauben wir ja, dass die Cuda-Cores einfach verdoppelt werden bzw. die Vektorlänge.:huh:
 
Zuletzt bearbeitet:
Wo wäre eigentlich das Problem von 8 auf 9 zu verlängern?

Edit: Gerade die Architektur angeschaut. Das wäre ja total fail. :ugly:
Müssen echt zehn sein und das gibt dann der Die-Space für mich endgültig nicht mehr her.
Ist doch gar nicht so schwer das ein zu sehen oder? ;)

Und JETZT überleg dir das mal auf nem DIE. Das würde wie beim Phenom II X6 aussehen, nur VIEL schlimmer mit der Platzverschwendung. Von den ganzen unlogischen schritten im Switching/Routing der Daten mal GAR NICHT zu reden. Wenn Sie das wirklich gemacht haben, dann gehört die ganze Entwicklungsabteilung instant gefeuert, weil so besoffen kann keiner Sein um so was zu implementieren. Das sollte JEDER Informatik Student nach dem 2-4 Semester wissen, wenn er sich auf Hardware fokusiert.
 
Ist doch gar nicht so schwer das ein zu sehen oder? ;)

Und JETZT überleg dir das mal auf nem DIE. Das würde wie beim Phenom II X6 aussehen, nur VIEL schlimmer mit der Platzverschwendung. Von den ganzen unlogischen schritten im Switching/Routing der Daten mal GAR NICHT zu reden. Wenn Sie das wirklich gemacht haben, dann gehört die ganze Entwicklungsabteilung instant gefeuert, weil so besoffen kann keiner Sein um so was zu implementieren. Das sollte JEDER Informatik Student nach dem 2-4 Semester wissen, wenn er sich auf Hardware fokusiert.

Das sollte jeder mit Blick auf die Architektur wissen, dass so ein Aufbau nur mit viel Alkohol möglich wäre und bei 3 Jahren Entwicklung , die ganze Abteilung tot wäre, bevor das Produkt auf den Markt kommt.

Ach wie im Nachhinein die ganzen GPU-Z Screenshots, Folien, Tabellen, Insider-Wissen und so weiter liebe :D
Es ist manchmal echt schön einfach durch bisschen Nachdenken zu verstehen, dass es alles einfach nicht möglich ist.
Ich erwarte nur noch eine Dual-GPU und es hat sich konservativ alles erledigt. Maximal ein Taktupdate.
 
Ich habe von Node zu Node verglichen und dieser Vergleich macht auch total Sinn? Ähnlich wie man die 5870 zur 4870 vergleichen kann. ( Ja viele haben noch die 4890 zum Vergleich hergezogen, was ich als Vergleichskarte gerne nehme, aber nicht als direkten Vorgänger)
Dieser Vergleich macht auch in so fern mehr Sinn, als ein frisches Produkt im neuen Node, mit der Refresh Generation von der alten Node zu vergleichen. Der Vergleich von Cayman Pro vs. XT rührt daher, dass Cayman XT ein unverhältnismäßiger Chip war. 10% mehr Leistung für 30% mehr Stromverbrauch. Da ist es auch kein Wunder, dass Tahitit XT so gut dasteht. Cayman Pro war für mich der beste Kompromiss aus Leistung und Stromverbrauch den man aus der Terascale Architektur für den 40nm Prozess pressen konnte. GCN hat einen schwachen Sprung hingelegt in Bezug auf den Graphics-Bereich, denn ich einmal nicht betonnen wollte.
Was die GPU in Compute Anwendungen leistet, ist mehr als nur eine große Leistung im Vergleich zu den alten Grafikkarten.
GCN ist aber für den Graphics-Bereich nicht ausnahmelos das gleiche wie es die HD 5870 zur selben Zeit war.

AMD stellt die HD 7970 aber als Nachfolger der 6970, und nicht der 6950 auf? Es ist doch nicht sinn und zweck, das effizientere Modell von der alten Generation mit dem neuen Highend Modell zu vergleichen! oder würdest du einen GOLF GTI mit einem normalen vergleichen? ist klar das ersterer in Sachen effizienz dann schlechter da steht, auch wenn es eine neue Generation ist...
Was meinst du nun eigentlich mit Node? die ersterscheinung oder wie?
Die HD 7950 wird sicher auch wieder ein besserer Kompromiss aus Leistung und Strombedarf. Das ist immer so, dass das High End Karten unverhältnismäßig viel verbrauchen...
30-40% mehrleistung ist schon ne tolle Sache für eine völlig neue Architektur, zumal die Treiber noch nicht optimal sein können!


Skysnake hat es ja schon erwähnt, AMD hat es sich abgeschrieben große und fehleranfällige Dies zu produzieren und nur um Prestige Willen Geld aus zu geben. Es stimmt schon, dass Marktpsychologisch sich dieser Prestige Status auf die ganze Grafikserie auswirken kann, was man bei einigen Menschen in Bezug auf Nvidia merkt, aber aus AMD-Sicht lohnt es sich nicht mehr oder sie haben einfach nicht mehr die Ressourcen um da mitspielen zu wollen. AMD war auch nur im Grafik-Bereich sehr dicht an Nvidia. Nvidia hat in anderen Bereichen die AMD-Reihe alt aussehen lassen. Was die Flexibilität der Programmierung anbelangt, das compilieren, die Auslastung der einzelnen Gruppen, die Compute-Power usw.
Da hat GCN ja in vielen Sachen nachgezogen und Fermi in vielen Bereichen auch überholt. Die 61% mehr Transistoren sind aber wie man in den Benchmarks sieht, nicht zweifelsohne nur für den Grafik-Bereich eingeflossen.

Die reine compute-Power der AMD Karten liegt schon lange außer Reichweite von nVidia, nur sind die flexibler und können die leistung meist besser umsetzen. Bei optimierten Anwendungen sieht man aber fast immer den Vorteil der Radeon, siehe entschlüsselungsverfahren.
Das GPU-Computing, und somit universellere Einheiten auch mehr Transistoren benötigen dürfte indess klar sein.


AMD liegt leider dennoch in einigen Kernbereichen zu Nvidia stark zurück und ich sehe die Fusion mit AMD nicht unbedingt für die ersten paar Jahre von Vorteilen, auch wenn das Schicksal mit dem R600 mit oder ohne AMD besiegelt war.

Welche meinst du? Werbun? Das war noch nie AMD´s Stärke :ugly:

Ich hoffe nur das AMD ihren Perf/Watt und Perf/mm² Vorteil in vielen Bereichen halten kann, aber ich sehe das Polster leider schwinden. Nvidias Arbeitergröße, Kapital usw. ist einfach dem von AMDs Grafikabteilung überlegen und da muss sich auch niemand wundern, dass AMD nicht so präsent und so weit wie Nvidia in so vielen Gebieten sein kann.
Bei AMD darf man sich auch wenig Hoffnung machen, dass sie mit Intel einfach so gleichziehen können. AMD schafft es aber wirklich meisterhaft mit einem Minimum an verfügbaren Mitteln sehr effizient zu arbeiten und mit der Konkurrenz wenigstens im Grafik-Bereich Schritt halten zu können.
Ich will das sie endlich Geld mit ihren Sparten verdienen und in vielen Bereichen einfach sehr stark nachziehen.
Als ATI- (AMD nur als Underdog) Fan will ich sie einfach flächendeckend vorne sehen :D
Bzw. einfach mal wieder eine Radeon im Rechner haben :ugly:

Bisher konnte AMD im Grafikbereich immer Schritt halten, denn die 10% die zwischen AMD´s HighEnd Modell und dem von nVideo im durschnitt der vergangenen 4Jahre lagen, sind von Sieten nVideas meist teuer erkauft gewesen.


Er ist schon von großer Bedeutung und das für Beide. Nvidia achtet genau so ganz besonders darauf. Es ist ein Abwägen aus Entscheidungen und Fermi hat seine Ziele nicht erreicht, dass wurde von Nvidia mehrmals selbst bestätigt. Aber wie viele (nicht du) gerade Fermi als Vorzeigeprojekt auf Kepler krampfhaft projizieren zu versuchen, finde ich auch nicht mehr normal. Ich projizieren mit jeder GPU-Neuerscheinung von AMD auch nicht den R600 auf ihre Produkte ;)

Das ist richtig, aber auch nVidia sind physikalische Grenzen gesetzt, und wenn sie wieder so ein riesen Chip produzieren, wie in der Vergangenheit, dann dürfte auch der Strombedarf ähnlich sein...


Ich denke da wird Nvidia mit Kepler ein sehr rundes Paket herausbringen und besser mitziehen als die letzten Male. Ich hoffe aber das AMD mit dem Nachfolger wieder einen größeren Schritt nach vorne macht, weil Nvidia agiert da zunehmend und bringt jedes mal irgendwelche technologischen Fortschritte. AMD ist da eher gemäßigt und baut eher konservativ ihre Basis aus. Vielleicht werden sie das auch wieder aggressiver gestalten, weil es AMD relativ gesehen besser geht, als die letzten Jahren.

Also betrachtest du solche Sachen wie Eyefinity, ZeroCorePower und DX11.1 als keine technologischen fortschritte?


Integrationsdichte steigt um 70-80%. Verdopplung der Leistung never ever, besonders in Hinblick darauf, dass doppelt so viele Transistoren niemals doppelt so viel Leistung erbringen. 40-60% mehr Leistung sehe ich, mit auch erhöhtem Stromverbrauch. Ich spekuliere auf ein ca. 40-50% besseres Perf/Watt Ratio im Vergleich zum 580 GTX.

Eher nicht, wenn die Gerüchte stimmen, das sie den Shader Takt nicht mehr entkoppeln können, deutet das für mich entweder auf Probleme mit den vielen Funktionseinheiten oder auf eine zu hohe Leistungsaufnahme hin. Wie gesagt, jedes mm² DIE-Size erhöt maßgeblich den Strombedarf.
Aber ohne Frage, das Performance/Watt Verhältnis wird steigen, muss es auch, sonst müssen die den Kompressor gleich mitliefern :ugly:

Deshalb glauben wir ja, dass die Cuda-Cores einfach verdoppelt werden bzw. die Vektorlänge.:huh:

Das halte ich für so gut wie gesichert.
 
AMD stellt die HD 7970 aber als Nachfolger der 6970, und nicht der 6950 auf? Es ist doch nicht sinn und zweck, das effizientere Modell von der alten Generation mit dem neuen Highend Modell zu vergleichen! oder würdest du einen GOLF GTI mit einem normalen vergleichen? ist klar das ersterer in Sachen effizienz dann schlechter da steht, auch wenn es eine neue Generation ist...
Was meinst du nun eigentlich mit Node? die ersterscheinung oder wie?
Die HD 7950 wird sicher auch wieder ein besserer Kompromiss aus Leistung und Strombedarf. Das ist immer so, dass das High End Karten unverhältnismäßig viel verbrauchen...
30-40% mehrleistung ist schon ne tolle Sache für eine völlig neue Architektur, zumal die Treiber noch nicht optimal sein können!
Also wie ich im Text geschrieben habe, ich vergleiche das erste Produkt einer neuen Fertigungstechnologie mit dem ersten Produkt einer alten Fertigungstechnologie. 5870 vs. 7970.
Ich habe ihn gar nicht mit dem Cayman Pro vergleichen wollen, sondern nur als Beispiel nennen, um zu zeigen das XT ein fieser Ausrutscher in der Perf/Watt Ratio war und er mir nicht als optimaler Vergleichsaspekt erscheint.

Die reine compute-Power der AMD Karten liegt schon lange außer Reichweite von nVidia, nur sind die flexibler und können die leistung meist besser umsetzen. Bei optimierten Anwendungen sieht man aber fast immer den Vorteil der Radeon, siehe entschlüsselungsverfahren.
Das GPU-Computing, und somit universellere Einheiten auch mehr Transistoren benötigen dürfte indess klar sein.

Das ist das Ironische daran. Ich sehe wie viel Potential AMD die ganze Zeit in solchen Sachen hatte und man das verschenkt, indem man keine Software bereit gestellt hat oder wichtige Hardwareimplantationen wie Speicherüberprüfungen. Jetzt erst zieht AMD bei vielen Sachen nach und jetzt empfinde ich das auch als zu spät. Man hat schon seit mehr als einer Dekade mehr Arithmetische Leistung als vergleichbare Nvidia-Produkte und lässt sich Geld in solchen Bereichen entgehen, indem keine Bibliotheken , Clienten, Verträge etc. zu Stande kommen sind und jetzt will Nvidia in Sachen Rechenleistung nachziehen und dieses mal ist sie bei AMD nicht so stark angestiegen.

Welche meinst du? Werbun? Das war noch nie AMD´s Stärke :ugly:
Eig. meinte ich den ganzen Professionellen Markt. Ich sehe AMDs Scheitern besonders aufgrund der Software- und nicht der Technischen Seite. Das ist mehr als traurig wie ich persönlich finde. Gut Fermi hat dann mit seinen Caches und Möglichkeiten dann natürlich auch von der Technischen Seite die AMD-Regie überholt. GCN dann schön wieder eingeholt und bei einigen Stellen auch schön überholt, aber wenn Kepler wieder einen Schritt mehr für den HPC-Markt macht und die Rechenleistung dafür noch Stupide erhöht, dann sehe ich die Vorteile eben einfach nur schmelzen. Ich erwarte jetzt keine Vollmilchsau von Nvidia, aber einen schönen Schritt in die richtige Richtung.

Bisher konnte AMD im Grafikbereich immer Schritt halten, denn die 10% die zwischen AMD´s HighEnd Modell und dem von nVideo im durschnitt der vergangenen 4Jahre lagen, sind von Sieten nVideas meist teuer erkauft gewesen.
Teuer erkauft zuerst, verfehlt beim zweiten Versuch, aber insgesamt nur richtig gehandelt. Was Nvidia an Vorarbeit in eine ausgeglichene Architektur gesteckt hat, ist nicht zu verachten.

Das ist richtig, aber auch nVidia sind physikalische Grenzen gesetzt, und wenn sie wieder so ein riesen Chip produzieren, wie in der Vergangenheit, dann dürfte auch der Strombedarf ähnlich sein...
Für den Top-Dog auf jeden Fall.

Also betrachtest du solche Sachen wie Eyefinity, ZeroCorePower und DX11.1 als keine technologischen fortschritte?

Ich sehe das eher so R600-->R700-->R800-->R900
vs. G80--->G200(?)-->Fermi-->Kepler--->Maxwell

(Fixing vom R600 und Fermi ausgenommen und dem billigen Refresh Chip vom G80)

Wenn ich mir jetzt die letzten 3 Jahre anschaue und die technischen Unterschiede vergleiche, zwischen den Vorgänger Generationen, dann verändert Nvidia mehr, als AMD. Ich habe persönlich nur erwartet, dass Kepler so eine konservative Refresh-Generation ist, wie man es eig. von Beiden eher gewohnt ist, wenn jetzt aber wieder der Hot-Clock wegfällt, die Vektorbreite sich verändert, man auf Rechenleistung setzt und dann noch weitere Spiele hin zu kommen.
Maxwell soll ja wieder etwas mehr verändern. Also nach alten Schemen hätte ich gar bis Maxwell keine grundlegend anderen Dinge erwartet, aber dem ist nun mal nicht mehr so. AMD hat mit GCN super vorgelegt und jetzt Virtuellen Speicher für X86, Cache-Kohärenz usw. , aber ich sehe keine Konkurrenzfähigkeit mehr für so " chilliges" aufblasen des Chips, sondern die müssen auch weiterhin etwas mehr Schrauben drehen. Da AMD nicht in Geld schwimmt, sehe ich halt leider da einen gewissen Verzug.

Eher nicht, wenn die Gerüchte stimmen, das sie den Shader Takt nicht mehr entkoppeln können, deutet das für mich entweder auf Probleme mit den vielen Funktionseinheiten oder auf eine zu hohe Leistungsaufnahme hin. Wie gesagt, jedes mm² DIE-Size erhöt maßgeblich den Strombedarf.

Sah bei 280 GTX vs. 4870 aber nicht so kritisch aus mit dem DIE-Size. Da war Nvidia mehr als doppelt so groß, ohne unverhältnismäßig viel mehr Strom zu verbrauchen.
Und wieso spricht ein gekoppelter Shader-Takt für Probleme oder hohe Leistungsaufnahme? Ich denke der ist doch weiterhin entkoppelt wenn Nvidia jetzt nicht völlig am Rad dreht und das verändert.
 
Zuletzt bearbeitet:
hahahaha ! die 7970 kostet ja auch wieder um die 500 €.... und das ist schon ein mega peinlicher preis ^^
wie teuer soll dann die nächste sein xDDDD 650 750 sowieso.... die menschen die zocken und rüsten werden jahr für jahr schlauer bei den käufen.... aber die entwickler
mit ihren "!Preisen!" immer dümmer.
sieht man ja schon bei der 560Ti xD 448 lag oder liegt schon bei 400€ xD wohl klar dass man sich da eine 580GTX kaufen könnte oder sollte xDDDD
 
Aber es is und bleibt eine AMD Karte und damit kann ich nix anfangen. Die 570er wird eh noch ne weile reichen.

aber die entwickler mit ihren "!Preisen!" immer dümmer.

Das meinst du doch wohl nicht im ernst?! AMD kann gerade verlangen was sie wollen für die schnellste GPU der Welt. Garantiert werden Karten verkauft werden...egal wie übertrieben der Preis auch ausfallen mag.
 
hahahaha ! die 7970 kostet ja auch wieder um die 500 €.... und das ist schon ein mega peinlicher preis ^^

Bei solchen Aussagen bekomm ich n Lachkrampf ...


Der Hersteller bestimmt nun mal den Preis , davon mal ab hat NV hat IMMER ordentlich seine Highend Karten zugelangt .
Warum sollte AMD das nicht auch machen , wenn man z.Z. das schnellste anbieten kann ?


Was war das : Neid???Oder einfach nur mal wieder unsinniges geposte ??
 
Eine mischung von beidem würde ich sagen.

Nein, aber zurück zum Thema. Währe traurig wenn AMD keine schnellere Karte Planen würde, tut jeder Hersteller gleich nach der Releasten Version. Ich kann mir auch gut vorstellen das die HD8K schon in Arbeit oder Planung ist. Tut NV doch auch mit Kepler und Maxwell der da nach kommt.

Eines ist aber bei Grafikkarten immer Relativ sicher, die nächste Generation wird schneller und besser als die Aktuelle vom Konkurrenten. Die Frage ist nur um welchen Preis.
 
Tolle Leistung von AMD, da freue ich mich umso mehr auf die Kepler Karten und hoffe als Nvidia fan dann auch dass die wieder an AMD vorbeiziehen was ne pervers gute karte bedeuten würde
 
Zurück