Rollora
Kokü-Junkie (m/w)
Das kann natürlich sein. Aber wie du selbst schreibst ist es unwahrscheinlich.Ist möglich, selbst heute noch, wenn auch nicht sehr wahrscheinlich. Aber es kann gut sein, dass ein schlauer Kopf bei AMD irgendwann mal was sieht, was alle anderen vorher nicht gesehen haben,
Wenn ich darf, führe ich nun kurz aus warum:
Eine GPU Architektur ist leider kein "einfaches" Ding. Es handelt sich dabei offensichtlich um etwas sehr komplexes, um viele Teile die perfekt ineinander greifen müssen und in jedem einzelnen stecken bereits Jahrelange Entwicklungs und Optimierungsarbeit drin. Gerade weil GCN schon durch so viele dieser "Überarbeitungen" lief ist ein plötzlicher Effizienzssprung nur mit einer totalüberarbeitung zu erwarten. Diese kam nun mit Polaris. Aber der Effizienzssprung blieb aus.
Nichtsdestotrotz ist es natürlich möglich, dass ein neues Architektenteam, also ein neues paar Augen etwas findet, das plötzlich mehr Leistung bringt. Aber, dass das in Polaris NICHT drin ist, in Vega schon ist deshalb unwahrscheinlich, weil eine Architektur eben nicht innerhalb von ein paar Monaten entwickelt wird, sondern man an Polaris seit JAHREN arbeitet.
Und sollte das Team hinter Vega etwas gefunden haben an der Architektur, was plötzlich diverse Bremsen löst, wäre das dann auch so schon in Polaris gelandet. Nicht 100% aber höchstwahrscheinlich, schließlich wird man in Vega eben nichts entscheidend anders machen.
Gehen wir nochmal zum Komplexitätsansatz zurück: Wir haben eine riesige, Milliarden Transistoren und tausende Hardwareeinheiten schwere Architektur. Wenn jetzt jemand EIN Ding findet, das sehr ineffizient läuft, dann ist das halt eben nur EINE Kleinigkeit. Sollten das die Shader sein - Juhuuu! aber alles andere hat so gut wie keine Auswirkungen auf die Effizienz mehr bei den heutigen, hochoptimierten Chips.
Wie gesagt: außer man macht eine völlig neue Architektur oder überarbeitet die bestehende völlig, passt sie an den aktuellen Prozess an: so ist das bei Maxwell passiert: bei Kepler alle Flaschenhälse entfernt und die Architektur an den nun sehr gut bekannten (wenn man bereits 3 Jahre damit arbeitet kennt man einen Prozess und dessen Stärken und Schwächen sehr gut) angepasst. Also die Hardwareeinheiten so verändert, dass sie bei geringem Takt etwas weniger Leisten aber dafür wesentlich höher takten usw usf.
Das wird auch durchaus so sein: HBM bringt da viel, das kleinere Speicherinterface auch. Das hat aber auch Nvidia. Was bei AMD noch kommen kann ist der relativ unbekannte Herstellungsprozess und das Verfahren bei GloFo welches noch optimiert wird, während Nvidia durch die 20 Jährige Zusammenarbeit mit TSMC wesentlich früher das volle Potential von 16nm abrufen kann.und die Effizienz ein paar Prozent nach oben schraubt.
AMD hat also die kommenden JAHRE mehr Potential nach oben. In einigen wenigen MONATEN die bis Vega vergehen bleibt die Möglichkeit nur, dass durch größere Chipfläche bei geringeren Taktraten und Voltraten mehr Effizienz rauskommt. Ähnlich wie bei Fury vs Nano. Letztere ist nicht wirklich langsamer aber deutlich effizienter, weil der Chip halt nicht bis ganz ans Limit gebracht wird.
Ich meine also mit meinen obigen Beitrag natürlich nicht, dass sich GAR NICHTS tun wird, aber halt nicht unvorhergeshen viel.
Man hat halt mehr Geld. Man kann neben den Entwicklungen die wir sehen, an anderen Dingen arbeiten bis man sie einsetzen MUSS (Intel macht dies ja ähnlich). Eine weitere Nette Sache an Geld: Man holt sich die BESTEN Ingenieure, nicht die zweitbesten. Man kann auch MEHR holen. Die haben dann eben, wie du oben gemeint hast ein "zweites Auge" auf die Sachen und sehen eben früher etwas, wo man mehr Performance rausholt. Man hat mehr Geld in der "Prozessforschung" (damit ist gemeint, dass man mehr Ressourcen für die Integration hat bzw. mehr Ressourcen einen Prozess "kennenzulernen", nicht tatsächlich einen Prozess erforscht. Man hat mehr Geld für Treiberentwicklung oder Softwareentwicklung (also den Entwicklern Codeschnipsel hinwerfen die schon gut auf die Architektur hin optimiert sind) usw usf. Das alles wirkt sich dann in vielen Bereichen ein klein wenig aus. Deshalb kommt man auf ein runderes Produkt (weniger Treiber-Overhead etc.) oder Zusatzfeatures (PhysX). Die man aber nicht unbedingt braucht, wenn man einfach nur spielen will. Ich hab eine ausreichend flotte CPU, Treiber-Overhead ist mir also meist egal und PhysX brauche ich nicht (eine gute Herstellerübergreifende Physik wäre aber mal fein. Leider ist aus Bullet nix geworden).Leider habe ich das Gefühl, dass Nvidia für solche Fälle mindestens 10 Asse im Ärmel hat. Aber vielleicht auch nicht.
Dadurch, dass man jetzt lange posaunt hat, dass alle Ressourcen in Polaris investiert wurden hätte ich das von der 480 erhofft. Aber es kommt ja noch was.Was wissen wir schon? Unter normalen Umständen ist es auch nicht sehr wahrscheinlich, dass AMD mit einem Bruchteil des Budgets von Nvidia plötzlich den P/L-Sieger vorstellt und die 970 in Grund und Boden stampft (die bis vor ein paar Wochen oder sogar jetzt noch die meistverkaufte Graka war/ist?), aber genau das ist heute passiert, weil Nvidia eine Lücke offen gelassen hat. Wer weiß welche Lücken Vega füllen wird..
Leider sind zwischen der Idee eines guten Chiparchitekten und dem fertigen Produkt eben hunderte Schritte nötig, und an jedem einzelnen ist ein geringeres Budget natürlich ein Nachteil. Deshalb haben wir NOCH nicht das volle Potential von Polaris gesehen und du hast schon recht es kann noch ein bisschen was kommen.
Aber erwarte halt keine Wunder, man kann es sich bislang Pi mal Daumen ausrechnen.
Eventuell ist Navi eine weitere, starke überarbeitung und Anpassung an den 14nm Prozess und endlich der ersehnte Geforce-Killer den AMD immer mal wieder vorgestellt hat. Polaris ist es halt jetzt nicht.
Die 480 kämpft halt mit der 970. Würde man diese einfach im 16nm Prozess auflegen würde eine wesentlich effizientere und schnellere Karte als die 480 rauskommen. Das meine ich mit: man ist noch nicht an Nvidia dran.
Das Lesen ist wohl nicht deine Stärke gellAha, du willst also unterstellen das die zig schlauen Leute welche bei AMD ganze Architekturen neu entwickeln zu dumm sind um zu erkennen das ein breiteres Frontend/Backend hier der Problemlöser ist.
Vielleicht sollten sie dich einstellen damit sie auf diese einfache Problemlösung hingewiesen werden.
![Zwinker ;) ;)](/styles/ctec/images/smilies/zwinker4.gif)
Ich schrieb ja auch extra von den BEKANNTEN Flaschenhälsen. Ein bisschen Mitdenken würde nicht schaden
![Augenverdreht :schief: :schief:](/styles/ctec/images/smilies/rollen.gif)
Wenn du dir die Entwicklungsgeschichte der Fury ansiehst (es gab dazu hier mal ein Interview verlinkt) wurde Fury doch in recht kurzer Zeit entwickelt und man hatte wohl nicht mehr die Zeit diesen Teil der Architektur entscheidend zu ändern (hätte das Projekt wieder sicher 9-12 Monate nach hinten verschoben und eben auch dazu geführt, dass Frontend/Backend für Polaris überarbeitet wurden). Bei AMD hat man also gewusst was man tut, man konnte es nur nicht kurzfristig ändern.
Zuletzt bearbeitet von einem Moderator: