AMD Vega: Engineering Samples in Benchmark-Datenbanken

Also nach dem AMD mit Ryzen gezeigt hat das sie auch ein paar Jahre Rückstand so gut
wie einholen konnte, zweifel ich nicht daran das sie das bei ihren GPU´s auch scchaffen KÖNNEN!

Ob es dann tatsächlich so sein wird bleibt noch abzuwarten, aber ich bin guter Dinge,
die gute Frau Su leistet echt gute arbeit!

Das jahr bleibt auf jedenfall spannend :daumen:

Wann hat ATI bzw. AMD das denn jemals nicht geschafft? Wenn sie es nicht wollen, dann tun sie es halt eben nicht. Hat mit können aber nichts zu tun.
 
dann soll der rollora von 300 auf 30 runter.
Ich finde persönlich ja nicht, dass ich auf 300 war.
Letzten Endes war es nicht ich, der ursprünglich persönlich angreifend wurde.

Versuch' mich halt auch zu verstehen: wir haben diese Diskussion seit Jahren: ich bitte dich etwas sachlicher zu werden. Nicht neutraler, du kannst gerne weiterhin deine Lieblingsmarke haben. Aber du stellst deine Theorien oft als Fakten dar und machst andere runter, die deinen Theorien nicht unbedingt recht geben. Und wenn du diese Theorien schon hast - was ok ist, die hat jeder von uns - dann belege sie doch mit den bekannten. Fakten.

Und dann nervt halt auch, dass du Userbeiträge und deren darin enthaltene Fakten ignorierst oder verdrehst... oder nicht wahrhaben willst. Aber gut, versuchen wir es auf einer freundlicheren Basis:
locuza,

zukunft spiele mit multicore+ vulcan optimierungen usw sieht ganz anderst aus.
im zukunft sind bzw werden die cpu mit mehr kerner viel bedeutender als alles andere, wird also fast den ähnlichen weg gehen wie im server bereich !

Wir hatten diese Diskussion schon oft:
Ja, natürlich werden Spiele immer mehr Threads verwenden - weil sonst die Performance nicht steigt.
Aber dennoch: Spiele können nicht gut parallelisiert werden. Der Sprung von 4 auf 8 Kerne bzw Threads bringt dann nicht mal eben 100%, wie es bei einer IPC steigerung von 100% bei einem 4 Kerner möglich wäre.
Durch Parallelisierung geht viel Leistung verloren, weil der Aufwand zu parallelisieren so groß ist.
Es ist auch durchaus nicht automatisch so, dass ein heutiger 8 Kerner in ein paar Jahren eben die bessere Wahl ist. Wenn ein Prozessor kommt, der mit 4 Kernen dieselbe gesamtleistung erbringen kann wie Ryzen oder Intels aktuelle 8 Kerner, dann ist der zu bevorzugen.
Natürlich gäbe es genug zu parallelisieren: KI, Physik. Aber offenbar tut sich in beiden Bereichen seit über 10 Jahren kaum etwas (ausnahme PhysX, aber da es proprietär ist, ist das nebensächlich).

Multicoreprozessoren ordentlich auszulasten ist eine eigene Wissenschaft (ja, das ist kein Spaß. Ich arbeite am Institute for parallel computing, das ist auch ein eigener Studienzweig). Und das geht nicht "mal eben so".
Die Entwicklung der Engines und Middleware wird wieder Jahre dauern -da ist Ryzen vielleicht schon längst durch einen Nachfolger ersetzt. Wir hatten vor knapp 10 Jahren den ersten 8 Threader im Desktop. Erst heute kommen mehr und mehr Engines, Spiele, Middleware die das auch nützen (Ausnahmen wie Anno, Civ und F1 2015 gibts 1-2x im Jahr).
Achso?! Die PlayStation 4 und XBOX One (S) beide haben einen Octacore-Prozessor �� und DX12 und andere API's und Windows10 selbst wurden auf viele CPU-Kerne getrimmt. Vor 4 Jahren hat man auch noch behauptet 3GB Arbeitspeicher würden auch in den nächsten Jahren noch mehr als ausreichend sein und dann wurde man eines besseren belehrt. Zumindest kommende AAA Games werden vermutlich vermehrt 8 Kerne unterstützen, es ist auch kein Wunder denn mit steigender Aufwendigkeit der Spiele (insb. Online- Shooter wie BF1) wird es immer schwieriger werden die Aufgaben auf nur vier Kerne zu verteilen (SMT bringt bekanntlich eher Nachteile).
Naja, das liegt aber auch daran, dass weniger Optimiert wird.
Eigentlich haben die PS4 und Xbox ja keine 8GB Vram sondern shared RAM.
Und@8 Kerner: 6 davon sind für Spiele übrig. Genausoviele wie schon bei der Xbox 360. Wieviel haben sich da "6-Thread-Engines" durchgesetzt bislang?
Parallelisieren ist ein laaaanger Prozess.
Dual-Core CPU's sind heute schon nicht mehr in der Lage einige Spiele überhaupt noch zu starten und so wird es vermutlich auch bald den 4 Kernern ergehen. Außerdem gibt es Spieler wie ich, die einfach gerne Spielen und sich nebenbei YouTube Videos
anzeigen lassen und im Hintergrund dazu noch einige andere Anwendungen laufen lassen.
Natürlich: wer nebenbei was anderes tut kann Multicores voll ausnutzen. Bei mir läuft oft ne VM im Hintergrund.
Aber: Naja Dualcores bzw 2-Threadprozessoren sind bald 15 Jahre alte Technologie (Pentium 4 HT). Irgendwann ist das auch in der Entwicklung angekommen ;)
 
Mal gucken. Traditionell takten die HPC und Workstation Karten auf beiden Seiten ja meistens etwas niedriger als ihre Consumer-Pendants, vielleicht kann AMD da ja noch wenige 100 MHz mehr draufpacken.

Und bei 4096 Shadern und 1,6 GHz Takt bräuchte es im Vergleich zur Fiji Architektur jetzt auch keine wirklich großen Verbesserungen mehr, um auf 1080 Ti@Stock Performance zu kommen. Wenn AMD dann noch einige der Fiji Fehlkalkulationen korrigiert, könnte sich die Karte vielleicht doch mit 1080 Ti Customs anlegen.

Das ist natürlich alles hochspekulativ, vielleicht bringt AMD auch den Monsterchip der gerade so 1080er Performance schafft. Ich traue ihnen mittlerweile alles zu. :D
Ja die Takten aus Stabilitäts und Effizienzgründen niedriger.
Naja 1.6 Ghz allein reichen noch nicht, aber die Verbesserungen an Shadern, Frontend Backend und anderen Dingen, zusammen mit HBM könnten natürlich schon reichen, den Chip gegen die Titan und TI zu stellen. Die Taktrate allein eher nicht, man ist dann doch deutlich weiter zurück als die 43 bzw 53% ( Alles uber AMD Radeon RX Vega: Technische Daten, Release, Raven-Ridge-APUs [Update] ) die man an Takt gegenüber von Fiji gut macht.
Mir wäre es außerdem sehr recht, nicht einfach nur ein Fiji + mehr Takt zu sehen. Aus rein persönlichen Gründen würde ich gerne sehen, dass AMD bei der Architektur selbst mal wieder größere Fortschritte was Effizienz und Leistung betrifft macht. Einen übertakteten Fiji kaufe ich mir nur ungern, dazu hat man sich hoffentlich nicht mehrere Jahre Zeit gelassen.
 
ehhh das wollt ich gerade posten ^^

was is der Unterschied zwischen 687F:C1 und 687F:C3?

oder is der Leak von gestern (687F:C1) vllt der kleine Vega .. da würden die 4GB und 8GB VRAM mehr sinn machen

Vlt. liegt die Wahrheit irgendwo dazwischen. Es es sind wahrscheinlich nur zwei unterschiedliche Revisionen von Vega.

CL_DEVICE_GLOBAL_MEM_SIZE
4278190080
8573157376

Könnte auch heißen 4 GB HBC und 8 GB HBM2. Würde erklären warum Deux Ex auf einmal so gut lief mit 2 GiB VRAM und dem HBC Controller an.

Ich denke schon das Vega auf Titan X(P)-Niveau liegt. Wenn der Takt gegenüber der Fury X um ca. 50% steigt und noch ein paar Optimierungen mit einfließen kann es schon sein das die ca. 60% mehr Leistung bringt als eine Fury X und damit auf Titan X(P)-Niveau liegt evtl. noch etwas drüber.

Hm, 60% Prozent mehr Leistung als die Fury X wäre immer noch unter der Titan X(P) (+64%, 4K, Spieledurchschnitt, dein Link)

Und auch die NV-Karten sind dann nicht mehr so sparsam wenn sie auf 2GHz+ hochgeprügelt werden.

Das waren 1797 MHz, wenn ich nicht irre und 27 Watt mehr als die Fury X bei 79% mehr Leistung. Etwas besser als die Fury X die ganze 67 Watt mehr als die GTX 980 Ti braucht für 5% mehr Leistung. (4K, Spieledurchschnitt vs. durchschnittliche Gesamtleistungsaufnahme auch dein Link)

Mich würde mal ein Vergleich einer GTX 1080 gegen eine GTX980Ti bei gleichem Takt interessieren. Dann sieht man das Pascal nur ein hochgezüchteter Maxwell ist.

Sagt dann genau was aus? Überraschung die GTX 1080 ist im Pro Takt Vergleich langsamer als die GTX980Ti und was heißt das nun? Genau, dass du Äpfel mit Birnen vergleichst, weil man die Leistungfähigkeit einer Grafikkartenarchitektur so nicht vergleichen kann. Schon allein weil:

1. Die GTX 980Ti basiert auf GM200 die 1080 auf GP104 also ein Kategorie tiefer.
2. Die 980Ti hat 256 Shadereinheiten sowie 32 ROPs und 16 Textureinheiten mehr als die 1080.

Wenn du unbedingt die Generationen pro Takt vergleichen möchtest wäre GTX 980 vs. GTX 1070 am ehesten möglich.

[Achtung; Gedankenspiel!]
Da wären wir etwa bei 34,1 % mehr Leistung bei 38,4% mehr Takt und knapp 6,7% weniger Shader- und Textureinheiten als bei der GTX980 würden einen theoretischen Pro Takt Leistungsfaktor von 0,85 für die GTX 1070 bei 1 für die GTX980 ergeben. (1x0,659x1,384x0,933= ungefähr 0,85; Bezogen auf 4K PCGH 10/16 Spieledurchschnitt 47,2 gegen 63,3% Leistung von der Titan X, durchschnittlicher Takt 1216 vs. 1683 MHz, 2048 gegen 1920 Shader und 128 Textureinheiten vs. 120 Textureinheiten.) Und wenn wir die Leistungsaufnahme berücksichtigen haben wir theoretisch 15% weniger Leistung pro Takt bei ca. 1/3 weniger Leistungsaufnahme pro Takt. (0,15 vs. 0,09 Watt pro Takt bei etwa 32 Watt weniger Leistungsaufnahme Referenz GTX 980 gegen Founders Edition GTX 1070)
[/Gedankenspiel]

Zudem bezweifelt Niemand, dass Pascal ein aufgemotzter Maxwell (eigentlich sogar ein Kepler) ist. Vega ist schließlich sogesehen auch nur ein aufgemotzter Fiji.

Und um deine nur logische Frage zu beantworten: AMD hat mit im Highend-Grafikkartenbereich seit der HD 5870 nicht mehr überzeugt und die war auch nur ne aufgemotzte HD 4870 und noch nicht mal ne richtige AMD sondern eigentlich die letzte Ati-Karte.
 
Zuletzt bearbeitet:
Hauptsächlich die Architektur sollte dafür verantwortlich sein, denn Polaris läuft schon sehr an der Grenze und der Prozess selber wird wahrscheinlich nur wenige Prozente noch herausspringen lassen.
http://images.anandtech.com/doci/11002/Vega Final Presentation-29.png
Dann freu' ich mich drauf, falls das wirklich so kommen sollte (und nicht so ne großspurige Ankündigung samt Enttäuschung wie bei Polaris wird).
Endlich wieder auf Augenhöhe mit Nvidia sein (oder es geschieht ein Wunder und man ist wieder mal vorne) :)
Die Gerüchte über eine 16nm Version sind schon erloschen, oder?
 
Naja, Abwarten.
Ryzen wurde ja auch Megamässig gehypt und rausgekommen ist zwar ein Halbwegs Ordentlicher Prozessor der so Manchen Preis/Leistungs Punkt einfahren kann.. aber nix womit man mit Intel den Boden aufwischen könnte.
Ich geb zu Ryzen hat seine einsatzgebiete wo er Glänzen kann für das was er Kostet im Vergleich mit Intel

und was Vega angeht.. Meine Glaskugel schätz die ganze Geschichte Jetzt mal beim Leistungsfähigsten Model auf ca 90% -100% einer Founders GTX 1080 ein. Mit nem Paar treiberoptimierungen vielleicht bei 105%
also etwa gleich auf oder leicht stärker als eine gut übertaktete GTX 1070

Aber nix was mit der TI den Boden aufwischt.. die Frage ist eher für Welchen Preis diese Grafikkarten nachher gehandelt werden
Leider sehe ich AMD im Moment eine Generation hinter Nvidia herhinken wenn man bedenkt das die GTX 1080 schon n Jahr auf dem Markt ist wenn der Direkte Konkurrent Vega dann mal releast wird
 
Laut diesen Folien hätte Vega 10 dann 16GB statt 8GB HBM2.
Für den professionellen Bereich (Worauf sich die Folien auch beziehen) wird Vega 10 sehr wahrscheinlich mit 16GB ausgestattet, als einfaches Radeon-Produkt vermutlich nur mit 8GB, wenn man Glück hat bietet AMD beides an.

[...]
und was Vega angeht.. Meine Glaskugel schätz die ganze Geschichte Jetzt mal beim Leistungsfähigsten Model auf ca 90% -100% einer Founders GTX 1080 ein. Mit nem Paar treiberoptimierungen vielleicht bei 105%
also etwa gleich auf oder leicht stärker als eine gut übertaktete GTX 1070
[...]
Dann kann AMD gleich die Grafiksparte dicht machen, wenn ein 500mm² großer Chip gerade so die Performance von einem mit 314mm² von Nvidia schafft.
Wenn Vega 10 sich nicht auf GP102 Niveau bewegt sieht es ganz übel aus.
 
Zuletzt bearbeitet:
blackfirehawk,


und warum schätzt du das mit einer falschen glaskugel ?

nur weil amd jetzt ein jahr hinterher hinkt und du vll den hype durch den polaris mit gemacht hast und daraus nichts wurde ?

nochmal für dich extra, vega ist eine stark verbessertes architektur der die shaders zu 99%
auf die strasse bringen wird usw.

also stell dein billiges schrott glaskugel weg und gedulde dich doch bis mai und staune was amd mal wieder so gezaubert hat.


rollora,

hör auf so ein misst zu erzählen über mich,

den ich habe nie über polaris gehypt, ich habe polaris in ca fury leistung bei unter 170watt eingeschätzt und ist auch so gekommen.

und kneife nicht, sonst sehe gezwungen mein link hier zu posten was ich so von polaris erwartet habe.
 
*Seufz* du kannst es einfach nicht lassen, geht das schon wieder los? Musst du immer persönlich werden und falsche Fakten als Tatsachen darstellen? Es ist einfach irgendwann genug. Du hast die Grundregeln eines sozialen Miteinanders einfach nicht verstanden:
blackfirehawk,


und warum schätzt du das mit einer falschen glaskugel ?
Warum kannst du nicht begründen, was so "falsch" sein soll?
Warum kannst du ihm nicht mit freundlichen Worten und technischen Daten (wie Locuza) erklären, dass der Gegner von Vega die Titan und Ti sein muss?
nur weil amd jetzt ein jahr hinterher hinkt und du vll den hype durch den polaris mit gemacht hast und daraus nichts wurde ?.
Man hinkt schon mehrere Jahre hinterher, aber das ist eine andere Geschichte.
nochmal für dich extra, vega ist eine stark verbessertes architektur der die shaders zu 99%
auf die strasse bringen wird usw.
Wieder so eine Aussage. Du stellst das schon wieder als Fakt dar, was aber reine Vermutung ist und noch dazu falsch.
Keine Architektur der Welt bringt 99% der theoretischen Shaderleistung "auf die Straße". Nichtmal in theoretischen, synthetischen Benchmarks geht das, geschweige denn in Spielen.

Was würde passieren, wenn AMD eine 99% effiziente Architektur hätte? Um es mit Sebastian Vettels Aussage zurechtzurücken: Die ganze AMD Mannschaft, könne die "Eier in den Pool" hängen.
Denn was müsste man dann noch arbeiten? Ein zu 99% effizienter chip, der müsste nie wieder überarbeitet werden. Einfach mit neuem Prozess mehr Einheiten, kleinste Verbesserungen, fertig.

Wenn du wenigstens 110% geschrieben hättest, wüssten wir, dass du das nicht ernst meinst... aber so? Schon wieder eine falsche Behauptung als Fakt dargestellt. Es nervt einfach, du hast einfach keine Diskussionskultur.
also stell dein billiges schrott glaskugel weg
Schon wieder. Höchst unnötige Stichelei

und gedulde dich doch bis mai und staune was amd mal wieder so gezaubert hat.

hör auf so ein misst zu erzählen über mich,
Ich muss nichts erzählen, das was ich oben zitiert habe, zeigt doch, was du immer und immer und immer wieder machst: Beleidigen, falsche Annahmen treffen und sie als Fakten darstellen.


Aber ja, ich werds mir speichern und dann später auf deine 99% Shader zurückkommen. Wenigstens hast du mal eine Zahl und nicht Pauschalaussagen (wird Nvidia vernichten) gemacht.
Diese Zahlen kann man ja messen :D
 
blackfirehawk,


und warum schätzt du das mit einer falschen glaskugel ?

nur weil amd jetzt ein jahr hinterher hinkt und du vll den hype durch den polaris mit gemacht hast und daraus nichts wurde ?

nochmal für dich extra, vega ist eine stark verbessertes architektur der die shaders zu 99%
auf die strasse bringen wird usw.

also stell dein billiges schrott glaskugel weg und gedulde dich doch bis mai und staune was amd mal wieder so gezaubert hat.


rollora,

hör auf so ein misst zu erzählen über mich,

den ich habe nie über polaris gehypt, ich habe polaris in ca fury leistung bei unter 170watt eingeschätzt und ist auch so gekommen.

und kneife nicht, sonst sehe gezwungen mein link hier zu posten was ich so von polaris erwartet habe.

Warum sollte ich groß anders Denken? klar hat AMD hier und da etwas aufgeholt. aber ihr Momentan stärkster GPU ist die Fury.. die neueste ist die R480 die sich leistungstechnisch auf dem gleichen Niveau einer GTX 1060 6 GB bewegt
alles darüber hat man jetzt ein Jahr lang Nvidia überlassen. und nur weil man in nem Doom Benchmark ein paar FPS über einer GTX 1080 liegt bedeutet noch lange nicht das die Karte ein TI killer wird zu einem Günstigen Preis

es ist einfach Fakt das AMD über ein Jahr zu Spät ist mit einer Antwort auf die GTX 1070/1080. Wie kommst du auf den gedanken das wir es hier mit einem TI killer zu tun haben? die Fury war gegenüber der 980 auch nie eine wirkliche Konkurenz und das trotz HBM Memory

Klar ist das Meinerseits ein Glaskugel Schätzen da wir bisher keine wirklichen Benchmarks hier vorliegen haben von Vega. und Selbst das was bekannt ist bedeutet nicht das es nacher die consumer Grafikkarte hat, im Schlimmsten fall sehen wir nämlich nur die Semi Professionellen Chip der nochmal abgespeckt wird für den Gaming Markt

Was Polaris angeht.. weis zwar nicht von welchem Hype du redest aber in meinen Augen ist Polaris jetzt nicht der Hit was Leistung angeht..

meine Letzte Karte war eine AMD 380 4GB mit der ich mehr als genug mit Treiberproblemen zu Kämpfen gehabt habe und ende letzten jahres hab ich mich für eine GTX 1070 entschieden mit der ich hochzufrieden bin und bisher noch von keiner AMD karte geschlagen wurde

Klar ist Vega eine verbesserte/andere Architektur mit der ein paar Flaschenhälse ausgeräumt wurden.. aber wie die Leistung nacher auf die Straße umgesetzt wird steht auf n ganz anderem Blatt.. denn hier haben wir das gleiche problem wie beim Ryzen.. es ist eine Neue Architektur und auch hier müssen die Treiber zeitnah stimmen und Befehlssätze optimiert werden genauso wie bei den Prozessoren

und bei aller Liebe, es sind zwar nur meine Persönlichen erfahrungen.. aber Treibermässig würd ich AMD nicht gerade als gut bezeichnen..

Nvidia hats geschaft mit der Pascal generation zur vorherigen ca 50-70% mehrleistung drauf zu legen. und wenn ich das grob auf Vega ummünze sind Polaris/fury + 50-70% auch ca GTX 1070/1080 Niveau.. um eine GTX 1080 TI zu Schlagen müsste man gegenüber Polaris schon noch einiges mehr drauf legen..

Es braucht grob 2 R480er im Crossfire um auf einem Nivea mit der GTX 1080 zu sein... für die TI kannst nochmal ne dritte draufschlagen.. also müsste AMD quasi +100%-150% drauf schlagen auf Polaris um in die nähe der TI zu kommen das werden die in meinen augen nicht Schaffen auch wenn ich es ihnen durchaus wünschen würde. und Sollten sie es doch Schaffen, Respekt meinerseits weil ich es nicht für wahrscheinlich gehalten habe.

Aber gewöhn dir mal n anderen, nicht so aggressiven Schreibstil an. .ist ja Schön und Gut das du hoffst das AMD da was hinzaubert. aber sei nacher nicht entäuscht wenns Schief geht

was mich angeht, ich sehe das glas weder als halb leer noch als halb voll an was AMD angeht.. es ist im moment auf jedenfall nicht so voll wie das von anderen und Schales Bier schmeckt nicht
 
Meine Glaskugel schätz die ganze Geschichte Jetzt mal beim Leistungsfähigsten Model auf ca 90% -100% einer Founders GTX 1080 ein. Mit nem Paar treiberoptimierungen vielleicht bei 105%
also etwa gleich auf oder leicht stärker als eine gut übertaktete GTX 1070

Naja. Schon zwei Polaris 10 Chips bringen ja die Leistung einer 1080. Wenn es AMD wirklich verbockt hat, und so lange für einen inneffizienten, großen (=teuren) und dann auch noch langsamen Chip gebraucht hat, brauchen sie den gar nicht mehr zu veröffentlichen.

Ja die Takten aus Stabilitäts und Effizienzgründen niedriger.
Naja 1.6 Ghz allein reichen noch nicht, aber die Verbesserungen an Shadern, Frontend Backend und anderen Dingen, zusammen mit HBM könnten natürlich schon reichen, den Chip gegen die Titan und TI zu stellen. Die Taktrate allein eher nicht, man ist dann doch deutlich weiter zurück als die 43 bzw 53% ( Alles uber AMD Radeon RX Vega: Technische Daten, Release, Raven-Ridge-APUs [Update] ) die man an Takt gegenüber von Fiji gut macht.
Mir wäre es außerdem sehr recht, nicht einfach nur ein Fiji + mehr Takt zu sehen. Aus rein persönlichen Gründen würde ich gerne sehen, dass AMD bei der Architektur selbst mal wieder größere Fortschritte was Effizienz und Leistung betrifft macht. Einen übertakteten Fiji kaufe ich mir nur ungern, dazu hat man sich hoffentlich nicht mehrere Jahre Zeit gelassen.

Die Fury X läuft doch standardmäßig mit 1050 MHz, bei 1,6 GHz hätte man also schon fast 60% allein durch den Takt. Das ist dann von den ~70% Vorsprung einer 1080 Ti @ Stock gar nicht mehr so weit entfernt (Anmerkung: Im Test der 1080 Ti gibt es einige Ausreißer nach oben. Ich nehme mal an, dass der Fury X hier der Speicher ausgeht, weil anders sind Ergebnisse wie 341% Vorsprung in Mirrors Edge nicht zu erklären. Zumal hier auch alle 4 GB Karten in etwa gleichauf liegen. Diese Ausreißer habe ich mal ignoriert).

Ich stimme dir aber zu. Vega sollte deutlich mehr sein als ein übertakteter Fiji, denn für einen Shrink und das halbieren des Speicherinterfaces hätte AMD sicher nicht so lange gebraucht - hoffe ich jedenfalls.

Nvidia hats geschaft mit der Pascal generation zur vorherigen ca 50-70% mehrleistung drauf zu legen. und wenn ich das grob auf Vega ummünze sind Polaris/fury + 50-70% auch ca GTX 1070/1080 Niveau.. um eine GTX 1080 TI zu Schlagen müsste man gegenüber Polaris schon noch einiges mehr drauf legen..

Naja. Nach dem PCGH Leistungsindex 2016 lag die 1080 41% vor der Fury X, die Titan X(P) (= 1080 Ti) 70%. Vega läuft mit mindestens 1,5 GHz Takt, wie schon erwähnt takten die Workstation Karten in der Regel etwas niedriger, der Consumer Vega sollte also durchaus auf 1,6+GHz kommen.

Das sind schon mal 60% Leistungssprung zur Fury X, die 1080 sollte also locker drin sein. Ob AMD die restlichen 10% zur 1080 Ti@ Stock auch noch hinbekommt werden wir sehen. Vielleicht landen sie auch ein wenig drüber, das halte ich zwar für unwahrscheinlich, aber keineswegs ein Ding der Unmöglichkeit.
 
Zuletzt bearbeitet:
gut ihr werdet es dann bald sehen was amd mit vega gezaubert hat.

aber kla doch ihr wünscht es amd sowas von, das ich nicht lache.

genauso wie mit ryzen, hate ohne ende, die es nicht war haben wollen das er preisleistung wunder geworden ist.

amd mal wieder !

und ihr zweifelt noch das es mit vega nichts wird um mit 1080ti gleich zu ziehen und dabei noch günstiger sein wird.

also leute nochmal für euch allen naiven hier,
vega wird ein neuer preisleistung könig werden!
genau so wie es der ryzen schön vormacht.
 
@ Mephisto : ich halte es aufgrund der bekannten Daten durchaus für möglich die Ti und Titan knapp zu schlagen. aber halt erst 1 Jahr später und mit spezieller Speichertechnik

@gecan Dagegen (Preis /Leistung)hat NIEMAND was gesagt.

Dein Schreibstil ist hier das Problem.


Beweise für die 99% hätten wir auch gern. Also bitte leg los
 
Zuletzt bearbeitet:
gut ihr werdet es dann bald sehen was amd mit vega gezaubert hat.

aber kla doch ihr wünscht es amd sowas von, das ich nicht lache.

genauso wie mit ryzen, hate ohne ende, die es nicht war haben wollen das er preisleistung wunder geworden ist.

amd mal wieder !

und ihr zweifelt noch das es mit vega nichts wird um mit 1080ti gleich zu ziehen und dabei noch günstiger sein wird.

also leute nochmal für euch allen naiven hier,
vega wird ein neuer preisleistung könig werden!
genau so wie es der ryzen schön vormacht.

Ok um hier ein paar Dinge klarzustellen....:

1) Ich wünsche mir von AMD eine GPU mit der zehnfachen 1080 Ti Leistung für 100€. Bekomme ich die? Nein. Das Leben ist kein Wunschkonzert.

2) Ryzen ist für Spieler _KEIN_ P/L-Kracher, der i7 7700K ist in praktisch jedem Spiel besser oder gleichgut. Egal ob nun 720p, 1080p, WQHD oder 4K. Wer mit seinem PC streamt, Videos schneidet, Bilder rendert oder den ganzen Tag Cinebench laufen lässt, für den ist Ryzen super.

3) Es ist berechtigt am P/L-Wunder zu zweifeln, immerhin dürfte Vega in der Herstellung deutlich teurer als der GP102 werden.

DU bist hier derjenige, der einfach nur rumbrüllt "Vega wird awesome ihr Deppen", ohne irgendwelche Argumentationspunkte zu liefern, und du nennst die Zweifler naiv? Wie gesagt, ich WÜNSCHE mir, dass Vega ein Knaller wird. Wirklich. Ich hab momentan eine 390X, und will eigentlich nicht mehr auf FreeSync verzichten oder mir einen neuen Monitor kaufen.

Aber man muss realistisch bleiben. Denn entgegen deiner Behauptungen kann AMD nicht zaubern.

@ Mephisto : ich halte es aufgrund der bekannten Daten durchaus für möglich die Ti und Titan knapp zu schlagen. aber halt erst 1 Jahr später und mit spezieller Speichertechnik

Meinst du mit spezieller Speichertechnik den HBM Speicher? Weil so speziell ist der gar nicht mehr, zumindest nicht in den Daten. Vega wird mit seinen 512 GB/s nur wenig über den 484 GB/s landen, die der GP102 mit seinem 384 Bit Interface und GDDR5X ansteuert. Es spart vielleicht ein wenig Platz auf dem Die oder der Platine, aber Vega wird nicht mehr in einer viel höheren Bandbreite als die Konkurrenz "baden" können.

Und ich hoffe doch mal stark, dass es kein Jahr dauert bis AMD die Karte in den Griff bekommt.
 
Zuletzt bearbeitet:
vega wird ein neuer preisleistung könig werden!
Vermutlich nicht dieses Jahr.^^ Das soll jetzt nicht bedeuten, dass im Jahre 2017 kein Release erfolgen sollte, sondern einfach, dass HBM2 & die Chipgröße + entsprechende Leistung auch dementsprechend kosten werden. Aber wir sind ja alle guter Dinge ...;):P
 
...., aber Vega wird nicht mehr in einer viel höheren Bandbreite als die Konkurrenz "baden" können.

Auch hier noch einmal, AMD hat mit Draw Stream Binning Rasterizer eine Technologie entwickelt, die ähnlich zu Nvidias Tiled Cache Renderer ist.
Tiled Cache Renderer war heute rückwirkend betrachtet die entscheidende Technologie die Maxwell/Pascal so effizient machte.


Daneben wäre noch zu erwähnen, das nVidia nun endlich zugegeben hat, das die Maxwell- und Pascal-Architekturen als Tiled-Cache-Renderer ausgelegt sind, wie die ComputerBase am Ende ihrer Berichterstattung zur Präsentation der GeForce GTX 1080 Ti erwähnt. Dies dürfte dann letztlich auch den großen Effizienzsprung der Maxwell-Generation besser erklären, welche zum einen aus derselben Rechenleistung wesentlich mehr Performance herausholt und zum anderen dafür nicht mehr Energie verbraucht – und dies alles auf Basis derselben Fertigungstechnologie (zur Vorgänger-Generation Kepler). Auch daß nVidia für dieselbe Performance mit auffällig weniger Speicherbandbreite zurechtkommt, läßt sich hierüber erklären – nVidia gibt den Effekt grob mit 60% mehr effektiver Speicherbandbreite (nur durch dieses Feature) an. AMD wird erst mit der Vega-Generation in diesen Fragen nachziehen – aber da wir alle den enormen Effekt bei der Maxwell-Generation gesehen haben, macht dies Vega natürlich um so interessanter. AMD könnte erstmals in der Lage sein, aus seinen vielen Recheneinheiten und seiner großen Speicherbandbreite richtig Gewinn zu ziehen.
Hardware- und Nachrichten-Links des 1. Marz 2017 | 3DCenter.org


Selbst wenn AMDs neues Draw Stream Binning Rasterizer nur halb so effizient ist bei GCN wie Nvidias Gegenstück, sollte sich dass extrem auswirken.
 
Zurück