Bericht: Nvidia soll AMDs Effizienzsprung durch 7-nm-Fertigung unterschätzt haben - Ampere-Nachfolger Hopper 2021?

@Locuza: Können die Core Counts mit Zen 3 nicht auch steigen? 8-Channel Memory gibt's ja jetzt bereits mit Epyc. So gesehen wird Intel gerade mal aufholen, was I/O betrifft.
 
Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.

Die 290X war damals nah dran an der TItan, kann mich erinnern, hatte auch eine 290X. Aber die 390X war schon nur ein Witz, der einfach nur ein müder Aufguss der 290X war. Hatte zwar später auch eine, wegen den 8GB, aber schneller, nicht so wirklich.

Außerdem war das so ziemlich das letzte mal, das AMD wirklich an die Nvidia Top Karte heran kam, Seitdem muss immer nur Cherry Picking gemacht werden, oder OC vs Stock, damit man da sich irgendwas zusammen dichten kann.
Seine Aussage bezog sich wohl auch eher auf die neuen Karten, der beiden Unternehmen. Da ist es dann nicht unwahrscheinlich, das sich der Eine, oder Andere damit schwer tut, sich vorzustellen, das die nächste schnellste Karte von AMD mal eben über 100% mehr Leistung bietet, als die letzte schnellste KArte. Wobei Nvidia für die dann gleiche Leistung schon nur eine 2080Ti mit höherer TDP bringen bräuchte um mithalten zu können.

Ich habe es letztens schon in einem anderen Thread geschrieben, wenn bei beiden die Gerüchte in etwa hinkommen, dann würden wir in etwa ein Kopf an Kopf Rennen, zwischen einer RDNA2 Big Navi und einer RTX3080TI erleben, das ganze gute 60% vor einer jetzigen 2080TI mit den spezifizierten Taktraten (Boost bis 1635MHz)

Ich habe sogar mehr als ZWEI Karten und AMD hat eine die so schnell wie eine 2080 rastert, daher. Sie haben kein Enthusiast, aber Highend schon.


Wollte mir keiner glauben. Nicht umsonst hat Huang schon früh gegen die R7 gewettert. Der wusste was kommt.
Turing braucht tatsächlich kein N7+, Ampere und Hopper schon. Wer glaubt denn das man 12nm FFN einfach auf N7+ updatet? Das ist doch Quark. 12nm FFN ist vorallem für die Stromersparnis beim Fertigungsprozeß gut, weil er weniger Belichtungsgänge braucht. Das geht aber mit N7+ nicht. Es braucht ein Redesign, dass wird Nv kosten und die Yield dürfte anfänglich gar nicht gut aussehen.

Was interessiert mich zum Beispiel das isolierte Rastern, außerdem welche Karte meinst du bloß. Sehe dennoch keine, die Stock vs Stock so schnell wie eine 2080 ist. Ist eine ehrliche Frage und nicht ironisch gemeint. Bitte kläre mich auf.

Offizielle Aussagen von AMD bezeichnest du als Gerücht?

Du meinst jetz ein Werbeversprechen von vielen, wie die 50% mehr Effizienz?
Hat Nvidia nicht sogar 50% mehr Leistung, bei halben Verbrauch gesagt. Das wäären übrigens mehr als nue 50% mehr Effizienz.

Das ist Marketing. Unter welchen Bedingungen hinterher das was gegenüber was wie abschneidet, zeigt sich nach Release.


Wer sagt eigl. das NVIDIA dieses Jahr Gaming Grafikkarten vorstellt? Vllt. ist Ampere nur für Workstation und Server und Hopper das Gaming Äquivalent?

Ich meine die Gaming Form von VOLTA hieß auch nicht Volta, die hieß Turing und Turing erschien über ein Jahr später, als Volta

Würde mich nicht wundern ,wenn wir erst 2021 Grafikkarten von NVIDIA sehen werden.

JA, mittlerweile denke ich schon so, leider.

Big Navi kurz vor dem JAhreswechsel und dann erst gegen Mai neue Nvidia´s. Vielleicht. Also das befürchte ich. Ich will jetzt endlich mal mehr Leistung pro Euro kaufen.
 
Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.
Eher ist doch die 290X ist von der Titan und besonders von der 1 Monat nach der 290X erschienen 780Ti weggeholzt worden. (um es mal mit deinen Worten zu sagen).
1.PNG 2.PNG 3.PNG 4.PNG 5.PNG 6.PNG 7.PNG
 
Du meinst jetz ein Werbeversprechen von vielen, wie die 50% mehr Effizienz?
Das war eine offizielle Aussage des Herstellers.

Hat Nvidia nicht sogar 50% mehr Leistung, bei halben Verbrauch gesagt.
Nein, so einen Mist haben die nicht gesagt, das war nur ein Gerücht.

Du kannst offensichtlich Gerüchte nicht von offiziellen Aussagen der Hersteller unterschieden...
 
Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.

Lol was meine 290 ohne X hat schon 460 Euro gekostet und die 290X kostet 650 Euro.
Dann wurden die Karten noch von der 780ti ganz schnell mal wieder zum gleichen Preis in ihre Schranken gewiesen.

Außerdem hinkt der Vergleich mit Kepler deutlich, weil AMD 1 Jahr früher auf dem Markt kam. Und nicht mal das reichte
um sich gegen Kepler durch zusetzen. Ganz zu schweigen das die Karten heiß waren und daher sehr laut. Mit Stock Lüfter
dachte man man hat ein Flugzeug im PC.
Jaja AMD machte sich über Fermi 1.0 lustig um später dann genau den gleichen Mist raus zubringen.
Ich ersetze die 290 sofort mit der GTX 970 die ja sogar schneller war wie die 290X.

Die 200er Serie war überhaupt nicht gut, die Karten waren Heiß, Teuer, Laut Stromfresser also schlechter geht es gar nicht mehr.
 
Jaja genau das gleiche wie letzes mal, keiner hat auch nur einen Hauch einer Ahnung
wie die Gaming Karten heißen werden.

Vor RTX war es die ganze Zeit Volta, man tapte im dunkeln genau das gleiche ist es doch jetzt wieder.
Ich sag euch jetzt schon die Karten werden nicht Ampere heißen und keiner weis etwas darüber.

Bei RTX traf es auch alle wie ein Blitz, Nvidia schafft es das ganze sehr gut Geheim zuhalten.
Erst wenn Nvidia das ganze Preis gibt dann werden wir wissen was dahinter steckt, davor ist es
genau das gleiche wie letzes mal.
 
Naja klingt für mich wenig plausibel, dass Nvidia die Konkurrenz so stark unterschätzt.

Ist es auch.

Das alles ist eine große Werbung, für die Effizienz der kommenden Nvidia GPUs.
Einfach um die Ecke gedacht.
Hauptsache man ist im Gespräch und macht sich interessant = Hype aufbauen.

Ende der Werbeveranstaltung.

Ich warte auf konkrete offizielle Tests und den Rest glaub ich so weit, wie die Wetterberichte von in 2 Wochen.
Ob da jetzt irgendwas von TMCSXY, oder von Lego drauf ist, is mir wurscht. Offizielle Testdaten(am besten unabhängig von PCGH) interessieren.

Nach Möglichkeit sollte es etwas mehr Leistung(herkömmlich und RT-Demokram) als die jetzige 2080Ti für günstiger geben = 3080.
Schaun wir mal, wie es wann aussehen wird.
 
@Locuza: Können die Core Counts mit Zen 3 nicht auch steigen? 8-Channel Memory gibt's ja jetzt bereits mit Epyc. So gesehen wird Intel gerade mal aufholen, was I/O betrifft.
Laut AMDs Roadmap sind für Milan ebenso "nur" 64-Kerne geplant:
https://www.hardwareluxx.de/images/...oadmap-1_8BEF9C1CFC32475098D22F12E001F5F9.jpg

Ich denke die Wahrscheinlichkeit ist sehr gering, dass AMD zwei unterschiedliche CPU-Chiplets fertigen wird, einen mit 8-Kernen und den anderen mit noch mehr.

Und ja, 8-Channels gibt es seit Naples, aber einfach relativ gesehen kann AMD natürlich nicht mit dem Ice-Lake-Sprung mithalten.
Zen2 war der große Booster für AMD, dank 7nm-Fertigung. (Von 32- auf 64-Kerne, von 128x PCIe3 auf 128x PCIe4, garniert mit 256-Bit FPUs)
Ice Lake ist der große Booster für Intel, dank der 10nm-Fertigung. (Von 28- auf 38-Kerne, von 48x PCIe3 auf 64x PCIe4, garniert mit was auch immer)

Aktuell liegt Intel massiv zurück gegenüber AMDs Rome, mit Ice Lake SP wird das Kräfteverhältnis allerdings wieder deutlich ausgeglichener und Zen3 kann nicht den Abstand beibehalten.
Deswegen auch mein Einwurf, dass es allgemein nicht düster für Intel wird, wenn Zen3 erscheint.
Die Serverposition sollte sich für Intel verbessern, der Desktopmarkt wird vermutlich schlechter ausfallen und mobile wird wohl grob gleich bleiben.

Und mal wirklich allgemein, selbst wenn AMD in gewisser Weise konkurrenzlos ist, sieht es für Intel gar nicht düster aus, denn AMD kann sie nur beschränkt ersetzen.
AMDs Fertigungsvolumen ist deutlich kleiner und Intel kann und wird nach wie vor massenweise 14nm CPUs in alle Märkte spülen, die auch abgenommen werden.
Auch zeitlich hat AMD ein Problem, denn für viele Plattformen und Produktsegmente sind sie ein relativ neuer Zugang und es steht erst einmal aufwendige Validierung und Zusammenarbeit an.
Ihnen fehlt es natürlich auch an "Financial Horsepower", Intel kann bezüglich Co-Development und Co-Marketing viel mehr beisteuern.

AMD muss viele Markthürden überwinden, was bedeutet das man nicht nur die besten CPUs liefern muss, sondern auch viele andere Dinge.
Und wenn AMD jemals an den Punkt ankommen sollte, wo sie fast alle Hürden überwunden haben, dann sprechen wir mindestens vom Jahr 2021/22 und ab da sollte auch Intel den Karren aus dem Dreck gezogen haben.
AMD genießt gerade eine paradiesische Situation, auf Ewig wird das natürlich nicht so bleiben.
In gewisser Art und Weise holen beide Unternehmen auf und als Konsument hofft man natürlich das Beide gesund und stark nebeneinander existieren.
Persönlich wünsche ich mir am meisten das AMD soviel gewinnt wie möglich, sie sind relativ weit unten und wenn sie nicht genug "Fett" ansammeln, kann die Situation wieder schnell düster werden.

Team Red braucht auch das Geld für den GPU-Sektor, Nvidia genießt zuviel vom GPU-Markt und Intel steigt bald viel stärker ein, dass wird nicht spaßig aus Unternehmenssicht.
 
Einige haben offensichtlich einen Sprung in der Schallplatte.
Da freu ich mich bereits drauf, RDNA2 wird noch für so einige Aha-Momente in diesem Forum verantwortlich sein.

Ich sag nur Status quo: Derivat <=300mm2 ---> <200W ----> IPC >=10% = 2080tiFE -10%, 7nm+ (Ja richtig gelesen N7+ nicht N7P)

Big Navi (RDNA2 pure) 505mm2 ----> <300W -----> IPC >10% (nach oben offen), N7+ ----> = das kann sich jeder selbst ausmahlen was dabei rumkommt.

Es hat zwar lange gedauert, aber anscheinend ist selbst Nvidia endlich zum selben Ergebnis gekommen.

Und das beste das ist erst der Anfang:
Mobile Radeons: RDNA-Chips von Samsung angeblich schneller als Adreno 650
https://www.pcgameshardware.de/AMD-...g-angeblich-schneller-als-Adreno-650-1349335/
(Auch hier braucht es etwas Vorstellungsvermögen was dieser Deal für AMD und indirekt auch für Intel und NVIDIA bedeutet.
Nur soviel, es sind sicherlich nicht die von Samsung an AMD überwiesenen Geldbeträge, denn diese sind überschaubar. Die dabei erhaltene Expertise allerdings kommt und wird auch Zen und RDNA zugute kommen.
Aus dem Stegreif heraus ist man bereits bei einem frühen Engineering sample, schneller als alles was die Konkurrenz zu bieten hat.
Auch ein A14 wird wohl nächstes Jahr dagegen den kürzeren ziehen.
Bildschirmfoto vom 2020-05-06 21-38-56.png
 
Zuletzt bearbeitet:
Das sagt sehr viel über dich aus;)


Das Selbe haben die Intel-Fanboys auch noch vor kurzem behauptet^^


Und weiter?


Warum sollte es nur bei +50% Leistung bleiben?


Zumindest bei Intel liegst du total falsch...


Hm.....wirst wohl wieder wie ich von Good-old-amd-gpu-nicht-auf-Augenhöhe enttäuscht werden...macht aber nix, es muss Leute wie dich geben! Meine Frau glaubt auch daran, dass ihr Ungarn demnächst Weltmeister (Fußball) wird! Ohne euch gäbe es weniger zu schmunzeln :)
P.s. Nvidia ist nicht Intel ;)
 
Und trotzdem haben sie einem Kunkurrenten mit mehr Kernen und Fertigungsvorteil Paroli geboten.
Kein Wunder das Deutschland bei PISA so schei** abschneidet bei so einem Leseverständnis. :rollen:
Erstens ging es um Innovation seitens Intel, nicht ums mithalten. Zweitens um Probleme dies es schon VOR Ryzen gab.

Zwei Mal Cinebench, der AMD seit Zen sowieso besser liegt und zwei Benchmarks, die 5-6% mehr IPC zeigen. Alle Spiele verliert Zen 2. Auch PCGH hat es gemessen Zen 2 ist bestenfalls ebenbürtig. Ist aber letzten Endes relativ egal solange Preis und Leistung stimmen.
Cinebench Single und Multi, wo ist da das Problem? Zusätzlich eh 2 andere Benchmarks. Aber das war auch nur das erste Google-Ergebnis AMD vs Intel IPC. Du bist mit der falschen Behauptung dahergekommen das Intel auf Augenhöhe ist. Hier, noch ein anderer Test mit 7 verschiedenen Benchmarks wo Intel überall den kürzeren zieht:
YouTube
Und toll, dass du Spiele noch einmal rausstreichst nach dem ich sie explizit erwähnt habe. Vor allem, was spiegelt die Leistung wohl besser wieder? Ein Benchmark, der die Leistung in einem messbaren Wert ausdrückt? Oder ein Programm, das extrem von Optimierungen, Treibern und anderer Hardware abhängig ist?

Ich verrate dir zudem ein Geheimnis, Spiele machen nur einen Bruchteil dessen aus, wofür CPUs in der Regel genutzt werden.

Man muß hier unterscheiden, zwischen dem, was entwickelt wurde und dem, was man dem Pöbel vorgesetzt hat.

Warum sollte man die Schatzkammer plündern, wenn es das Gerümpel genau tut?

Die Kernzahl der großen Xeons (daran konnte man den Fortschritt ablesen, ist von Generation zu Generation permanent gestiegen. Die Zahl der Kerne, mit denen man die Normalos abgespeist hat, ist dagegen bei 4 geblieben. Hätte ich auch so gemacht, ein gutes Pferd springt so hoch, wie es muß. Was wiklich möglich war, das konnte man sehen, nachdem Ryzen und Threadripper kamen. Plötzlich ging es im HEDT Bereich von 12 auf 18 Kerne hoch, einfach mal so und auch die Normalos bekamen 6, dann 8 und jetzt 10 Kerne.

Sie haben schon einiges gebracht, Iris Pro, samtL4 Cache oder auch AVX512, wirklichen Stillstand gab es bei Intel nie.

Die Core i Architektur ist extrem ausgreift, was man denn besser machen könnte, das weiß auch keiner. Quasi alle anderen Ansätze haben zu viele Nachteile, so dass man wieder zum ursprünglichen Konzept zurückkehrt. Mit Alderlake kommt jetzt etwas neues in die x86er Welt, das ist einigermaßen innovativ, auch wenn es leistungsmäßig nichts bringt und nur den Stromverbrauch senkt
Erstmal Danke für richtige Argumente.
Stimmt, im Serverbereich hat sich durchaus einiges getan, allerdings sind die Sprünge im Vergleich zu AMD ja trotzdem eher schmächtig und man hängt hinterher.

IrisPro kann ich nicht viel abgewinnen, es hat schon seinen Grund warum Intel bei seinen Hades Canyons keine eigene Grafik verbaut hat.
Da find ich es echt schade, dass sie Project Larrabee so eingestampft haben.

AVX512 ist interessant, ging ja auch mitunter aus Larrabee hervor, aber jetzt praktisch noch nicht so relevant.

Ja, die Core i Architektur ist extrem ausgereift, das kritisiere ich ja. Seit der 6000er Serie hat sich defacto absolut nichts mehr getan außer ein paar MHz.
Wenn meine Architektur festgefressen und "totoptimiert" ist, suche ich doch nach einem neuen Ansatz, genau wie AMD das gemacht hat. Intel ist ja groß genug, um parallel Feinschliff an der Core-Architektur zu machen und sich nach etwas neuem umzusehen. Das hat man aber offensichtlich nicht gemacht.
Hier ging aber vermutlich viel Manpower drauf, um sich im Tablet/Handy Markt zu etablieren.

Da finde ich die Fortschritte mit Thunderbolt, Netzwerkkarten, Optane,... deutlich erwähnenswerter.
Komisch, ich krame mal alte Dinge aus,

Es gab zu Skylake Release einen Test der PCGH Print, da wurden die 4 Kerner mit HT verglichen, seit Sandy Bridge. Bei gleichem Takt natürlich. Da lagen zwischen Sandy Bridge und Skylake immerhin 27% be gleichem Takt in Spielen. Das ist immerhin mehr, als heute zwischen 4 und 8 Kernen, jeweils mit HT und mit gleich schnellem Ram usw.
Ich schrieb: in den letzten 5 Jahren hat sich im Prinzip nichts getan.
Guck einmal, wann Skylake erschienen ist ;)
Zudem das ein Vergleich 32nm vs 14nm ist. Quasi 0 Fortschritt wäre da doch traurig.
 
Ich lese den Artikel und dann die ersten drei Seiten hier und frage mich was los ist ... also nochmal den Artikel lesen ... alles klar!

Das Potential an Verbesserungen durch den kleineren Fertigungsprozess wurde von den Grünen nicht erkannt bzw. &#8222;falsch&#8220; eingeschätzt. Nun hat man mit der neuen Mittelklasse von AMD gesehen - die Analyse wurde bestimmt bei den Grünen intern gemacht - was möglich ist, kann selbst aber nicht bei TSMC bestellen, weil alles belegt ist ... klar, PS5 und Xbox X SoC laufen gerade bei TSMC vom Band ...
 
@Prozessorarchitektur

Wie schnell wird dann Navi 21 / Salvage Part
und 16 / 12 GB GDDR6 oder das Top Modell gar HBM² Speicher
 
Ja, die Core i Architektur ist extrem ausgereift, das kritisiere ich ja. Seit der 6000er Serie hat sich defacto absolut nichts mehr getan außer ein paar MHz.
Wenn meine Architektur festgefressen und "totoptimiert" ist, suche ich doch nach einem neuen Ansatz, genau wie AMD das gemacht hat. Intel ist ja groß genug, um parallel Feinschliff an der Core-Architektur zu machen und sich nach etwas neuem umzusehen. Das hat man aber offensichtlich nicht gemacht.

Das Problem ist, dass keiner eine sinnvolle Idee hat, was denn dieses "neue" eigentlich sein könnte, du vermutlich auch nicht.

- Man könnte den alten Rambus Ansatz verfolgen. Irre schneller RAM (PC 800 Speicher hat die selbst Realfrequenz, wie DDR4 3200 oder DDR5 6400 und das über 20 Jahre später!), der die CPU beschleunigt oder eine Verkleinerung erlaubt. Das hat Intel schon bei P4 kein Glück gebracht und den P4 beinahe versenkt. Die RAM Module wären klein, irre teuer und schwer zu kühlen. Ich habe wenig Lust, für 8GB RAM 500€ auf den Tisch zu legen, da können sie ihre 20% Leistungssteigerung gerne behalten.
- Abgespeckte in Order CPUs, die auf Softwareoptimierung setzen, ähnlich dem Cell in der PS3 (da war auch noch der Rambus Ansatz von oben vertreten), sind ein interessanter Ansatz. Allerdings scheitert es ja schon teilweise daran, die AMD CPUs, durch Windows, richtig zu beladen und das ist noch stink einfach. In den letzten 25 Jahren wurden die CPUs darauf optimiert, auch mit unoptimierter Software optimale Ergebnisse zu erzielen. Ein solcher, einfacher, Ansatz hätte keine Chance, mit moderner Software zu bestehen. Quake 1 hat gezeigt, was möglich ist, danach gab es aber keine so optimierten Spiele mehr (nachdem sich "Out of Order" durchgesetzt hat, war das auch nicht nötig).
- Sehr, sehr viele kleine Kerne, die eine einfache Aufgabe bearbeiten, können in Spezialfällen einen großen Vorteil haben. In allen anderen haben sie keine Chance.
- Ein Chipletdesign, wie bei Zen oder auch dem Core2Duo, hat für Intel wenig Vorteile. Sie sind so groß, dass sie mehrere CPU Varianten problemlos nebeneinander herstellen können.
- Der Ansatz des Bulldozers, nicht benötigte Recheneinheiten zusammenzulegen, ist interessant. Allerdings ist AMD damit massiv auf die Fresse geflogen. Außerdem sorgt der AMD Vergleich dafür, dass solche CPUs nicht mit der hohen Kernzahl beworben werden dürfen.
- Ein komplett neuer Befehlssatz läßt sich auch schlecht durchsetzen, Intel ist mit dem Itanium gescheitert. Momentan wäre das ein Selbstmordunternehmen.

Von daher ist alles, was mir so bekannt ist, ausgeschöpft. Es gibt einfach keine Idee, was man denn tolles machen könnte. Wenn da irgendetwas möglich wäre, dann hätte es Intel wohl schon längst gemacht, Geld war und ist ja genug da.

Mit Alderlake gibt es nun einen einigermaßen neuen Ansatz, auch wenn der die Gamer und PC Selbstbauer eher kalt läßt. Dafür hat man nun eine sinnvolle Verwendung für das Atom Design gefunden.

Ach ja, mit dem Quark haben sie ja versucht das alte, einfache, In Order Design, (Ansatz No. 2) wiederzubeleben. War eher mäßig erfolgreich. Eventuell könnte man das in einem Alderlake Nachfolger verwenden, also drei CPU Stufen (Quark, Atom und Core i).

Wenn du noch eine gute Idee hast, dann nur raus damit. Mir fällt jedenfalls nichts mehr ein, zumindest nicht so spät.

Hier ging aber vermutlich viel Manpower drauf, um sich im Tablet/Handy Markt zu etablieren.

Eher weniger, man hat da ja die Atoms verwendet, die man schon hatte. Dafür wurde ordentlich Geld verbrannt, wenn mich nicht alles täuscht, dann waren es mehrere Mrd Dollar. Wer da zum richtigen Zeitpunkt zugeschlagen hat, der konnte ein Schnäppchen machen.
 
Zuletzt bearbeitet:
Ich hoffe das die AMD Karten einen ernsthaften Leistungsvorteil haben werden. Auch wenn ich da nur sehr vorsichtig hoffe.

Ich glaube vor allem, das einfach nur gleichziehen, selbst mit Ampere, nicht reicht. Bei gleichem Preis (Sowie unabhängig vom Preis an der Leistungsspitze) brauchen sie 20%, besser 30% mehr Performance um ernsthaft Marktanteile zu bekommen. Und daran glaube dann doch nicht wirklich jemand, auf positive Überraschungen kann man natürlich hoffen.
Man sollte nicht vergessen was sich Nvidia mit ihrem Software-business sowie alles in allem besser funktionierender Treiber aufgebaut haben. Da werden die Leute nicht einfach abhauen, nur weil es woanders 5% mehr Leistung gibt.
 
Zurück