G
gaussmath
Guest
@Locuza: Können die Core Counts mit Zen 3 nicht auch steigen? 8-Channel Memory gibt's ja jetzt bereits mit Epyc. So gesehen wird Intel gerade mal aufholen, was I/O betrifft.
Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.
Ich habe sogar mehr als ZWEI Karten und AMD hat eine die so schnell wie eine 2080 rastert, daher. Sie haben kein Enthusiast, aber Highend schon.
Wollte mir keiner glauben. Nicht umsonst hat Huang schon früh gegen die R7 gewettert. Der wusste was kommt.
Turing braucht tatsächlich kein N7+, Ampere und Hopper schon. Wer glaubt denn das man 12nm FFN einfach auf N7+ updatet? Das ist doch Quark. 12nm FFN ist vorallem für die Stromersparnis beim Fertigungsprozeß gut, weil er weniger Belichtungsgänge braucht. Das geht aber mit N7+ nicht. Es braucht ein Redesign, dass wird Nv kosten und die Yield dürfte anfänglich gar nicht gut aussehen.
Offizielle Aussagen von AMD bezeichnest du als Gerücht?
Wer sagt eigl. das NVIDIA dieses Jahr Gaming Grafikkarten vorstellt? Vllt. ist Ampere nur für Workstation und Server und Hopper das Gaming Äquivalent?
Ich meine die Gaming Form von VOLTA hieß auch nicht Volta, die hieß Turing und Turing erschien über ein Jahr später, als Volta
Würde mich nicht wundern ,wenn wir erst 2021 Grafikkarten von NVIDIA sehen werden.
Ja okay dann wetten wird das egal was amd bringt nvidia um mindestens 50 % absetzt und dazu ist eventuell nicht mal eine 3080ti nötig. Bei rnda 3 okay das könnte was werden das hier ist ein konsolenchip mit raytracing
Eher ist doch die 290X ist von der Titan und besonders von der 1 Monat nach der 290X erschienen 780Ti weggeholzt worden. (um es mal mit deinen Worten zu sagen).Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.
Das war eine offizielle Aussage des Herstellers.Du meinst jetz ein Werbeversprechen von vielen, wie die 50% mehr Effizienz?
Nein, so einen Mist haben die nicht gesagt, das war nur ein Gerücht.Hat Nvidia nicht sogar 50% mehr Leistung, bei halben Verbrauch gesagt.
Nur zu dumm, dass die 290X (ca. 500€) die Ur-Titan (ca. 1000€) ohne große Mühe weggeholzt hat.
Mittlerweile ist die 390X wahrscheinlich schon schneller als die GTX980.
Naja klingt für mich wenig plausibel, dass Nvidia die Konkurrenz so stark unterschätzt.
Laut AMDs Roadmap sind für Milan ebenso "nur" 64-Kerne geplant:@Locuza: Können die Core Counts mit Zen 3 nicht auch steigen? 8-Channel Memory gibt's ja jetzt bereits mit Epyc. So gesehen wird Intel gerade mal aufholen, was I/O betrifft.
Das sagt sehr viel über dich aus
Das Selbe haben die Intel-Fanboys auch noch vor kurzem behauptet^^
Und weiter?
Warum sollte es nur bei +50% Leistung bleiben?
Zumindest bei Intel liegst du total falsch...
Kein Wunder das Deutschland bei PISA so schei** abschneidet bei so einem Leseverständnis.Und trotzdem haben sie einem Kunkurrenten mit mehr Kernen und Fertigungsvorteil Paroli geboten.
Cinebench Single und Multi, wo ist da das Problem? Zusätzlich eh 2 andere Benchmarks. Aber das war auch nur das erste Google-Ergebnis AMD vs Intel IPC. Du bist mit der falschen Behauptung dahergekommen das Intel auf Augenhöhe ist. Hier, noch ein anderer Test mit 7 verschiedenen Benchmarks wo Intel überall den kürzeren zieht:Zwei Mal Cinebench, der AMD seit Zen sowieso besser liegt und zwei Benchmarks, die 5-6% mehr IPC zeigen. Alle Spiele verliert Zen 2. Auch PCGH hat es gemessen Zen 2 ist bestenfalls ebenbürtig. Ist aber letzten Endes relativ egal solange Preis und Leistung stimmen.
Erstmal Danke für richtige Argumente.Man muß hier unterscheiden, zwischen dem, was entwickelt wurde und dem, was man dem Pöbel vorgesetzt hat.
Warum sollte man die Schatzkammer plündern, wenn es das Gerümpel genau tut?
Die Kernzahl der großen Xeons (daran konnte man den Fortschritt ablesen, ist von Generation zu Generation permanent gestiegen. Die Zahl der Kerne, mit denen man die Normalos abgespeist hat, ist dagegen bei 4 geblieben. Hätte ich auch so gemacht, ein gutes Pferd springt so hoch, wie es muß. Was wiklich möglich war, das konnte man sehen, nachdem Ryzen und Threadripper kamen. Plötzlich ging es im HEDT Bereich von 12 auf 18 Kerne hoch, einfach mal so und auch die Normalos bekamen 6, dann 8 und jetzt 10 Kerne.
Sie haben schon einiges gebracht, Iris Pro, samtL4 Cache oder auch AVX512, wirklichen Stillstand gab es bei Intel nie.
Die Core i Architektur ist extrem ausgreift, was man denn besser machen könnte, das weiß auch keiner. Quasi alle anderen Ansätze haben zu viele Nachteile, so dass man wieder zum ursprünglichen Konzept zurückkehrt. Mit Alderlake kommt jetzt etwas neues in die x86er Welt, das ist einigermaßen innovativ, auch wenn es leistungsmäßig nichts bringt und nur den Stromverbrauch senkt
Ich schrieb: in den letzten 5 Jahren hat sich im Prinzip nichts getan.Komisch, ich krame mal alte Dinge aus,
Es gab zu Skylake Release einen Test der PCGH Print, da wurden die 4 Kerner mit HT verglichen, seit Sandy Bridge. Bei gleichem Takt natürlich. Da lagen zwischen Sandy Bridge und Skylake immerhin 27% be gleichem Takt in Spielen. Das ist immerhin mehr, als heute zwischen 4 und 8 Kernen, jeweils mit HT und mit gleich schnellem Ram usw.
Nicht wirklich, da ich nicht zu den Kunden einer dGPU zähle.Hm.....wirst wohl wieder wie ich von Good-old-amd-gpu-nicht-auf-Augenhöhe enttäuscht werden...
Zu mehr als einer Untergriffigkeit hat es nicht mehr gereicht?macht aber nix, es muss Leute wie dich geben!
Hehe. Nvidia wird sich noch wundern, was mit RDNA2 möglich sein wird. AMD hat ordentlich Gas gegeben.
Ja, die Core i Architektur ist extrem ausgereift, das kritisiere ich ja. Seit der 6000er Serie hat sich defacto absolut nichts mehr getan außer ein paar MHz.
Wenn meine Architektur festgefressen und "totoptimiert" ist, suche ich doch nach einem neuen Ansatz, genau wie AMD das gemacht hat. Intel ist ja groß genug, um parallel Feinschliff an der Core-Architektur zu machen und sich nach etwas neuem umzusehen. Das hat man aber offensichtlich nicht gemacht.
Hier ging aber vermutlich viel Manpower drauf, um sich im Tablet/Handy Markt zu etablieren.