• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

oldmichl

Komplett-PC-Aufrüster(in)
Der Verbrauch ist für mich fast nicht relevant...50% mehr Leistung hingegen schon. Wären dann ca. 102,5% mehr wenn man von 1080 Ti auf 3080 Ti guckt...ja, sowas will ich haben, wenn der Preis halbwegs in Ordung geht.
Vom Preis her waren aber auch schon Gerüchte da - auch wenn ich gegenüber NV etwas skeptisch bin - die besagten, die neue 3080 Ti soll ein wenig UNTERHALB der 2080 Ti sein. Evtl. die magische 1K Grenze NICHT durchbrechen?
 

Moriendor

PC-Selbstbauer(in)
Die 2080 zu Release war eine 1080ti mit weniger VRAM und nutzlosen RT Cores zum gleichen Preis. :daumen:
Das war, ist und bleibt enttäuschend.

So etwas gibt man halt von sich, wenn man überhaupt keine Ahnung hat. Ich empfehle, wenn neue GPUs erscheinen, nicht nur bunte Benchmark-Bildchen zu gucken, sondern vielleicht auch mal die zugehörigen Artikel (Texte) zu lesen ;) .

Zum Einstieg:

GeForce RTX 2080 Ti, 2080 & 2070: Technik im Detail - ComputerBase

tl;dr: Nvidias neue Grafikkarten der GeForce-RTX-Serie setzen auf die GPUs TU102, TU104 und TU106 mit Turing-Architektur. Deren Anpassungen und Neuerungen gegenüber Pascal sind umfangreich und gehen über das viel beworbene und viel diskutierte Echtzeit-Raytracing weit hinaus. ComputerBase gibt einen Überblick mit Einschätzung.
 

BxBender

BIOS-Overclocker(in)
Also wenn nVidia 50% mehr bei 50% weniger liefert, und AMD angeblich doppelt so schnell liefern will, wird es wohl am Ende wieder zu einem leichten Vorsprung für nVidia bleiben.
Für Intel sehe ich aber jetzt schon eind dicke rote Laterne baumeln, die sich dann irgendwo bei der aktuell verfügbaren Karten einreihen werden.
 

sandworm

Freizeitschrauber(in)
Ein in 7nm+ gefertigter 500mm2 Die würde übertragen in NVIDIA's 12nm Prozess in etwa 900mm2 entsprechen.
Wenn man jetzt miteinbezieht das der neue Prozess das Doppelte pro Fläche kostet.
Was würde NVIDIA wohl für einen solchen Chip verlangen?

1. ich tippe auf 1200-1400 € für die 3080
2. 1600-2200 € für die 3080ti
3. Eine halb so schnelle 3070 für 700-800€ ein echtes Schnäppchen.
4. Eine 3060 die 2/5 der Leistung bringt für 500€
5. Eine 3050ti die 1/5 der Leistung bringt für 300€
6. Eine 3050 die 1/8 der Leistung bringt für 220€

Eigentlich unglaublich in was für Preisregionen wir uns hier befinden.
 
Zuletzt bearbeitet:

BxBender

BIOS-Overclocker(in)
ich darf dich korrigieren die 70er schlägt normalerweise die 80ti

600€ 780ti->970 330€
650€ 980ti->1070 450€
700€ 1080ti-> 2080 700€
(für die Zeiten vor Kepler hab ich kein Plan)
Turing war enttäuschend was den Fortschritt anbelangt :(

Ja, ne. Mal so mal so.
Die 1070 war minimal schnelelr als eine 980 Ti, aber das lag auch an der immensen Leistungsteigerung von teilweise bis zu 60-70%.
Andere Generationen hatten mahcmkal kaum viel mehr Leistung, wie die aktuelle.
Bei rund 30% mehr schägt man keine 2 Stufen darüber, weil die 1080 Ti schon so viel mehr Leistugn besitzt wie die 1080.
Soll heißen, die 2080 hat etwa die Leistung der 1080 Ti, die hat aber viel mehr Speicher.
Man kann es jetzt natürlich auch wieder von dden Spielen udn den Einstellungen abhängig machen, was gerade gut auf welcher Karte udn mit wieviel RAm gut läuft.
Fakt ist aber, dass es übrlicherweise wesentlich mehr Leistung pro Euro gab.
Mal abgesehen bei so einer Refreshserie wie die 500er, was eher vergleichbar mit eben der gleichen Bezeichnungsserie von AMD gab und gibt.
Da hat NVidia eigentlich nur den Strombedarf gesenkt (meine ich, das war das Hauptproblem der 400er?) und die letzten paar Shadereinheiten freigeschaltet.
So schlägt eine 70er nicht mal eine damals normale 80er ohen Ti.
 

Blackout27

Volt-Modder(in)
Wenn Nvidia das wirklich schafft fliegt die GTX1080ti schneller raus als der PCI-E Slot schauen kann :ugly:
Allerdings kann ich mir das noch nicht wirklich vorstellen obwohl momentan alle gerüchte rund um die neuen GPU´s und Konsolen sehr sehr potent ausgelegt sind.
So eine RTX3080 bei ~130 Watt mit 16GB Ram und Leistung oberhalb einer RTX2080ti wäre schon schön. Obwohl ich dann sicher gleich zum Ti Modell greifen würde. Hoffentlich darf die neue Ti dann mehr als 150 Watt ziehen :devil:
 

mgutt

Kabelverknoter(in)
Habe ich den Artikel schon mal gelesen? Zumindest habe ich Mitte 2018 genau das selbe einem Kumpel per WhatsApp geschrieben ^^

IMG_20200103_193415.jpg
 

Prozessorarchitektur

Lötkolbengott/-göttin
50% mehr Leistung bei halben verbrauch
Lass mal rechnen
rtx3060 mein ziel bei 250-300€ alles darüber braucht schon arg starke Argumente.

aktuell TU106 Vollausbau 2304*1,5=3456
3456/64=54sm
108RT und 432 tensor
96rop
768tmu
192bit 16gt 12gb=384gb/s
bei 334mm²
beachtlich

Daran glaube ich eher nicht
Eher wird es ein 3072 96rt 384tensor 96rop 768tmu
~296mm²
beim ram bleibt es gleich
wafer etwa 9000§ 188 chips cost 48$
gpu kostet
nvidia marge 80% chip (84% yield)
dann dem aib 86$
vram 12gb etwa 96$
20$ Platine
20$ Kühler
20% aib marge die versuchen mehr
269$
$vs€ 1,11

19% mwst
285€ endkunden preis etwa 289€ für die FE
nvidia vermutlich msrp bei 359$ und deutschland bei 369€

Was kann das aufhalten
AMD rx6700xt bei gleicher Leistung ab 299€ was vermutlich machbar ist.
Der chip dürfte etwa gleich groß sein wie nvidia ga106 bei etwa 48cu und 300mm²
Bei selber marge wie nvidia würde amd die gpu bei 299$ Ansätzen
Bis dahin sind alle polaris gpu endlich vom markt.
hab den Händler vergessen nochmal etwa 10%
 

Shooot3r

Software-Overclocker(in)
Wenn das wirklich stimmen sollte (was ich nicht glaube, eher 50% schneller ODER 50% weniger Verbrauch wäre realistischer und selbst das wäre ziemlich gut) dann wäre das ein echter "NVidia-Killer". Also dann könnte NV die Karten selbst so nennen. :ugly:

Ich meine mal ehrlich, ein solcher Sprung würde ganz grob gesagt bedeuten RTX2080Ti-Leistung bei 120W Verbrauch. Das glaube ich erst wenn ichs sehe - und wenns wirklich annähernd in die Richtung geht gute Nacht AMD.
Nvidia wird nicht das Risiko eingehen und AMDs Grafiksparte sterben lassen...

Gesendet von meinem SM-N960F mit Tapatalk
 

sinchilla

BIOS-Overclocker(in)
.Niemals^^ die 1080Ti/2070S/2080(S) reichen grade eben noch so aus für 60fps, bei reduzierten Details die man auf 1440p sowiso nicht sieht weil die Auflösung zu gering ist.

Wer glaubt denn sowas? Dir ist schon klar, das die Auflösung primär mit der Bildschirmgröße skaliert? Mein aktueller 34" 21:9 UWQHD hat die gleiche Pixeldichte pro Zoll wie mein voriger 40" 16:9 4K, allerdings hat die GPU gut 3 Millionen weniger Pixel pro Bild zu berechnen, die Bildschärfe ist identisch.
 

Moriendor

PC-Selbstbauer(in)
Für Intel sehe ich aber jetzt schon eind dicke rote Laterne baumeln, die sich dann irgendwo bei der aktuell verfügbaren Karten einreihen werden.

Keine Ahnung, warum überhaupt jemand damit rechnet, dass Intel von Beginn an oben mitmischen kann oder gar will. Das ist doch alles nur Wunschdenken. Alle bisherigen Leaks deuten an, dass Intel dGPUs sich erst mal nur etwas besser als iGPUs präsentieren werden. Ich würde jetzt mal allerhöchstens damit rechnen, dass Intel mit ihrer stärksten Karte vielleicht im Segment GTX 1660 mitspielen können. Intel fehlen viele Jahre Erfahrung und vor allem auch Softwareentwicklung und Entwicklersupport. Ein Hauptgrund, warum nVidia so stark sind, ist nicht nur die exzellente Hardware, sondern eben auch der hervorragende Entwicklersupport, die Treiberentwicklung und die zahlreichen SDKs.

Bis Intel im Segment x80 oder gar x80Ti ernsthaft Paroli bieten kann, werden noch ein paar Jahre vergehen. Alles andere wäre eine zwar willkommene, aber vor allem mal handfeste Überraschung. Ich kann nur jedem empfehlen, bitte einfach die Erwartungen etwas anzupassen. Irgendwie hat sich das Wunschdenken, dass Intel vom Start weg nVidia "zerstören" wird, verselbständigt. Ich sehe das große "aber... aber... aber... Intel haben doch versprochen, dass..." Geheule schon kommen. Nein, haben sie nicht. Intel haben bisher gar nix versprochen. Realistisch betrachtet, werden sie anfangs zunächst im OEM Office PC, Entry Level und unterem Mainstream Segment eine Rolle spielen.
 

BojackHorseman

Freizeitschrauber(in)
@Shoot3r,

Incredible Alk weiß das sicher. Genau genommen wäre damit zu rechnen, dass es im Zweifel zu einem erzwungenen Technologietransfer von Patenten ähnlich wie bei Intel und AMD kommt. Intel kann man im Moment als dritten Player noch vergessen, deren Xe ist noch Jahre hinten dran, vermutlich sind sie soweit von AMD entfernt, wie AMD derzeit von Nvidia.

Außerdem ist man sich (trotz einer ansonsten in allen Belangen völlig inkompetenten Regierung) durchaus bewusst, dass der technologische Vorsprung in den Sparten x86 und Grafikprozessoren durch das quasi-Duopol unter US-amerikanischer Herrschaft entstanden ist. Obwohl da heftig dran gearbeitet wird, da durch endlose Gier die Haus- und Mietpreise rund um die San Franciso Bay seit der Immobilienblase so extrem gestiegen sind, dass sogar die großen Unternehmen gewaltige Boni zahlen müssen, damit die Intelligenzia nicht flieht.
 

Fuzetsu

Komplett-PC-Aufrüster(in)
Ich mache mir eher Sorgen, dass nV den Chip für den Konsumenten dann so kastriert, dass sie den locker über 3 Generationen ausbauen können. Die Marktsituation würde es hergeben, AMD wird wohl so ein großer Wurf nicht gelingen.
 

LastManStanding

PCGH-Community-Veteran(in)
Wer glaubt denn sowas? Dir ist schon klar, das die Auflösung primär mit der Bildschirmgröße skaliert? Mein aktueller 34" 21:9 UWQHD hat die gleiche Pixeldichte pro Zoll wie mein voriger 40" 16:9 4K, allerdings hat die GPU gut 3 Millionen weniger Pixel pro Bild zu berechnen, die Bildschärfe ist identisch.
Weniger Pixel.... am Bildschirm, jap--die also dann keine information ans Auge weitergeben, weil sie ja nicht da sind und die GPU sie auch nicht mit informationen füllen kann. Und wo genau Plaziert die GPU die Pixel damit auch wirklich hoch Auflösende feine Details nicht eventuell verschwinden? Aso... nirgendwo genau!

Du, mein 40" FHD TV und mein UHD Beamer haben eventuell eine Ähnliche Pixeldichte--Mit selben Material gefüttert, kommt aber nicht auch das "Selbe" Bild hinten raus. Es fehlen informationen vom Bild. Und das ist bei (U)WQHD zu UHD das gleiche nur abgemildert.
 

Bauschaum7

Gesperrt
Qualitätskommentar!

Wie sieht es denn tatsächlich aus? Ich lasse der Einfachheit halber die Super-Varianten weg.

1650 - Untere Einstiegsklasse
1660/1660Ti - Einstiegsklasse
2060 - Ober Unterklasse
2070 - Untere Mittelklasse
2080 - Obere Mittelklasse
2080Ti - Oberklasse
Titan - High End

Wahrscheinlich hast Du ein paar Schulstunden geschwänzt, aber es ist durchaus üblich innerhalb von Klassen diese zu unterscheiden. Eine 2080Ti ist für Dich sicherlich auch High End, aber du liegst eben falsch. Das gilt allein für die Titan. Ebenso ist eine 2060 keine Mittelklasse-Karte, sondern als 2060 Super nur der höchste Ausbau der Einstiegsklasse. Es macht übrigens keinen Sinn, innerhalb einer neuen Generation Vorgänger wie Pascal mit hineinzuziehen.

So, noch eine sinnvolle Antwort Deinerseits zur Erklärung?

also ich finde schon das die 2080ti Benz ist , wie Sabrina Setlur sagen würde. Und die Titan ist dann SLS

Unterschicht , ich hab Bauchschmerzen .... kann nich mehr xD , ich will meeehrrrr
 
Zuletzt bearbeitet:

Realchicken

PC-Selbstbauer(in)
weiss nicht aber fand die 20er gen ist schon sehr stabil geblieben vom preis. vereinzelt mal paar angebote aber sonst?

werd auf jeden fall zu einer 3080ti greifen wenn sie kommt, aktuell läuft meine 1080 für mich am limit, gerade mit einem WQHD 144 ( 165 hz)

aber denke auch das wir keine preise unter 1400€ für ne 3080ti bekommen

hätte btw echt gerne zu cyberpunk ne neue, wird wohl nix
 

Mephisto_xD

BIOS-Overclocker(in)
Na, so eine Karte wird dann bestimmt prima in mein geplantes VR-Setup passen - sollte die Index irgendwann mal wieder verfügbar sein.

Hoffen wir mal, dass nVidia die High-End Preise nicht noch weiter nach oben dreht.
 

Bauschaum7

Gesperrt
weiss nicht aber fand die 20er gen ist schon sehr stabil geblieben vom preis. vereinzelt mal paar angebote aber sonst?

werd auf jeden fall zu einer 3080ti greifen wenn sie kommt, aktuell läuft meine 1080 für mich am limit, gerade mit einem WQHD 144 ( 165 hz)

aber denke auch das wir keine preise unter 1400€ für ne 3080ti bekommen

hätte btw echt gerne zu cyberpunk ne neue, wird wohl nix

^Kannst dir ja ein ti dranmalen ;)

Wer billig kauft kauft zweimal haahahahahahah ( war Ironie )
 

Cleriker

PCGH-Community-Veteran(in)
Normalerweise ists so, dass die neue x080er Karte die alte (x-1)080Ti knapp schlagen kann. Da eine 2080Ti rund 30% schneller ist als eine 2080 non-Ti würde ich eine 3080 ~40% schneller als eine 2080 und ~10% schneller als eine 2080Ti sehen. Und das bei 180-200W statt ~250.

Das wären so die üblichen Werte wenn alles glatt läuft, um die 40% Performanceplus bei 75% des Verbrauches. Wenn NVidia das dieses Mal wirklich auf +50% Performance bei 50% des Verbrauches hinbekommen kann wäre das ein ganz großer Wurf.
Ich hoffe dass es so kommt. Denn wenn sie so hoch hinaus wollen, dann sehr wahrscheinlich weil sie denken es gibt einen Grund dafür und das könnte bedeuten dass big Navi tatsächlich so schnell wird wie die Gerüchte munkeln.
Noch halte ich das aber alles für heiße Luft.

Gesendet von meinem HTC U12+ mit Tapatalk
 

Bauschaum7

Gesperrt
Hast du son Vollbärtigen mit Gesichtsmaske gesehn ?

wegen den paar Prozent reiß ich mir garantiert nicht 1500€ aus dem Schuh ^^

3080ti 1000€ , fertich . Wenn es mehr wird kauf ich mir die High-End AMD-Karte und noch für 500€ ne fette Lederjacke dazu ;)
 

badiceman66

PC-Selbstbauer(in)
mal rein angenommen die neuen nvidia karten legen noch mal ne schippe drauf beim preis und kommen um den dreh so rum herbst/winter 2020(bis sich die preise eigependelt haben usw) dann kommen ja auch schon grad die ps5 un die neue xbox um die ecke un kosten um den dreh rum 500-550€ -> heisser kaufanreiz für pc spieler die keine aberwitzigen preise mehr zahlen wollen für gpu's

nvidia könnte einer der größten kaufargumente für ps5 und new xbox werden , für amd isses win- win kaufste konsole gewinnen se kaufst ihre gpu gewinnen se


mfg
 

Bauschaum7

Gesperrt
ja , für mich und FullHD mit high details + 4 x MSAA und 120fps wäre das schon was ......


aarrhhh, glaube aber eher da kommen aber nur stabile 60fps rum ...... das ist zu wenig !
 
Zuletzt bearbeitet:

takan

Software-Overclocker(in)
mal rein angenommen die neuen nvidia karten legen noch mal ne schippe drauf beim preis und kommen um den dreh so rum herbst/winter 2020(bis sich die preise eigependelt haben usw) dann kommen ja auch schon grad die ps5 un die neue xbox um die ecke un kosten um den dreh rum 500-550€ -> heisser kaufanreiz für pc spieler die keine aberwitzigen preise mehr zahlen wollen für gpu's

nvidia könnte einer der größten kaufargumente für ps5 und new xbox werden , für amd isses win- win kaufste konsole gewinnen se kaufst ihre gpu gewinnen se


mfg

du kannst dir sicher sein, das nvidia wieder die rtx preise nimmt.
 

warawarawiiu

Volt-Modder(in)
Wäre endlich mal wieder die richtige Richtung, die 2xxx Serie war dreck.

Ich werde aber so oder so wieder genau 5 Jahre warten und dann komplett auf ein neues System gehen - wenn der Leistungszuwacks in 5 Jahren sich lohnt.

Bis dahin wird meine 2080ti ausreichen müssen - AAA Games zocke ich dann eh nur auf ps5
 
G

gastello

Guest
Ohje - hier mal der offizielle Ausgangsartikel. Soll = ist eine reine Annahme.

50 Prozent weniger von was? Das steht da überhaupt nicht. Es geht um prognostizierte Wachstumsraten für Partner. Da erzählt man seinen Geldgeber alles mögliche.

Nvidia GPU to benefit local firms - Taipei Times

Wenn es blöd kommt - brauchen die Karten mehr bei 50 Prozent mehr RTRT.
 

RX480

Volt-Modder(in)
Im ungünstigsten Fall wurde die 3060 mit der 2060 verglichen: min Fps in RT = ?
(da kann man leicht 50% gewinnen und verlieren)
 

Anhänge

  • RT_minFps.PNG
    RT_minFps.PNG
    311,8 KB · Aufrufe: 69

BigBoymann

Software-Overclocker(in)
Wie viele User schon geschrieben haben ist die News leider wieder Käse und nicht denkbar.

50% weniger Verbrauch ist schon Nähe des maximal denkbaren bei Umsetzung auf 7nm+, in der Realität bedeutet dies aber eigentlich auch schon fast zweistelligen Wachstum im IPC Bereich.

Wenn man nämlich nach dem Artikel geht, würde eine neue Titan dann 300% ihres Vorgänger haben, gleicher Verbrauch.
(100% aktuelle Titan + 50% Leistung = 150% Leistung bei 50% Verbrauch, ergo 300% Leistung bei 100% Verbrauch
 

RX480

Volt-Modder(in)
Wenn z.Bsp. nur A das Mesh-Shading beherrschen "darf", könnte es schon nen deutlichen Unterschied geben.
 
Ich meine mal ehrlich, ein solcher Sprung würde ganz grob gesagt bedeuten RTX2080Ti-Leistung bei 120W Verbrauch. Das glaube ich erst wenn ichs sehe - und wenns wirklich annähernd in die Richtung geht gute Nacht AMD.

Warum eigentlich nicht? Nvidia kommt von einem quasi alten 16nm TSMC Prozess, der in 12nm umbenannt wurde, auf einen 7nm + Prozess mit EUV.
Nicht vergessen, dass Nvidia noch leicht effizienter als Navi ist, obwohl Navi in 7nm produziert wird.

Der Sprung ist rein von der Fertigung noch größer als der von Maxwell zu Pascal, deshalb würde ich das nicht unbedingt ausschließen, man will ja nicht wie AMD die Effizienz nur aus dem Fertigungsprozess mitnehmen.
Navi UV ist ja nicht relevant effizienter als eine Radeon VII UV. Die 5500XT verbraucht leicht mehr als eine GTX 1060 bei etwa 10% mehr Leistung.
AMD ist mit Polaris ehrlichgesagt näher an Nvidia Maxwell herangekommen, mal sehen was RDNA2 noch so rausreißt, ich fürchte relativ wenig.
Die meisten User dürften kein Problem mit der Leistung der heutigen Turing-Karten haben, sondern mit dem exorbitanten Preis der RTX-Generation.

Ein Preis ab 450 Euro für obere Unterklasse (3060) und 650 Euro für untere Mittelklasse (3070) scheinen auch hier realistisch, falls AMD mit Big Navi nicht überzeugen kann.

Wenn AMD mit mehr Materialeinsatz und größerem Die aber nicht mehr Leistung herauskitzeln kann, dann sind die Preise nunmal völlig gerechtfertigt.
Die 2080 Ti gammelt jetzt fast 1,5 Jahre an der Spitze umher und ist nicht einen Cent im Preis gefallen, die nächste wird garantiert teurer werden, weil AMD eh keine Chance haben wird, was die maximale Performance angeht.
 
Zuletzt bearbeitet:

DKK007

PCGH-Community-Veteran(in)
Nur wird es da dann kaum Absatz geben bei den Preisen.

Da ist wahrscheinlicher, dass sich AMD und Nvidia den Markt aufteilen. AMD unter 500€ und Nvidia ab 500€ bis 1500€.
 

RX480

Volt-Modder(in)
Wenn AMD mit mehr Materialeinsatz und größerem Die aber nicht mehr Leistung herauskitzeln kann, dann sind die Preise nunmal völlig gerechtfertigt.
Die 2080 Ti gammelt jetzt fast 1,5 Jahre an der Spitze umher ...

und die 2080 Ti ist nach Deiner Milchmädchenrechnung (Die-Größe) dann wohl 3x so schnell wie die RX5700 XT ?
 

Anhänge

  • Aorus@Bf5.PNG
    Aorus@Bf5.PNG
    121,7 KB · Aufrufe: 67
Zuletzt bearbeitet:

Mephisto_xD

BIOS-Overclocker(in)
und die 2080 Ti ist nach Deiner Milchmädchenrechnung (Die-Größe) dann wohl 3x so schnell wie die RX5700 XT ?

Die von euch angestellten Rechnungen sind auf beiden Seiten Käse und wären auch im Besten Fall nur als grobes Schätzeisen zu gebrauchen.

Ich sage wäre, weil die 5700XT und die 2080 Ti nicht nur vom Aufbau völlig unterschieldich sind (nVidia integriert im Gegensatz zu AMD z.B. Platzfresser wie die RT-Kerne), sondern sogar in verschiedenen Strukturgrößen gefertigt werden (5700 XT in 7 nm und 2080 Ti in 12 nm), womit sich jeder Vergleich erübrigt.
 

RX480

Volt-Modder(in)
Spielverderber!

Poly hat ja gesagt, das AMD net ordentlich mit der Die-Fläche wirtschaftet, was so net stimmt.
(glaube auch net an Draufzahlen)
Das 12 vs 7 vs 7+ vollkommen unterschiedlich sein werden,
ist klar.
 

Lamaan

Freizeitschrauber(in)
Warum eigentlich nicht? Nvidia kommt von einem quasi alten 16nm TSMC Prozess, der in 12nm umbenannt wurde, auf einen 7nm + Prozess mit EUV.
Nicht vergessen, dass Nvidia noch leicht effizienter als Navi ist, obwohl Navi in 7nm produziert wird.

Der Sprung ist rein von der Fertigung noch größer als der von Maxwell zu Pascal, deshalb würde ich das nicht unbedingt ausschließen, man will ja nicht wie AMD die Effizienz nur aus dem Fertigungsprozess mitnehmen.
Navi UV ist ja nicht relevant effizienter als eine Radeon VII UV. Die 5500XT verbraucht leicht mehr als eine GTX 1060 bei etwa 10% mehr Leistung.
AMD ist mit Polaris ehrlichgesagt näher an Nvidia Maxwell herangekommen, mal sehen was RDNA2 noch so rausreißt, ich fürchte relativ wenig.


Wenn AMD mit mehr Materialeinsatz und größerem Die aber nicht mehr Leistung herauskitzeln kann, dann sind die Preise nunmal völlig gerechtfertigt.
Die 2080 Ti gammelt jetzt fast 1,5 Jahre an der Spitze umher und ist nicht einen Cent im Preis gefallen, die nächste wird garantiert teurer werden, weil AMD eh keine Chance haben wird, was die maximale Performance angeht.

Was Du Dir immer an Unfug zusammendichtest. Einmal brauch die VII 400watt dann ziehst du den Vergleich zur 5500xt, welche annähernd so ineffizient sein soll und dann redest von größerem Materialinsatz bei AMD. Soll Dir das irgendjemand als besonders Intelligent anrechnen?

Ach ja, Polaris war ja auch noch die bessere architektur als RDNA. Sry, das kann man einfach nicht mehr ernst nehmen was du von Dir gibs.

Ps Mal sehen wie lange du noch bauchst, bis auch dieser, von dir verwendete Name, genauso verbrannt wie "Schaffe" is

PPs 12nm ist nicht bloß ein Name. Hör doch mal auf bewusst falsche Infiormtionen zu verbreiten
 
Zuletzt bearbeitet:
Oben Unten