Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Man sprach oder es steht im Raum, dass es vorerst nur eine GA103 gibt, das kann eine pingleiche GPU sein die teildeaktivert wurde, mit 320bit SI (hatten wir schon mal beim G80). Dies ermöglicht 10 bis 20 GiB Vram und dürfte bei der Leistungssteigerung die Ampere vermutlich mitbringt, vollkommen reichen AMD in Schach zu halten.

Die 10-20GB Version ist GA103 mit 320-Bit Speicherinterface. Abgesehen vom Datendurchsatz der Karte, wird Nvidia höchstwahrscheinlich die GPU-Frequenzen massivst nach oben schrauben.

Die Karten laufen dann zum Beispiel auf 2300 MHZ GPU-Takt (oder was-auch-immer die 7nm EUV-Technik als Maximum hergibt!!!). Um das zu ermöglichen, kommt dieses "Backdrill-Verfahren" zum Einsatz.

Das würde durchaus Sinn ergeben. Die Specs sehen mit 60SM @64 Cuda-cores = 3840 Cuda-Cores sehr stark aus!

Das könnte die 3080ti werden. Da diese GPU vermutlich deutlich mehr Tensorcores fürs Inferencing bekommt, aber sehr sparsam ausfallen kann, ist es möglich das diese zur Paralellisierung der Daten, in einer HPC Version auf dem Booster Modul 2 landet, um die richtig dicken Dinger die sich noch darauf befinden zu unterstützen (siehe Booster 1).

Hier ist die Liste von WCCFTech (20.01.2020):

  • GA100 8GPC*8TPC*2SM 6144bit
  • GA102 7GPC*6TPC*2SM 384bit
  • GA103 6GPC*5TPC*2SM 320bit
  • GA104 6GPC*4TPC*2SM 256bit
  • GA106 3GPC*5TPC*2SM 192bit
  • GA107 2GPC*5TPC*2SM 128bit
Quelle:
NVIDIA 'Ampere GPU' GeForce RTX 3080 & RTX 3070 Specs Detailed

Bei einem angeblichen 384-Bit Speicherinterface und dann 12-24GB für eine Titan-Klasse / 3080 Ti befindet man sich für AMD in unereichbaren Gebieten wie auch bei der 2080 Ti Turing Generation.

Interessant ist eher die GA100 Spekulation. Das sind die Profi-Karten mit wahrscheinlich wieder HBM2. Alles andere ist klar nach unten abgeregelt. Entweder weniger Shadereinheiten oder am Speicherinterface geknabbert.

Um die GPU anschlußseitig auf Platinen für Endnutzer zu verbauen, braucht es dann auch Backdrill, dass wäre aber für diese eine Variante notwendig, als 3080ti sozusagen, weil die Preise die Nv dafür verlangt das neue Verfahren...

Ich kann mir gut vorstellen, dass das Backdrill-Verfahren nur bei der 3080 und 3080 Ti / Titan zum Einsatz kommt. Da bieten ASUS, EVGA und all die anderen Nvidia Boardpartner dann mit entsprechendem Aufpreis als OC-Editionen an.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Der chiptakt hat nichts mit dem pcb zutun, der takt hängt vom chipgüte ab und die dichte des chips sowie Wärmeentwicklung auf dem die insgesamt.
Daher wird es keine chips mit mehr als 2ghz takt geben
Das backdrill verfahren dient für den Datentransfer des vram und pcie bus
Entweder mehr pcb layer oder eben bessere Signalqualität.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Der chiptakt hat nichts mit dem pcb zutun, der takt hängt vom chipgüte ab und die dichte des chips sowie Wärmeentwicklung auf dem die insgesamt.

Ok, aber hieß es nicht 7nm EUV bringt die Taktraten hoch? Damit ist sicher nicht der GDDR6 gemeint, da der aktuell bei 16GBit hängt. Die die Backdrill Bohrung sollten doch alle Signale über das PCB schneller und sauberer übertragen werden.

Beinflusst das nicht auch die GPU core-clocks?

Daher wird es keine chips mit mehr als 2ghz takt geben
Das backdrill verfahren dient für den Datentransfer des vram und pcie bus
Entweder mehr pcb layer oder eben bessere Signalqualität.

Ich glaube, das sollten wir uns beim Release noch einmal genau ansehen. Da steckt sicher mehr unter der Haube als unsere spärlichen Gerüchte momentan preisgeben.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür


Na die 16 bis 20 GiB VRAM sind aber auch arg optimistisch in dieser Quelle und eher Wunschdenken. Wenn sich die Bus-Breiten für die RTX 3070 und 3080 mit 256 und 320 Bit bestätigen, sind hier 8 und 10 GiB weitaus wahrscheinlicher. In großen Stückzahlen im EK kostet 1 GiB-BGA-GDDR6 grob um die 10 - 15 US$. Für die 3080 würde das bedeuten, dass sich die Karte mit 20 GiB ggü. 10 GiB alleine um +100 bis +150 US$ in der Fertigung verteuern würde. *)

Abseits dessen ist es ja schön, dass "alle" immer möglichst großen VRAM haben wollen, nur hat das wenig mit der realen Verbreitung im Markt zu tun und dementsprechend gering ist auch der Druck für die Hersteller hier "ranzuklotzen".

*) Unter der Annahme, dass die 2 GiB-BGAs ggü. den aktuell typischerweise verbauten 1 GiB-BGAs auch "nur" doppelt so teuer sind. Das Fertigungsvolumen bei hochkapazitiven BGAs dürfte jedoch deutlich geringer sein, sodass auch nicht abwegig ist, dass diese Chips mit höherer Kapazität gar noch mehr kosten, vielleicht Faktor 2,1x - 2,5x ?
 
Zuletzt bearbeitet:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Abseits dessen ist es ja schön, dass "alle" immer möglichst großen VRAM haben wollen, nur hat das wenig mit der realen Verbreitung im Markt zu tun und dementsprechend gering ist hier auch der Druck für die Hersteller hier "ranzuklotzen".

Ich denke 320bit wird es geben, hört sich für die 10GiB schon fast logisch an. 8 sind mit RTRT irgendwie zu knapp, vor allem wenn man höhere Auflösungen anstrebt. 1440p braucht glaube ich 1,5GiB (habs irgendwo mal gesehen). Ist ja gut möglich 103 ist die 3080, dann käme eine Ti später noch dazu, 102 irgendwas. Nv wird sich die Mehr-Leistung auf jeden Fall bezahlen lassen, wenn man vorne bleibt.

Zeigt auch nur was möglich ist, nicht was man bringen kann.

Das mit den 384bit könnte sogar passen, aber ob AMD das nicht kontert. Wer weiss, die wollen auf 4k gehen. Vermutlich kommen die auch mit 384bit.

Grafisch optimiert haben die auch mit HBM kein Problem, eine R7 ist in bestimmten Benchmark (Graphicscore 3d) sogar vor einer OC Titan bei 2,1 Ghz. Weil alles was über 2.0 GHz bei Nv unter Turing zur Luftpumpe wird, kommt kaum noch was nur Abwärme ohne Ende, 2-3fps mehr. Die Punkte für die Gesamtscore machen die mit ihren CPUs (18c und aufwärts).

Könnte sicher mit der Integrität zu tun haben.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Na die 16 bis 20 GiB VRAM sind aber auch arg optimistisch in dieser Quelle und eher Wunschdenken. Wenn sich die Bus-Breiten für die RTX 3070 und 3080 mit 256 und 320 Bit bestätigen, sind hier 8 und 10 GiB weitaus wahrscheinlicher.

Auf der anderen Seite werden 8-10GB VRAM bei neuen Spielen knapp werden. Niemand kauft sich neue High-End Grafikkarten um sie dann am VRAM zu verhungern lassen.

Vorstellbar wäre auch eine Aufteilung bei bei den Unterklassekarten. Eine Version mit 10GB und eine Premiumversion mit 20GB mit entsprechendem Aufpreis.

In großen Stückzahlen im EK kostet 1 GiB-BGA-GDDR6 grob um die 10 - 15 US$. Für die 3080 würde das bedeuten, dass sich die Karte mit 20 GiB ggü. 10 GiB alleine um +100 bis +150 US$ in der Fertigung verteuern würde.

Also, ist doch ein guter Kompromiss für die VRAM-Fraktion. Die 150€ mehr oder weniger stören die Ultra-Enthusiasten doch nicht. Wer mehr VRAM will, muss auch mehr dafür bezahlen.


Abseits dessen ist es ja schön, dass "alle" immer möglichst großen VRAM haben wollen, nur hat das wenig mit der realen Verbreitung im Markt zu tun und dementsprechend gering ist hier auch der Druck für die Hersteller hier "ranzuklotzen".

Es heißt selbst die neuen Konsolen rund um Playstation 5 hätten ebenfalls 16GB verbaut. Käme das wirklich so, müsste der PC mitziehen.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Naja das sind aber nur 8 bis 10, weil gemeinsam genutzt. Es gibt aber auch Content auf den nur die CPU und nur die GPU zugreift. Wie beim PC auch. Die erfinden den Windowskernel nicht neu.

Backdrill kommt ab 3 GBit/s zum Einsatz.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Dann würde 20 und 16 passen. Nv liefert das eh im Paket aus.:)
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Interessanterweise werden meine PCs eigentlich nur immer teurer, ohne das ich was am "Level" der verbauten Hardware erhöht hätte.
Und da ist größtenteils die verbaute Graphikkarte schuld, die scheinbar jedes Jahr nochmal teurer wird.

Erzähl das mal den Leuten die meinen: Ist doch klar, dass eine GTX 1060 gleich viel kostet wie eine GTX 970... die haben doch die selbe Leistung.
Wenn Dumheit wehtun würde müssten die permanent schreien.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Zeigt auch nur was möglich ist, nicht was man bringen kann.

Wenn du das letzte "kann" gegen ein "wird" austauschst, wird ein Schuh draus. ;-)
Wie gesagt, pauschal 20 GiB im Massenmarkt anzubieten, schafft ein zu teueres Produkt, denn der Preis für die Bausteine ist nicht vernachlässigbar.
Mit 320 Bit wäre aber natürlich ein 20 GiB-Modell möglich, jedoch ist auch hier der Einsatzzweck dünn gesäht, da sich lediglich die Kapazität, nicht jedoch die Bandbreite erhöht. Im semiprofessionellen Bereich ist das ggf. noch ein vertretbares Argument, jedoch weniger im Consumer-Markt, sodass ich auch nicht davon ausgehen würde, dass es eine 20 GiB-Version für Enthusiasts geben wird, insbesondere, da man davon ausgehen kann, dass eine RTX 3080 Ti dann min. 352 wenn nicht gar 384 Bit haben wird, d. h. das wird das Modell sein, zu dem nVidia derartige Interessenten dirigieren kann, wenn sie mehr VRAM haben wollen, also 11 oder 12 GiB.
Im semiprofessionellen Bereich (ab der Titan) wird man dann wieder 2 GiB-BGAs verbauen und kann somit auch größeren Ansprüchen gerecht werden, hier u. U. auch mit 16 Gbps kombiniert, denn bspw. bei der RTX 3080 mit 320 Bit (wenn es denn so kommen sollte) würde ich aus Kostengründen davon ausgehen, dass nVidia weiterhin "nur" 14 Gbps-Chips verbauen wird, schlicht weil die Interface-Verbreiterung bereits +25 % mehr Bandbreite bringt.

HBM würde ich bei AMD nicht vor RDNA2 erwarten (wenn überhaupt) aber mit hoher Wahrscheinlichkeit nicht in Verbindung mit (Big)Navi, denn das würde größere Designanpassungen erforderlich machen und alles was jetzt noch von Navi kommt, wird eher "Lückenfüller-Charakter" haben, bis AMD endlich RDNA2 in den Markt bringen darf. - Aber wie immer bei so etwas ... wird man abwarten müsse. ;-)

Vorstellbar wäre auch eine Aufteilung bei bei den Unterklassekarten. Eine Version mit 10GB und eine Premiumversion mit 20GB mit entsprechendem Aufpreis.

Nicht abwegig, aber der Marktdruck war zumindest bisher noch nicht groß genug für ein derartiges Vorgehen. Und bspw. AMDs Vega 20 hatte nur so viel VRAM, weil das im Endeffekt eine MI50 war (die schlussendlich auch zu teuer für den Consumer-Markt war). Hier war AMD keinesfalls der Meinung, dass man den "armen" Gamern mal ordenlich viel VRAM bieten müsste; man konnte zwei Stacks schlicht nicht einfach vom Interposer "abkratzen" und anderweitig verwenden (und zudem wäre die Leistung des Chips auch möglicherweise verkrüppelt worden, da dieser voraussichtlich explizit auf die hohe Speicherbandbreite hin designed wurde).
Und ja, man kann 8 GiB oder gar die 11 GiB aktueller GPUs in einigen Titeln irgendwie ans Limit bringen jedoch betrifft das kaum die breite Masse der Gamer und daher auch weniger die Entwickler, die Ultra-Settings nur so nebenbei als "Abfallprodukt" und zu Werbezwecken anbieten, damit die Screenshots in den Medien beeindruckend aussehen. Einen großen Publisher wie EA interessieren zweifelsfrei mehr die 5700(XT) und 2060(Super) User als die paar wenigen 2080 Ti User, die sich in den Bilanzen weitaus weniger niederschlagen werden.

Also, ist doch ein guter Kompromiss für die VRAM-Fraktion. Die 150€ mehr oder weniger stören die Ultra-Enthusiasten doch nicht. Wer mehr VRAM will, muss auch mehr dafür bezahlen.

Wie gesagt, durchaus keine abwegige Option, die selbst ich mir unter gewissen Umständne überlegen würde, aber das hat nichts damit zu tun wie AMD oder nVidia ihr Portfolio planen. In der Regel lohnen die paar übermäßig zahlungswilligen Interessenten keine komplett eigenständige Produktion. (Das ist was anderes im SW-Geschäft, wo es einen Spieleentwickler praktisch nichts kostet, im InGame-Shop die Lederjacke in Pink mit Totenkopf drauf für 1,99 € anzubieten, denn da muss nur ein Designer kurz das Asset kopieren, umfärben und die Textur ändern, eine Arbeit von ein paar Minuten und anschließend kann man das Produkt ohne Aufwand millionenfach an ein paar "Verrückte" verticken und ordentlich abkassieren. Hier dagegen muss man Chipsätze bei nVidia ordern und vorab bezahlen, die Produktion anpassen, sowie das Marketing ausrichten, etc., was alles handfeste Kosten pro Stück mit sich bringt, sodass ein gewisses Absatzvolumen sichergestellt sein muss.)

Es heißt selbst die neuen Konsolen rund um Playstation 5 hätten ebenfalls 16GB verbaut. Käme das wirklich so, müsste der PC mitziehen.

Ja, aktuell geht man für beide von etwa 16+ GiB aus, jedoch ist das hier ein anderes Thema, da das hier den insgesamt zur Verfügung stehende Arbeitsspeicher darstellt. Für die beschränkte Speichermenge sowie das nicht erweiterungsfähige Design der Konsolen lohnt es sich nicht, zwei unterschiedliche Speicher-Interfaces zu implementieren und daher hat man sich für komplett GDDR6 entschieden.
Entsprechend steht auch nur ein Teil des Speichers für Videodaten zur Verfügung, denn in die 16 GiB muss das OS passen, Hintergrunddienste wie Chat/Voice und natürlich das laufende Spiel selbst. Ich müsste nachschauen, da ich die nicht im Gedächtnis habe, aber bei aktuellen 64 Bit-Titeln sind hier 2 - 4 GiB nicht abwegig. Die 16 GiB klingen vielleicht im ersten Monent nach viel, bei einem zweiten Blick stellen sich diese jedoch lediglich als sinnvollen Mittelweg heraus, denn am Ende geht es hier u. a. um eine möglichst optimale Balance zwischen werbewirksamer Mehrleistung und möglichst geringen Anschaffungskosten für eine maximale Verbreitung der Konsole. (Entsprechendes "Geschacher" hat man ja vielleicht gerade am Rande zur PS5 mitbekommen ;-))
 
Zuletzt bearbeitet:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Wenn du das letzte "kann" gegen ein "wird" austauschst, wird ein Schuh draus. ;-)
Wie gesagt, pauschal 20 GiB im Massenmarkt anzubieten, schafft ein zu teueres Produkt, denn der Preis für die Bausteine ist nicht vernachlässigbar.
Mit 320 Bit wäre aber natürlich ein 20 GiB-Modell möglich.
Die Frage ist ob eine 3080 bei der möglichen Leistungssteigerung überhaupt noch den Massenmarkt bedient, gerade heute der News wegen das der große Anteil eher Entrylevel Mainstream kauft. Aber natürlich gehe ich beim Kostenpunkt lieber von 10GiB aus, nicht ausschließend das mehr Möglich ist.

Wenn AMD Konkurrenzfähig ist wird Nv einen Teufel tun, die Preise weiter so zu gestalten wenn nicht, sieht es natürlich anders aus.

HBM würde ich bei AMD nicht vor RDNA2 erwarten (wenn überhaupt) aber mit hoher Wahrscheinlichkeit nicht in Verbindung mit (Big)Navi, denn das würde größere Designanpassungen erforderlich machen und alles was jetzt noch von Navi kommt, wird eher "Lückenfüller-Charakter" haben, bis AMD endlich RDNA2 in den Markt bringen darf. - Aber wie immer bei so etwas ... wird man abwarten müsse. ;-)
Wenn wir davon ausgehen, das AMD RTRT unterstützen will, und ihre Raytraycing Roundmap eben ab Hardwareunterstützung RDNA Next Gen betitelt, kann es nichts weiter sein als RDNA2. Ich würde davon ausgehen, dass sie zumindest ein Modell mit HBM im Portfolie haben werden, zumal sie 4K beschleunigen wollen. Das Interface ist deutlich breiter. Die Kosten sind dann vernachlassbar, wenn man zugleich Energiesparen will und kurze Signalwege braucht.

Nv scheint das Thema dann mit höherer Integrität und Sense mit Backdrill anzugehen. Es kommt auch zum Einsatz wenn PCBs kompakter werden oder mehr Bauteile fassen, wobei mehr Durchkontaktierungen erfolgen die enger beinander sitzen und zur Kontrolle des dynamischen Phasenversatz paralleler Leitungenpaare, dass kann schon bei den Balls beginnen. Ich vermute tatsächlich einen höhere/größere Anbindung. Das kann sogar auf den VRAM zutreffen.

Bei einer ls-Schaltung (LowSpeed) wie beispielsweise einer Niederstromversorgung, werden Spannungsabfälle über eine Senseleitung gemessen. Danach lassen sich einzelne Aderpaare innerhalb einer FlyBy-Topologie (Rambus Command Address Clock) und im Net-Scheduling anhand ihrer Strömstärke überwachen. Wenn man VRAM Mengen größer ausführt und mehr Durchkontaktieren will, bei kompakterem Design um so wichtiger. Also den RAM in größerer Menge um das Die bündelt. Dabei kann man die eigentlichen Leitungslängen lockern. Es deutet klar darauf hin, für was sie das auch immer brauchen.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Fakten sagen klar was anderes.

Hier eine einfache Aufstellung eines anderen Users, dann brauche ich nicht lange suchen:
Preisentwicklung der Grafikkarten (Fokus auf nVidia)
Man sieht vor allem bei den letzten Modellen einen extrem hohen Anstieg der Grafikkartenpreise bei NVidia.
Es wurde sogar mehrfach darüber berichtet.
Wie kann man nur so blind sein und das nicht mitbekommen (haben? wollen?)?
Zieht man grob 2% Inflationsrate pro Jahr ab, sind die Differenzen von der ersten bis zur letzten Karte natürlich etwas geringer.
Nichtsdestotrotz dürften preisanstige von Generation zu Generation nur wenige Prozentpunkte darüber liegen.
Was bei gleichbleibend linearen Preisanstiegen vielleicht nicht sofort auffällt, merkt man aber unausweichlich bei der plötzlichen kurvenhaften Verlaufskurve hintenraus.
Werte von teilweise mehr als das Doppelte belegen also klar das Gegenteil!
Daher bekomme ich bei News über komplizierte Platinendesigns bei der Amperegeneration schon übelstes Magenflattern.
Selbst wenn die Karten dann am Ende wirklich mal wieder 50-70% mehr Leistung bringen, sollte man dennoch dafür nicht auch wieder die Hälfte davon in zusätzlichen Euro bezahlen müssen.
Damals gab es das quasi fast gratis, das ist schließlich der Kaufgrund. Mehr Leistung zum gleichen Preis.
Mir bringt es nichts, wenn künstlich Einsteigerkarten zur neuen Mittelklasse erklärt werden, und einstige Mittelklassekarten der Normalkäufer per Preistikett einfach zu teuren Oberklassekarten umdeklariert werden.
Du hättest die Liste bis zum Ende lesen sollen ;D.
Magen flattern bekomme ich bei Leuten die Müll von sich geben und meinen sie zaubern die Fakten aus dem Hut. Bei solchen Statistiken müssen die Währung, Zölle und Inflation berücksichtigt werden usw..

"Damals gab es das quasi fast gratis," LMAO, Schmankerl; Grafikkarte: Asus V9999 Ultra Deluxe - CHIP.
Wenn man sich die Kursentwicklungen der Unternehmen ansieht und die Auswirkungen der Grafikbeschleuniger auf die Technik insgesamt + Marktanteil der GeForce sind die Preise eigentlich noch zu niedrig.

Verstehe auch deine Ethik Debatte nicht wo Jensen die Preise ansetzt für seine Produkte, eine Grafikkarte ist kein Grundnahrungsmittel, niemand zwingt dich zu kaufen.
Wer die Präsentationen verfolgt wird auch mitbekommen haben wie es in etwa aussehen wird preislich, wurde alle schon durchgekaut. Wem das nicht schmeckt; go home or go Big Navi.
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

"Damals gab es das quasi fast gratis," LMAO, Schmankerl;

Richtig Geld für die Top- End Produkte konnte man schon immer ausgeben:

z.B. 4850X2 - 600$ UVP zzgl. Steuer, GTX 295 - 500$ UVP zzgl. Steuer, die GTX 880Ultra 830$ UVP zzgl. Steuer, Geforce 2 Ultra 1400DM inkl. Steuer in Deutschland, Arez Strix Vega 64 830$ UVP zzgl. Steuer. + die damaligen sonstigen Dual GPU- Karten.

Früher hat man sich noch gefreut wenigstens die Wahl zu haben und das eben auch bei preislich unvernünftiger Spitzenleistung.
Heutzutage haben viele verlernt, nicht alles haben zu können und die unverhältnismäßig teure Spitzentechnik trotzdem würdigen zu können. Gibt sie doch einen Ausblick auf künftige Entwicklungen.
Abwarten, bis das ganze seinen eigenen Budgetrahmen passt, ist aus der Mode gekommen. Am Trend - mehr Leistung für immer weniger Geld hat sich nämlich rein faktisch nichts verändert. Auch nicht durch Turing.

Es werden nur einfach immer mehr Leistungsklassen nach oben aufgemacht (Titan, xx80 TI) und damit verschiebt sich ein gewisses "Klassenmittel" immer mehr zu höheren Preisen hin.
Damit kommen viele nicht mehr zurecht, weil die unteren Klassen dadurch eine vermeintliche Abwertung erhalten. Nur ändert das nichts an der Tatsache, dass man für nahezu GTX 1080 Leistung inzwischen nur mehr 300€ ausgeben muss...

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Nur ändert das nichts an der Tatsache, dass man für nahezu GTX 1080 Leistung inzwischen nur mehr 300€ ausgeben muss...

LG
Zero
Wem haben wir das zu verdanken? Beispiel:

Graphic-Cards-Price-Trend-1999-2015.png
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Klingt nach "teurer" aber ich mag den Teufel auch nicht an die Wand malen! :devil:
Bin trotzdem gespannt, wann die 2.000-Euro-Marke für einen Non-Titan geknackt wird. Sollte vermutlich nicht mehr allzu lange dauern ..
 
AW: Nvidia Ampere deutlich schneller? Änderungen am Platinendesign sprechen dafür

Wem haben wir das zu verdanken? Beispiel:

Anhang anzeigen 1080432

Dem Markt, den Käufern, optimierten Fertigungstechniken, den über die Zeit höheren Yield Raten usw. usf.... es ist ein Zusammenspiel vieler Faktoren.
Was willst Du denn mit Deiner verlinkten Grafik zum Ausdruck bringen?
Dass NVIDIA im Gegensatz zu AMD dem Konsumenten auch öfter preislich hochliegende Top- End Produkte zur Verfügung stellt?

Der Hauptabsatzmarkt bewegt sich dennoch schon etliche Jahre unabhängig der teureren Produkte im Bereich zwischen 200€ und 400€.

Bin trotzdem gespannt, wann die 2.000-Euro-Marke für einen Non-Titan geknackt wird. Sollte vermutlich nicht mehr allzu lange dauern ..
Meines erachtens kann NVIDIA gerne die Preisbereiche mit neuen Produkten ausloten, ist ja im Gegensatz zu früher die Spreizung der Leistungsanforderungen der Konsumenten eben auch extrem angewachsen. Die Preis-/Leistung muss halt dann für den geneigten Käufer stimmen...

Ich bin den Leuten nicht neidig, die über 2.000€ für eine Grafikkarte ausgeben wollen. Sondern freue mich eher, dass es überhaupt die Möglichkeit dazu gibt, solche Produkte zu kaufen. Vielfalt ist immer gut. Muss ja letztendlich jeder selbst wissen, ob es das einem Wert ist...

LG
Zero
 
Zuletzt bearbeitet:
Zurück