Nvidia Ampere: Geforce RTX 3080 mit 10 und 20 GiB? RTX 3090 für 2.000 USD?

Dass Nvidia in einer komfortablen Situation ist und dass man die Preise bei mangelnder Konkurrenz mit mehr Luft kalkulieren kann, ist absolut klar und das habe ich selbst mehrfach geschrieben.

Warum wehrst du dich dann gegen die Aussage, dass Nvidia die Preise künstlich erhöht hat, weit über das hinnaus was an zusätzlichen Kosten draufgekommen ist?


Nichts desto trotz ist es eine Frage der Größenordnung. Manche scheinen zu meinen, dass man eine absolute Top Karte heute noch zum Preis einer 8800 GTX (€600 bei Einführung) anbieten können müsste.

Reden wir von der Technik dahinter, oder der Leistung? Eine VII war für 700€ am Markt, eine 2080, die wohl definitiv nicht komplexer ist als eine 1080ti, zum etwa selben Preis.
Und was soll "heute" heißen. Ich hab im anderen Thread aufgezeigt, dass die Preise für Nvidia High End Pre Turing stabil in der Preislage <700$ MSRP lagen und auf einmal kommen 300$ drauf. Da ist kein gradueller Anstieg bemerkbar gewesen, keine Entwicklung über die Zeit. Sondern einfach Bäm - Preiserhöhung.

Ich würd wirklich gerne wissen warum eine 2080ti nicht 800-850$ MSRP haben kann.

Ich würd mir von Dir mal wünschen, dass du ausführst, WARUM das so sein soll.
Man hört immer nur "Der Die kostet soviel" ja wieviel denn? Ja keine Ahnung.
Die Entwicklungskosten steigen. Ja um wieviel denn? Keine Ahnung.
Im anderen Thread hat sich jemand erdreistet zu sagen, Ram & PCB wären ein Kostenfaktor - als ob das in vorherigen Gens nichts gekostet hätte.

Warum soll es nicht möglich sein diese Karten nur graduell im Preis zu erhöhen und durch stärkere Absatzzahlen den Gewinn einzustreichen?

Vllt deswegen: Why Are Nvidia's GeForce RTX GPUs So Expensive? | Tom's Hardware

But it could also be for a variety of other reasons. Stephen Baker, vice president of industry analysis at NPD, suggested it could be due to inventory or availability.

&#8220;I think they are likely trying to price these as very premium products,&#8221; Baker said. &#8220;Certainly if there is a significant amount of series 10 cards floating around they would want to at least draw that down somewhat.&#8221;


Baker also suggested that they can use the high pricing for a gradual release as the company better understands demand: &#8220;The market for cards has been so crazy the last couple of years, between the explosion in interest in gaming, the cryptomining bubble and the upgrade in quality and demand that they would be doing themselves a disservice to come out at lower prices,&#8221; he said. Lastly, he theorizes that high prices could be a way to protect against limited inventories after the launch.

Das sind alles valide Gründe die allesamt nix mit gestiegenen Kosten zu tun haben. Kannst du irgendwas davon ausschließen?

Die Preise im "AMD" Segment (also dort, wo AMD mit konkurriert) sollten Euch ein gutes Gefühl geben, wie viel Leistung man für sein Geld bei der aktuellen Technologie bekommen kann.
Ist nicht sinnvoll, AMD hat die Preise an Nvidia angepasst. Die schauen auch, dass sie das Maximum rausholen. Der ganze Markt ist künstlich verteuert worden.


Außerdem sollte man noch einkalkulieren, dass die Top-Karten den Preiskampf von den High-End Karten und niedriger (also ab der 2070Ti und kleiner) quersubventioniert. Denn: Die Entwicklungskosten sind ja auf alle Turing bzw. Ampere GPUs umzulegen. Wenn man im Top Range mehr Gewinn machen kann, dann kann man die preiswerteren Kategorien mit entsprechend schärferem Preis anbieten, denn sie müssen weniger Anteil an den Gesamt-Entwicklungskosten tragen.

Glaubst du nicht eher, dass das Geld im Mid Range Bereich gemacht wird? Ich glaube nicht, dass eine 999 / 1199$ GPU wie die 2080ti das Zugpferd dieser Gen ist. Klar Nvidia rückt ja nicht mit verkauften Stückzahlen raus, aber MF spricht da doch für den deutschen Markt eine klare Sprache.
 
Ja ja der böse Neid. Früher bekam man für 150 € auch gute Gamingkarten. Böse das man das heute immer noch gerne hätte. Wer zahlt nicht gerne mehr als er muss.

Also mal abseits der Tatsache dass "gut" ne recht schwammige Definition ist... Wann soll das gewesen sein? 1990? :what:

Bin ja schon ne weile dabei, aber das is ne gewagte These... Hättest du wenigsten 250€ gesagt...
 
Warum wehrst du dich dann gegen die Aussage, dass Nvidia die Preise künstlich erhöht hat, weit über das hinnaus was an zusätzlichen Kosten draufgekommen ist?

Weil es nicht so ist. Was heißt denn "künstlich"? Der Preis wird so festgelegt, dass man davon ausgehen kann, dass das Produkt aus Marge und verkauften Exemplaren ein Maximum erreicht. Das nennt man marktwirtschaftliches Handeln und daran ist nichts "künstliches".

Euer Problem ist, dass ihr davon ausgeht, dass der Produktionspreis und auch die R&D Kosten wesentlich niedriger sind, so dass die Marge (abzgl. R&D) riesengroß sein müsste. Dem ist nicht so. Wäre dem so, dann wäre es für NVidia viel wirtschaftlicher, die Produkte deutlich billiger anzubieten, denn sie würden vieeel mehr verkaufen.

Rechenbeispiel (Preise ohne Steuern, Zoll, Fracht und Handelsmarge!)

Nehmen wir an, die Produtionskosten lägen bei €100 und man müsste €1.000.000.000 R&D auf die Karten umlegen.

Wenn ich die Karte nun für €400 verkaufe, mache ich €300 Nettomarge und muss 3,3 Millionen Karten verkaufen, um meine Kosten einzuspielen, dann bin ich Gewinn. Ich werde bei dem Preis aber eher 300 Millionen Karten verkaufen, also mache ich einen Riesengewinn.

Verkaufe ich die Karte aber für €1200, wie ihr das annehmt, dann mache ich zwar €1100 Nettomarge und muss nur noch 910.000 Karten verkaufen, um den Break-Even zu schaffen. Aber bei dem Preis verkaufe ich auch insgesamt vielleicht nur 2 Millionen Karten, mache also VIEEEEL weniger Gewinn.

Das obere Beispiel passt in die Zeit von 2010. Jetzt machen wir mal eines, wie ich denke wie die Preise heute sind:

Produktionskosten von €350 (inkl. RAM!) bei einer 3090 und Entwicklungskosten von 3.000.000.000.

Wenn ich die Karte für €400 verkaufe, mache ich sofort Verlust, das muss ich gar nicht erst ausrechnen. So viel kann ich gar nicht verkaufen. Also nehmen wir mal €600 an. Dann habe ich €250 Nettomarge. Um die 3 Mrd R&D zu erwirtschaften brauche ich also einen Verkauf von 12 Millionen Karten! Und dann mache ich für jede weitere Million verkaufter Karten "nur" 250 Mio Zusatzgewinn.

Wenn ich die Karte aber für €900 verkaufe, habe ich eine Nettomarge von €550, d.h. mir reichen schon lediglich 5,5 Millionen Karten für den Break-Even und ich mache pro weiterer Million einen Gewinn von 550 Mio.

Genau diese Zahlen schaut sich ein BWLer an und versucht den optimalen Sweetspot zu finden zwischen Preis und Exemplare, die er für diesen Preis verkaufen kann. Nichts anderes zählt dabei. Natürlich auch, ob es eine Konkurrenz gibt, welchen Preis und welche Leistung sie hat, weil sich das direkt auf die Menge an Exemplaren auswirkt, die er möglicherweise verkaufen kann.

An all dem ist *nichts* evil oder verurteilenswert. Und auch keine "künstliche Verteuerung". Sondern bestenfalls ein für die Kunden unerfreulicher Effekt, wenn die Konkurrenz fehlt.

Reden wir von der Technik dahinter, oder der Leistung? Eine VII war für 700€ am Markt, eine 2080, die wohl definitiv nicht komplexer ist als eine 1080ti, zum etwa selben Preis.
Wir reden von der zum Zeitpunkt des Releases technisch möglichen Top-Karte. Das sollte doch wohl klar sein.

Was ist "Komplexität" bitte? Wie berechnest Du die? Und siehst Du dabei auch wieder nur die Produktionskosten oder auch das, was dahinter steht?
 
Zuletzt bearbeitet von einem Moderator:
Was ist ein Topmodell und was war denn früher das Ziel für Topmodelle? FHD mit max Settings bei über 60FPS, besser über 100FPS. Karten, die das schaffen sind heute nicht teurer geworden als damals.

Wenn heute das Ziel 4k mit max Settings und 60FPS+ und Raytracing ist, dann kosten die Karten auch mehr.

Achhhhhhh ja is das lange her... :schief: FHD bei 60-100 FPS Lol what? :what: Bin wohl mittlerweile zu lange dabei, aber für mich ist das quasi gestern... (Kommt natürlich aufs Spiel an klaar...)

'Lange her' ist below HD und trotz SLI nicht mal 40 FPS schaffen... Kinder, Kinder seid ihr heute alle verwöhnt...:lol:


Und nur mal zur Info für die, die meinen Grafikkarten waren alle früher sooo viel billiger... Auch ne GF 3 Ti 500 hat schon über 500€ gekostet, und diese Preispolitik hat der noch kleine Markt damals laaaaange durchgehalten...

Gaming ist eben Salonfähig geworden, der Markt größer, und die "Ansprüche" Mancher sind kaum noch zu bremsen... is doch logisch dass die Hersteller sich dem anpassen.
Es gibt ja auch immer mehr Gamer die für nen Rechner eben nicht nur 1500€ ausgeben sondern auch mal 10.000€+ und?

Ich beschwer' mich ja auch nicht dass ich mir keine Jacht, Villa oder nen' Bugatti leisten kann...:rollen:

Und da ich die Entwicklungskosten von Ampere nicht beurteilen kann, geschweige denn ob der Endpreis nun "frech" oder "angemessen" ist, bleibt es wies ist - jeder wägt selber ab, ob das Produkt
zu Preis X die Wunschvorstellung Y abdecken kann oder nicht.

Ich halte auch Golfschläger für 1500€ das Stück für fragwürdig, n' passionierter Golfspieler sieht das aber sicher anders...
 
Euer Problem ist, dass ihr davon ausgeht, dass der Produktionspreis und auch die R&D Kosten wesentlich niedriger sind, so dass die Marge (abzgl. R&D) riesengroß sein müsste. Dem ist nicht so. Wäre dem so, dann wäre es für NVidia viel wirtschaftlicher, die Produkte deutlich billiger anzubieten, denn sie würden vieeel mehr verkaufen.

Das ist eine reine Annahme...
Und da liegt das Problem. Du kannst nicht belegen, dass die Kosten derart hoch sind dass solche Preise gerechtfertigt sind, ich kanns nicht widerlegen.

Ich gehe davon aus, dass Nvidia seinen Gewinn auf Kosten der Kunden maximiert (was anhand der Quartalszahlen und dem Verhältnis von Umsatz zu Gewinn schon nicht ganz abwägig zu sein scheint), du glaubst, würden Sie günstiger verkaufen, dann würde Nvidia Verlust machen.

An all dem ist *nichts* evil oder verurteilenswert. Und auch keine "künstliche Verteuerung". Sondern bestenfalls ein für die Kunden unerfreulicher Effekt, wenn die Konkurrenz fehlt.

Was hat denn fehlende Konkurrenz mit deinen Beispielen zu tun? Konkurrenz macht die Produktion nicht günstiger und die Forschung nicht einfacher. Aber es erlaubt den Preis zu diktieren und so den Gewinn zu maximieren. Das ist die "künstliche" Komponente.
Ich 100% bei Dir was die Kostenrechnung angeht, vollkommen. Aber angesichts der massiven Gewinnspanne die Nvidia grade hat (was warens, 30% vom Umsatz?) muss man sich halt schon fragen ob auf die Rechnung welche die BWLer gemacht haben nochmal was oben draufkommt. Denn ohne Konkurrenz auch kein konkurrierendes Angebot und das in einem Markt in dem ständige Nachfrage herrscht.


Dazu kommt:
NVIDIA Research and Development Expense (Quarterly) | NVDA

Nvidia hatte 2019 F&E Kosten von 2,73 Mrd $. Für alles. GPUs, AI, Autonomes Fahren, ALLES.
D.h. aber auch, ALLE diese Produkte tragen mit dem von Ihnen erwirtschafteten Gewinn zur Deckung dieser Kosten bei. Du hast ne Rechnung gemacht,bei der nur die 3090 diese Kosten deckt und kommst damit auf einen Marktpreis von 900$.
Und was ist mit dem Rest der Einnahmen?

Du hast grade wunderbar aufgezeigt, welches Potential Nvidia als Gewinn in seinen GPUs hat. Hast mal eben mit einer einzigen GPU aus dem kompletten Ampere Sortiment, die kompletten F&E Kosten 2019 reingeholt. Und dann sagst du mir, da wäre keine Luft für Preisnachlass?
Lass Nvidia wirklich auf die Kacke hauen und 4 Mrd $ für F&E in 2020 ausgeben (aktuell sind sie bei ~2,5).

Gut, es sind Annahmen, ggf. ist die Produktion teurer, kein Thema. Aber die Annahme, 3 Mrd $ F&E nur mit einer Karte abdecken zu müssen ist einfach weitab jeder Realität. Ich mag solche Rechnungen, versteh mich nicht falsch, ich finds so auch wesentlich spannender. Aber du musst doch einsehen, dass deine Kostenfaktoren in Sachen Entwicklung zu hoch gegriffen sind...
 
hoffgang, Du hast *NICHTS* verstanden, von dem was ich geschrieben habe. Lies es nochmal.

tl;dr; für dich: Nur weil ich die Marge immer größer mache, verdiene ich nicht automatisch mehr Geld. Das ist ein Irrglaube.
 
hoffgang, Du hast *NICHTS* verstanden, von dem was ich geschrieben habe. Lies es nochmal.

tl;dr; für dich: Nur weil ich die Marge immer größer mache, verdiene ich nicht automatisch mehr Geld. Das ist ein Irrglaube.

Ich hab das sehr wohl verstanden, ich challenge aber deine Annahmen.

Es ist nicht realistisch mit 3 Mrd Kosten für Entwicklung zu rechnen wenn das mal eben das komplette F&E Budget von 2019 übersteigt.
Ich versteh was du sagen willst, nur bin ich eben der Meinung, dass der Kostenfaktor von Dir sehr viel zu hoch eingeschätzt wird. Aber dann funktioniert deine Beispielrechnung ja nicht. Lass Ampere mal 75% des FE Budgets reinholen. Also übers komplette Portfolio verteilt.
3070 / 3080 und 3090 zu Release. Wie sieht deine Rechnung denn jetzt aus. Da kannste aber nochmal ordentlich an den Produktionskosten schrauben und kommst immernoch ordentlich auf Luft dazwischen.


Und nein, wenn ich die Marge größere mache verdiene ich nicht zwangsläufig mehr Geld.
Aber wenn die Marge größer wird, kann ich bei weniger Absatz (nicht Umsatz) denselben Gewinn erzielen bzw. dank mangelnder Konkurrenz bei gleichem Absatz mehr Gewinn einfahren.
 
@hoffgang: Zunächst: Eine Chipgeneration wird nicht in EINEM Jahr entwickelt, sie haben normalerweise eine Lebensdauer von etwa ZWEI Jahren. Damit sind schon all Deine Annahmen für den Eimer.

Und es ging auch nicht um meine Zahlen, ich wollte Dir nur verdeutlichen, dass Nvidia sich selbst schaden würden, wenn sie die Karten zu teuer verkaufen, wenn die Kosten sie nicht zu einem bestimmten Preis zwingen würden.

Du hast immer die Faktoren:

- Stückkosten
- Entwicklungskosten (also Einmalkosten)
- Marktpotential
- Konkurrenzpreis

Und aus den 4 Werten lässt sich der optimale Einzelpreis berechnen (natürlich muss man immer mit Annahmen arbeiten, aber ein erfahrener BWLer kriegt das hin). Und der optimale Einzelpreis ist eben nicht "einfach nur teuer". Wenn Stück- und Einmalkosten ein bestimmtes Niveau haben, dann *musst* Du auch die Endpreis mit etwas Abstand anlegen, wenn beide aber deutlich niedriger sind, schneidest Du Dir damit ins eigene Fleisch, Du würdest bei einem geringeren Preis deutlich mehr Gewinn machen.

Das war die Aussage. Versuch sie bitte nochmal nachzuvollziehen und lös Dich doch mal von dieser "Nvidia sind *******" Denke. Die blockiert Dein ganzes Denken!
 
Der ganze Vergleich ist sinnfrei. Topmodell ist nur ein Marketingterm.

NV30 (je der Föhn) war 200mm² groß und 125 Millionen Transistoren
G92 war 324mm² groß und 754 Millionen Transistoren
GF104 war 526 mm² groß und hatte 3,04 Milliarden Transistoren
GK110 war 561mm² groß und hatte 7,08 Milliarden Transistoren
GP102 ist 471mm² und hat 12 Milliarden Transistoren
TU102 ist 754mm² groß und hat 18,6 Milliarden Transistoren

alle sind/waren Topmodelle.
 
Über die hat Nvidia die derzeitigen Gewinne nicht eingefahren, vor allem DC/HPC und Highend in Form der 2070s/2070maxQ (also GA 104 konnte noch aufholen). Gaming halt plus 150mio und Datacenter knapp 650mio. Man müsste die Stückzahlen wissen.

Man kann auch GA102 Gamer nicht auf GA102 Profi runterbrechen, die gleiche Karte kostet ein vielfaches. Da wir diese Produktkalkulation nicht sehen, ist es schwerlich so zu argumentieren wie Grestorn oder aber er kennt die Bilanzen.
 
Topmodell ist *mein* Begriff für das zu einem Zeitpunkt gerade verfügbare Topmodell im Mainstream Bereich (also ohne Titans und Profi-Karten). Das hat nichts mit dem Chip, der Chipnummer, der Speicherbitbreite oder dem Anteil an aktiven Funktionseinheiten zu tun. Sondern nur mit dem, was zum Zeitpunkt x am Markt erhältlich ist.
 
Die Kosten steigen tatsächlich. Selbst wenn die Fertigungskosten um 50% gestiegen sind (was sie bestimmt nicht sind), dann machen diese Kosten aber weniger als 50% der Gesamtkosten aus. Nvidia haut dennoch 50% Gesamtkosten drauf. Das ist doch absurd.

Nein, Marktwirtschaft... Absurd wäre nur wenn man sich son' Ding TROTZDEM kauft ob wohl man es sich nicht leisten kann oder will...
 
Versuch sie bitte nochmal nachzuvollziehen und lös Dich doch mal von dieser "Nvidia sind *******" Denke. Die blockiert Dein ganzes Denken!

Bitte löse dich von der Vorstellung, dass ich in diese Richtung denken würde. Dem ist nicht so. Nvidia, AMD, Intel, mir vollkommen wurscht.
Ich will gute Produkte zu bezahlbaren Preisen, egal von wem. Daraus abzuleiten, ich würde Nvidia haten ist einfach nur falsch.


@hoffgang: Zunächst: Eine Chipgeneration wird nicht in EINEM Jahr entwickelt, sie haben normalerweise eine Lebensdauer von etwa ZWEI Jahren. Damit sind schon all Deine Annahmen für den Eimer.

Ist richtig, aber Chipgens bestehen nicht nur aus einer Karte...


Und es ging auch nicht um meine Zahlen, ich wollte Dir nur verdeutlichen, dass Nvidia sich selbst schaden würden, wenn sie die Karten zu teuer verkaufen, wenn die Kosten sie nicht zu einem bestimmten Preis zwingen würden.

Wir werden am 01. September sehen was Nvidia glaubt für Ihre Karten verlangen zu können. Denn der Kundenstamm kann auch nicht einfach jeden Preis mitgehen. Nvidia hat Turing ja entlang der Preislinien der Vorgänger eingepreist, nur eben um eine Gen verschoben. Das macht die 2080ti "teuer", während alle anderen Modelle ja ungefähr soviel Kosten wie die Gen drüber bei Pascal. Aber Du kannst mir auch nicht erzählen, dass die 2080ti der Erfolgstreiber dieser Gen ist, oder DIE Umsatzgenerierende GPU und deshalb in großen Stückzahlen verkauft wird.
 
Bitte löse dich von der Vorstellung, dass ich in diese Richtung denken würde. Dem ist nicht so. Nvidia, AMD, Intel, mir vollkommen wurscht.
Ich will gute Produkte zu bezahlbaren Preisen, egal von wem. Daraus abzuleiten, ich würde Nvidia haten ist einfach nur falsch.
Du bist lustig. Nur weil man etwas will muss es noch lange nicht realistisch sein. Ich habe Dir aufgezeigt, wie ein Preis zustande kommt, und dass da kein "Evil Intend" dahinter ist. Der einzige Weg, dass der Preis ein wenig(!) sinkt und auch nur im aboluten Top-Range wäre eine gleichwertige Konkurrenz.

Ist richtig, aber Chipgens bestehen nicht nur aus einer Karte...
Hab ich auch nie behauptet. Das war deswegen ja auch eine Modellrechnung. Du hast versucht meine Beispielzahlen zu widerlegen, was sowieso am Sinn meines Postings vorbei geht, und ich habe nur einen offensichtlichen Fehler in Deiner Argumentation aufgezeigt.

Wir werden am 01. September sehen was Nvidia glaubt für Ihre Karten verlangen zu können. Denn der Kundenstamm kann auch nicht einfach jeden Preis mitgehen. Nvidia hat Turing ja entlang der Preislinien der Vorgänger eingepreist, nur eben um eine Gen verschoben. Das macht die 2080ti "teuer", während alle anderen Modelle ja ungefähr soviel Kosten wie die Gen drüber bei Pascal. Aber Du kannst mir auch nicht erzählen, dass die 2080ti der Erfolgstreiber dieser Gen ist, oder DIE Umsatzgenerierende GPU und deshalb in großen Stückzahlen verkauft wird.

Die 2080Ti soll nicht der Erfolgträger sein. Ich denke, der meiste Gewinn wird mit der 2070S gemacht. Was auch der Grund ist, warum sich AMD auf dieses Segment konzentriert. Aber dadurch eben Nachteile in Kauf nimmt. Die Top-Range ist nie das, wo man den großen Gewinn macht, aber man kann dort Synergie-Effekte nutzen, Techniken etablieren, und natürlich einen Ruf aufbauen. Das alles hat AMD verkannt.
 
Ich würde mich auf keine Preisspekulationen einlassen. Dieses Jahr ist das Corona Jahr und da ist alles anders. Es sei den das manche die Grafikkarte mit Klopapier verwechseln, dann könnte es eng werden.
 


Ganz im ernst... Wenn sowas für nen "Gamer" "gut" sein soll, dann weiß ich nicht warum euch ne' 3080 whatever überhaupt interessiert - egal ob nun 800€ oder 1800€...

Auch wenn ich nicht behaupte, dass es keine Gaming-tauglichen Karten gibt die günstig sind und sich P/L mäßig lohnen - aber doch nicht für nen FPS jagenden Gamer oder n' HQ Junkey...
Das ist ehr was für die abschweifenden Konsoleros...;)

Aber es soll ja auch Leute geben die die meinen Konsolen könnten mit High end PC's mithalten... :lol:


Sorry, aber ich persönlich zocke nicht seit 30 Jahren auf dem PC, mit seinen schon immer hohen kosten weil mir "0815" ausreicht - dann wäre ich jetzt im PS5 forum...
 
Ich bin ja mal gespannt was da kommt, mir scheint das alles irgendwie keine Runde Sache zu werden mit den neuen Gens. Vom GDDR6 hab ich schon wenig gehalten, beim X bin ich noch skeptischer. Mal gespannt ob NV Sensoren mitliefert.
 
Topmodell ist *mein* Begriff für das zu einem Zeitpunkt gerade verfügbare Topmodell im Mainstream Bereich (also ohne Titans und Profi-Karten). Das hat nichts mit dem Chip, der Chipnummer, der Speicherbitbreite oder dem Anteil an aktiven Funktionseinheiten zu tun. Sondern nur mit dem, was zum Zeitpunkt x am Markt erhältlich ist.

Falsch, primär hat das was mit der größten Anzahl an Transistoren zu tun. Und auch heute wird die gleiche Anzahl an Transistoren immer noch mit jedem neuen Prozess billiger. Was es halt nicht mehr gibt, ist dass es mehr Transistoren für weniger Geld gibt. Das haben alle Foundries aber für die Prozesse kleiner 16nm schon lange so gesagt.
 
Zurück