Geforce RTX 3000: Ampere in 8 nm bei Samsung?

Tja, noch wird frisch in Asien produziert, nach der Entglobalisierung wirkt auch Lilschen Müller ark brüskiert.

Spannend sind die Vorgänge in der globalen Wirtschaft, welche gerade mit der Coronahypochondrie (mehr oder minder unbemerkt) einhergehen. Spätestens im Herbst schlagen dann auch die Folgen der selbstfrabrizierten Wirtschaftskrise massiver hierzulande ein und es werden dann auch beim medialvertrottelten und konsumverblödeten Hans Peter (extrem geistig mittelbegabt und zudem "Ex-erten" und "Anäl-ysten" hörig) um die Ecke Fragen aufkommen.

Was "man" so gar nicht mehr weiß, bis vor ein paar Jahren, laß es 25 sein, konnte man in Europa sehrwohl den Elektroschrott (Computer, Fernseher, Sterioanlagen usw.) selber herstellen. Besser, günstiger und langlebiger als anderswo. Leider, leider, leider, wurde uns (von den pseudoelitären Dorftrotteln, welche man anbei nicht wählen kann) irgendwann erzählt (über Medien und "Ex-perten" usw.), daß es woanders besser zuginge. Und nun zahlen wir für eine "Highendplastikecke" 1250€, laß es eine 2080ti sein, weil ja alles in Asien billiger ist, welche es unter normalen Umständen auch zum halben Preis gäbe. Ach, Sachen gibt es. :D

Basileukum sagt: "4-5nm" gibt es dann schon wieder verstärkt aus Europa selbst zu kaufen.

Interessante Theorien die du da Aufsteller, aber leider ein wenig an der Realität vorbei ;)
Die Lohnkosten in Asien sind bzw waren Mal mehrere Größenordnungen geringer als in EU, da ist es natürlich nur logisch die produktionsschritte, die viel Personal benötigen dorthin auszulagern.
Das die Grafikkarten so viel kosten liegt nicht daran daß man sich mit Asien verkalkuliert hat, sondern das da einfach nen Haufen zusätzlicjer Kosten drin stecken die man eben nicht outsourcen kann. F&E findet bei grakas z.b. immer noch hauptsächlich in Nordamerika statt, das kostet, genau wie die dicke Gewinnmarge die NV einstreichen will.

Grimm sagt: Kannste knicken. Die beste Fertigung die wir hier in Europa haben sind die 12nm von GF und die sind aus dem Rennen um die kleineren Schritte ausgestiegen. Und was neues stampft man nicht Mal eben so aus dem Nichts aus dem Boden.
Aber entgegen den unkenrufen einiger Experten ist der Ausverkauf von DE/EU noch lange nicht so weit. Denn ein Großteil der Technik die benötigt wird um überhaupt solche Fabriken zu bauen und neuere Fertigungsverfahren umzusetzen kommt von hier. Seien es die belichtungsmaschinen von ASML, die Optiken von Zeiss oder die laser von trumpf
 
Tja, noch wird frisch in Asien produziert, nach der Entglobalisierung wirkt auch Lilschen Müller ark brüskiert.

Spannend sind die Vorgänge in der globalen Wirtschaft, welche gerade mit der Coronahypochondrie (mehr oder minder unbemerkt) einhergehen. Spätestens im Herbst schlagen dann auch die Folgen der selbstfrabrizierten Wirtschaftskrise massiver hierzulande ein und es werden dann auch beim medialvertrottelten und konsumverblödeten Hans Peter (extrem geistig mittelbegabt und zudem "Ex-erten" und "Anäl-ysten" hörig) um die Ecke Fragen aufkommen.

Was "man" so gar nicht mehr weiß, bis vor ein paar Jahren, laß es 25 sein, konnte man in Europa sehrwohl den Elektroschrott (Computer, Fernseher, Sterioanlagen usw.) selber herstellen. Besser, günstiger und langlebiger als anderswo. Leider, leider, leider, wurde uns (von den pseudoelitären Dorftrotteln, welche man anbei nicht wählen kann) irgendwann erzählt (über Medien und "Ex-perten" usw.), daß es woanders besser zuginge. Und nun zahlen wir für eine "Highendplastikecke" 1250€, laß es eine 2080ti sein, weil ja alles in Asien billiger ist, welche es unter normalen Umständen auch zum halben Preis gäbe. Ach, Sachen gibt es. :D

Basileukum sagt: "4-5nm" gibt es dann schon wieder verstärkt aus Europa selbst zu kaufen.

Selten so ein Schwachsinn gelesen. :lol:
 
so viel unwissenheit, gehört eigentlich bestraft... da bekommt man ja mega Augenkrebs und Kopfschmerzen-



Siriuz hat nur gesagt .

Das die Intel Cores trotz 14nm !! laut PCGH immer noch die schnellsten Gaming CPU,s sind ;)

Und das Nvidia trotz 12 nm laut PCGH die sparsamsten und schnellsten GPU,s hat :)


Was davon stimmt deines Wissen,s nach nicht ?!

Fakten bitte !

Sollte da nicht,s Konstruktives von dir kommen bist schon du der ziemlich peinliche Unwissende der Bestraft gehört :schief:
 
Somit war es das mit mehr takt
8nm LPP vs 7nm LP
Low power process vs leading perdormance
Welcher von beiden kann wohl mehr takt?

Ist der 8nm LPP bereits definitiv bestätigt?
Ich erinnere mich noch an den Samsung 8LPU (Low Power Ultimate)

Beschreibung:

"...will focus on chips that require both a high clock and high transistor density"

Vielleicht ist das so einer der Fertigungsprozesse, die noch auf Samsung 10nm basieren. Die Frage bleibt nach wie vor ob EUV oder nicht! Das würde einen gravierenden Unterschied ausmachen.


Was die Transistordichte angeht, nun das liegt primär am design hohe dichte = mehr abwärme.
da kann LPP vom vorteil sein wenn man die dichte nicht übertreibt und somit den takt höher setzen aber nur bis zu einen punkt
mehr als 1,9ghz sind also nicht möglich
Bei LP wird gezielt auf takt gesetzt da ist der Stromverbrauch etwas höher allerdings ist das relativ zur Leistung.
Was besser für einen sku ist hängt vom design ab.

Abwärme wäre bei dem geleakten Nvidia Referenzkühler nicht unbedingt das Problem. Stromverbrauch wird definitiv eine Herausforderung. Die Tensorkerne verbraten ja zusätzlich Saft. Keine Ahnung wie sich das in kleinerer Fertigung entwickelt.

Kommt mal wieder auf die Ampere Architektur selbst an.

Beim Takt selbst bin ich mir noch nicht sicher. Bei Turing und Pascal hat man auch im Vorfeld von jenseits der 2GHz geträumt. Erreicht hatten das nur die wenigsten Karten in der Chiplotterie bis zur 2./3. Charge.

Samsung solte beim 8nm LPP bis zu 2ghz erreichen aber mehr ist nicht drin dagegen tsmc laut gerüchten und fester zusage bei der ps5 von 2,2ghz

Ja, 2,2GHz und wird wahrscheinlich throtteln wie verrückt, weil die Kühlung der PS5 es nicht gebacken bekommt.

Maximale Taktraten sind zwar interessant, aber mir sind hohe Basis-Taktraten vor dem Boost wichtiger als das theoretisches Maximum, das die Karte jedoch nur 10-15 Minuten erericht und dann runtertaktet.

Da Nvidia wieder schnelleren GDDR6 benutzt, bleibt die Frage in welche Richtung sie die Prioritäten verschieben. Taktraten sind nur ein Teil der Leistungsgleichung. Da ist nach wie vor die Rede von verbessertem Subsystem à la NvCache und extrem kurze Latenzen über "Backdrill Verfahren" (siehe FormatC / Igor's Lab).

Falls das alles stimmen sollte, würde die Leistung dramatisch nach oben gehen ohne gleich die zukünftigen Taktspielräume einer TSMC 7nm Fertigung auszureizen.
 
Siriuz hat nur gesagt.
Vor allem hat er geschrieben: "trotz mehr nm", es sind aber weniger, egal wie man es betrachtet. Da bekommt schon ein wenig Kopfschmerzen.:D

Ist der 8nm LPP bereits definitiv bestätigt? Ich erinnere mich noch an den Samsung 8LPU (Low Power Ultimate)

LPU eignet sich nicht für GPU's, wobei Nv zumeist ein eigenes Verfahren benötigt, N7N steht da im Raum. Ob Samsung sowas überhaupt liefern kann?

Im Zusmamenhang ist das sogar etwas falsch dargestellt, denn 8LPP gibt es eigentlich nicht, es sind 10nm LLP/LPU und damit darf es sich 8nm nennen. Das ist ja wo uns die Hersteller seit Jahren einen Bären aufbinden.

Die Lohnkosten in Asien sind bzw waren Mal mehrere Größenordnungen geringer als in EU, da ist es natürlich nur logisch die produktionsschritte, die viel Personal benötigen dorthin auszulagern.
Das hat aber absoult nichts mit dem Produkt als solches zu tun, sondern mit den Gewinnen/Gewinnspannen für Unternehmen, als erstes spare ich das am Arbeiter. Ich könnte auch hier produzieren und bekomme weniger Gewinn, der Preis muss dann überhaupt nicht steigen. Wo die Bruttogewinnmarge derzeit liegt weißt Du? 62-64%, dann weißt du auch was eine 2080ti kosten könnte, gewinnbereinigt.

Was die Transistordichte angeht, nun das liegt primär am design hohe dichte = mehr abwärme.
Ich denke schon das man 2.2GHz erreicht, ob jetzt der Bigchip ist ja wieder eine andere Frage, eher der Effizienz/Verbrauch usw. (was der Hersteller meint, 5 Jahre garantiert lauffähig zu liefern). Was die Energiedichte angeht, ging Nv da seit Maxwell in die Breite, da könnte 8nm rein von den Kosten her glücklicher gewählt sein, weil auch die Anforderungen an die Wafer ggf. nicht so hoch sind und man trotz mehr Fläche, die Preise niedriger halten kann, als unter 7nm oder es nicht mehr kostet.

Nv Aussagen bzgl. AMD's Effizienz stimmen dann also, mh...das war also vollkommen ernst gemeint und sie könnten mit einem kleineren Designentwurf sogar schneller und sparsamer sein, auf jeden Fall gleiche Effizienz wäre möglich. Dann kommt es nur noch auf RT an und da dürfte Nv wegen der Rechenpower Vorteile haben (TFlops), genau deshalb setzt man auch auf RT. Ich bin gespannt....:)

Da DirectX 12U DXR1.0 nicht ausschließt (wie schon mal geschrieben ist U nur ein DXR Subset), könnte man sogar auf v1.0 bleiben und das deutlicher pushen. Dann hätte AMD nämlich erst mal mit Integrationsproblemem zu kämpfen, wenn man die Hardware eher auf DXR 1.1 auslegt (was klar zu vermuten ist - hybrid Software/Hardware). Konsolen sind noch lange keine PC's. Das hat Nv in Vergangenheit ja oft so gehandhabt, DX11 und DX12. Könnte man zumindest bis 5nm so celebrieren und dann hat man genug bei TSMC gebucht.
 
Zuletzt bearbeitet von einem Moderator:
Ist der 8nm LPP bereits definitiv bestätigt?
Ich erinnere mich noch an den Samsung 8LPU (Low Power Ultimate)

Beschreibung:

"...will focus on chips that require both a high clock and high transistor density"

Vielleicht ist das so einer der Fertigungsprozesse, die noch auf Samsung 10nm basieren. Die Frage bleibt nach wie vor ob EUV oder nicht! Das würde einen gravierenden Unterschied ausmachen.
[...]

Konkret bestätigt ist bei nVidia derzeit einzig der GA100 in Form des A100 in TSMCs N7. Alles andere sind bisher weiterhin nur Gerüchte. Man weiß lediglich, dass nVidia 7nm-Kapazitäten bei TSMC hat und mit sehr hoher Wahrscheinlichkeit auch Fertigungskapazitäten bei Samsung eingekauft hat. Man weiß jedoch nicht was und ebenso wenig weiß man welche Produkte wo gefertigt werden sollen.
Entsprechend ist Samsung's 8LPP ebenso unbestätigt aber durchaus nicht abwegig. Hierbei handelt es sich um eine Weiterentwicklung des 10LPP, d. h. der Prozess basiert weiterhin auf DUV (erst Samsung's 7LPP nutzt EUV). Das sollte aber kein Problem darstellen, denn bspw. AMD verwendet dieses Jahr auch kein EUV und die Unterschiede zwischen TSMC's N7(P) mit DUV und dem N7+ mit vier EUV-Lagen sind vergleichsweise gering, insbesondere wenn man den aktuelleren N7P als Vergleich heranzieht, den AMD bereits für Navi/RDNA nutzt. EUV macht hier fertigungstechnisch keinen allzu großen Unterschied, möglicherweise aber sehrwohl bei den Kosten.

Am Ende macht es zudem wenig Sinn sich darüber den Kopf zu zerbrechen, denn schlussendlich versucht nVidia Leistungspunkt X zu realisieren und auf welchem Wege sie das tun, ist für den Anwender am Ende weitestgehend irrelevant. Bereits mit Turing konnten sie ein Design vorlegen, das TSMCs 12FFC (in der minimal angepassten Version 12FFN) bestmöglich ausnutzte, sodass AMD hier ein Jahr später selbst unter Verwendugn des deutlich moderneren N7(P) nicht an ihnen vorbeiziehen konnte.
Bereits mit einem 8LPP dürfte nVidia fertigungstechnisch so viele Reserven hinzugewinnen (i. V. z. bisherigen 12FFC/FFN), dass es AMD schwer fallen dürfte, mit RDNA2 am Ball zu bleiben. Wenn es gut für sie läuft, werden sie diesmal wieder auf Augenhöhe mitspielen können, man darf jedoch davon ausgehen, dass es ihnen nicht gelingen wird, nVidia mit RDNA2 hinter sich zu lassen, d. h. am Ende wird AMD wieder vornehmlich über den Preis konkurrieren.
Hinzu kommt, dass es auch durchaus möglich ist, dass bspw. ein HighEnd-Design wie ein möglicher GA102 ebenfalls noch bei TSMC im N7 gefertigt werden wird. Möglicherweise werden auch nur kleinere Ampere-Chips bei Samsung gefertigt werden, was u. U. auch zu dem Gerücht passt, dass nVidia in der ersten "Lauch-Welle" nur mit drei Produkten auf Basis eines einzigen HighEnd-Chips (GA102?) starten wird, d. h. die kleineren Chips (Äquivalente zum TU104 und TU106, etc.) werden zeitlich versetzt folgen, was ggf. auf einen anderen Fertigungsort hinweisen könnte. - Einfach abwarten und Tee trinken ... ist ja nicht mehr so lange hin.

*) Bereits Pascal wurde bei TSMC in 16FF+ gefertigt und später auch in kleinen Stückzahlen bei Samsung in 14LPP. Letzterer bot jedoch nur geringe Vorteile und zudem war Samsung mit der Prozessentwicklung zu spät dran. Beispielsweise einige GP107-Kontingente wurde recht spät zu Samsung verlagert (Ende 2016).

**) Samsung’s 8LPP Process Technology Qualified, Ready for Production
 
Du lehnst dich zwei drei mal mächtig aus dem Fenster, woher kommt das?:)

Intel glaubte auch AMD kann denen das Wasser nicht reichen, müssen sie leistungstechnisch gar nicht wie man sieht. Ich halte Samsung in dem Fall nicht für besonders durchdacht, wenn ein GT102 von denen kommt, dann gute Nacht (reimt sich sogar).

Nv's Vorteil lag schon immer beim Fertiger und nicht beim Chipdesign (AMD war da vertraglich an GF gebunden), nur weil TSMC fast zu Nodes lieferte, die Nv in die Entwicklung passten. Daher zu behaupten sie schlagen mit 8nm gleich mal 7nm (und niemand weiß ob GPUs nicht doch in EUV kommen), wäre weit hergeholt. Technologisch sind sie damit einen Schritt hinter AMD, TSMC in der Branche führend. Sich das jetzt wieder schön zu reden, kann man ja machen. Da Samsung und AMD oft viel enger zusammenarbeiten, ist es schon verwunderlich das AMD dann die Node nicht dort eingekauft hat. Vor allem ist faktisch nicht klar, was 12FFN ist und wie verbleichbar mit 8LLP. Soweit ist weiß liegt TSMC da in breiter Front vorne.

Samsung war damals nur billiger, hätte sich Nv auch sparen können, aber so ist das nun mal, wenn man glaubt man sei Apple. Dann zeigen einem die anderen, dann doch schon mal den "Stinkefinger".

Edit sagt: ...14nm GF war oder ist von Samsung lizenziert, und damit hatte AMD zu kämpfen. Die Geschichte drum herum, kennen wir ja. GF selbst versemmelte das eigene Verfahren in Entwicklung. Nv verhandelte mit Samsung über 7nm EUV, nicht 8 oder 10LPP. Wahrscheinlich hat es Samsung verwachst und zurück geht nicht mehr, weil AMD alle freigewordenen Kapazitäten buchte.
 
Zuletzt bearbeitet von einem Moderator:
so viel unwissenheit, gehört eigentlich bestraft... da bekommt man ja mega Augenkrebs und Kopfschmerzen-

Ja bitte, klär mich auf. Wo ist die Aussage denn falsch? Hat dich meine Aussage echt so angegriffen, dass du mich "bestarfen" willst? Eieiei, such dir Hilfe!
Dass ein 8700K O.C schneller ist als ein 3700x? :D Ach hör auf. Die ach so "schlechte" 10er Generation ist und wird auch noch schneller als das Refresh sein, beim Spielen wohlgemerkt. :D
Gleiches Spiel bei Nvidia. AMD hängt Jahre hinterher aber hey, ihr habt weniger nm. Toll! Auch das Technik-Geblubber von eclipso ist ja ganz nett, bringt aber überhaupt nichts, wenn eine 3080 um die 50% schneller ist, als das Flaggschiff von AMD. Idk. Immer alles schön reden.
 
Ja bitte, klär mich auf. Wo ist die Aussage denn falsch? Hat dich meine Aussage echt so angegriffen, dass du mich "bestarfen" willst? Eieiei, such dir Hilfe!
Dass ein 8700K O.C schneller ist als ein 3700x? :D Ach hör auf. Die ach so "schlechte" 10er Generation ist und wird auch noch schneller als das Refresh sein, beim Spielen wohlgemerkt. :D
Gleiches Spiel bei Nvidia. AMD hängt Jahre hinterher aber hey, ihr habt weniger nm. Toll! Auch das Technik-Geblubber von eclipso ist ja ganz nett, bringt aber überhaupt nichts, wenn eine 3080 um die 50% schneller ist, als das Flaggschiff von AMD. Idk. Immer alles schön reden.

Weil es im Sinn eigentlich nicht, um "mehr oder weniger" geht, sondern "größer und kleiner". Sieh dir deine lahme 12nm Ente doch an.:)

Das war natürlich Spaß...

Aber:
Faktisch war zu vermuten, dass ab sofort Leistungsaufnahme, Bildqualität (auflösungsgetreue Wiedergabe) und Fertigung, sowie VRAM-Größen keine Rolle mehr spielen, Nv macht das schon. Hauptsache lange Balken und RTRT. Ja wer's glaubt. Gab ja auch schon mal 'ne GTX480.:D

Wenn sie dann selbst schon mitteilen, sie sind beeindruckt, stimmt was nicht. Holzauge sei wachsam. Kann natürlich alles reinster Spekulatius sein, und man wiegt die Konkurrenz in Sicherheit. Gab's ja auch schon.

Auch das Technik-Geblubber von eclipso ist ja ganz nett, bringt aber überhaupt nichts, wenn eine 3080 um die 50% schneller ist, als das Flaggschiff von AMD. Idk. Immer alles schön reden.
Entschuldige, ich hatte vergessen das hier nur deine "Expertenmeinung" zählt. Der Rest...ohje, ob da Welten zusammenbrechen wenn es ganz anders kommt? 50% schneller? Da holst du noch mehr aus als gerX7a bei den Fertigungsverfahren. Dann wäre die 3080 ja schneller als eine vermeintliche 3080ti oder 3090.:devil:
 
Zuletzt bearbeitet von einem Moderator:
Ich würde gern mal wissen, wieso so viele technische und kaufmännische Geschäftsgeheimnisse scheinbar für jeden überall offen zugänglich sind. Egal ob Igor Kimi oder wer auch immer, das ist mir echt schleierhaft. Hat da keiner Angst strafrechtlich belangt zu werden?
 
Weil es im Sinn eigentlich nicht, um "mehr oder weniger" geht, sondern "größer und kleiner". Sieh dir deine lahme 12nm Ente doch an.:)

Das war natürlich Spaß...

Aber:
Faktisch war zu vermuten, dass ab sofort Leistungsaufnahme, Bildqualität (auflösungsgetreue Wiedergabe) und Fertigung, sowie VRAM-Größen keine Rolle mehr spielen, Nv macht das schon. Hauptsache lange Balken und RTRT. Ja wer's glaubt. Gab ja auch schon mal 'ne GTX480.:D

Wenn sie dann selbst schon mitteilen, sie sind beeindruckt, stimmt was nicht. Holzauge sei wachsam. Kann natürlich alles reinster Spekulatius sein, und man wiegt die Konkurrenz in Sicherheit. Gab's ja auch schon.


Entschuldige, ich hatte vergessen das hier nur deine "Expertenmeinung" zählt. Der Rest...ohje, ob da Welten zusammenbrechen wenn es ganz anders kommt? 50% schneller? Da holst du noch mehr aus als gerX7a bei den Fertigungsverfahren. Dann wäre die 3080 ja schneller als eine vermeintliche 3080ti oder 3090.:devil:

Ahh, du regst dich wegen "mehr oder weniger" etwa auf? Dein Ernst? Ja meine "lahme" Ente macht mehr FPS als der schnellste Ryzen :D Finds ja echt lustig, was du hier zusammenreimst. Regst dich über "mehr oder weniger" auf und im nächsten Absatz kommst du mit ad Hominem wie "deine Expertenmeinung". Merkst du eigentlich noch was?
 
Ich würde gern mal wissen, wieso so viele technische und kaufmännische Geschäftsgeheimnisse scheinbar für jeden überall offen zugänglich sind. Egal ob Igor Kimi oder wer auch immer, das ist mir echt schleierhaft. Hat da keiner Angst strafrechtlich belangt zu werden?

In China interessiert es keiner. Hast du schon mal gemerkt dass die Iphone Designs seit 10 Jahre schon lange vor Release bekannt sind? Habe aber noch nichts davon mit bekommen, dass einer deswegen ins Gefängnis gehen muss oder Geld bezahlen musste.
 
so viel unwissenheit, gehört eigentlich bestraft... da bekommt man ja mega Augenkrebs und Kopfschmerzen-

Was ist den jetzt ?!

Ich warte auf eine Erklärung von dir !

Was an Siriuz Aussagen falsch ist :

Das Intel trotz 14 nm Fertigungs Nachteil immer noch die schnellste Gaming CPU hat .

Das Nvidia trotz 12 nm Fertigungs Nachteil immer noch die schnellsten und Effizientesten GPU,s hat .


Wo sind da deine Fakten , deine Erklärung ?!

Deinen Peinlichen Schwachsinn das man von Siriuz Aussagen Augenkrebs bekommt und dafür Bestraft werden sollte , kannst du in Zukunft für dich behalten .:nene:
 
Interessante Theorien die du da Aufsteller, aber leider ein wenig an der Realität vorbei ;)
Die Lohnkosten in Asien sind bzw waren Mal mehrere Größenordnungen geringer als in EU, da ist es natürlich nur logisch die produktionsschritte, die viel Personal benötigen dorthin auszulagern.
Das die Grafikkarten so viel kosten liegt nicht daran daß man sich mit Asien verkalkuliert hat, sondern das da einfach nen Haufen zusätzlicjer Kosten drin stecken die man eben nicht outsourcen kann. F&E findet bei grakas z.b. immer noch hauptsächlich in Nordamerika statt, das kostet, genau wie die dicke Gewinnmarge die NV einstreichen will.

Grimm sagt: Kannste knicken. Die beste Fertigung die wir hier in Europa haben sind die 12nm von GF und die sind aus dem Rennen um die kleineren Schritte ausgestiegen. Und was neues stampft man nicht Mal eben so aus dem Nichts aus dem Boden.
Aber entgegen den unkenrufen einiger Experten ist der Ausverkauf von DE/EU noch lange nicht so weit. Denn ein Großteil der Technik die benötigt wird um überhaupt solche Fabriken zu bauen und neuere Fertigungsverfahren umzusetzen kommt von hier. Seien es die belichtungsmaschinen von ASML, die Optiken von Zeiss oder die laser von trumpf

Merke:
Ein Produkt, welches in Fernost durch eine westliche Firma produziert wird, wird für den westlichen Käufer dadurch nicht automatisch billiger...die Preisdifferenz fließt nur in andere Taschen und wird höchstens durch Konkurrenzdruck angepasst... ;)
Spreche etwas aus eigener Erfahrung, da in meiner Firma derzeit ganze Produktpaletten von Eigenfertigung auf externe Fertigung in China umgestellt werden...und glaub mir, die Katalogpreise für Kunden ändern sich dadurch nicht, oder eben nur soviel, damit sie wieder preislich attraktiv werden...

P.S: Es ist heute ganz "normal", dass der Endkundenpreis 2-3x so hoch ist wie die Herstellkosten, incl. Gemeinkosten.
Also wenn Apple ein iPhone für 1200€ verkauft, dann wurden ca. 400€ für Material und Fertigung dafür aufgewendet, der Rest fließt in Firma und vor allem zu den Aktionären...irgendwoher müssen die Milliarden an Gewinn und Ausschüttungen ja kommen... ;)

mfg
 
Zuletzt bearbeitet:
Also die so hohe Preise dafür ausgeben sind nicht nur verrückt sondern auch irgendwie nicht so helle. Denn das Produkt von Apple ist ja nicht gerade ein hochwertiges Handy die Leute kaufen es dennoch als ob es gold wäre. Dann noch gpu und cpu wo die Menschen so viel Geld ausgeben. Die Leute Jammern sie hätten so wenig Geld, dann kaufen sie aber sowas teures. Tya das Gejammer kann man somit echt nicht mehr ernst nehmen. Diese Schein Armut was so manche Menschen an den Tag legen, ist mir halt schleierhaft. Und die hersteller machen uns auch etwas vor, weil sie so tuen als ob man ohne die teures Sachen nicht mehr gut leben könnte. Ist alles echt sehr fragwürdig.
 
Du lehnst dich zwei drei mal mächtig aus dem Fenster, woher kommt das?:)

Intel glaubte auch AMD kann denen das Wasser nicht reichen, müssen sie leistungstechnisch gar nicht wie man sieht. Ich halte Samsung in dem Fall nicht für besonders durchdacht, wenn ein GT102 von denen kommt, dann gute Nacht (reimt sich sogar).

Nv's Vorteil lag schon immer beim Fertiger und nicht beim Chipdesign (AMD war da vertraglich an GF gebunden), nur weil TSMC fast zu Nodes lieferte, die Nv in die Entwicklung passten. Daher zu behaupten sie schlagen mit 8nm gleich mal 7nm (und niemand weiß ob GPUs nicht doch in EUV kommen), wäre weit hergeholt. Technologisch sind sie damit einen Schritt hinter AMD, TSMC in der Branche führend. Sich das jetzt wieder schön zu reden, kann man ja machen. Da Samsung und AMD oft viel enger zusammenarbeiten, ist es schon verwunderlich das AMD dann die Node nicht dort eingekauft hat. Vor allem ist faktisch nicht klar, was 12FFN ist und wie verbleichbar mit 8LLP. Soweit ist weiß liegt TSMC da in breiter Front vorne.

Samsung war damals nur billiger, hätte sich Nv auch sparen können, aber so ist das nun mal, wenn man glaubt man sei Apple. Dann zeigen einem die anderen, dann doch schon mal den "Stinkefinger".

Edit sagt: ...14nm GF war oder ist von Samsung lizenziert, und damit hatte AMD zu kämpfen. Die Geschichte drum herum, kennen wir ja. GF selbst versemmelte das eigene Verfahren in Entwicklung. Nv verhandelte mit Samsung über 7nm EUV, nicht 8 oder 10LPP. Wahrscheinlich hat es Samsung verwachst und zurück geht nicht mehr, weil AMD alle freigewordenen Kapazitäten buchte.

Ein echter Fanboy, deine Kommentare werde ich ab jetzt nur noch überspringen müssen. Nvidia ist zur Zeit technisch die beste Karte, RT, DLSS2.0 und stabilere Treiber, AMD ist weit hinter Nvidia, wir werden sehen was Sie mit der RDNA 2 leisten können, denn ausser Rohleistung ist nunmal der neue Spieler RayTracing Performance dabei, auch mit DLSS 2.0 hat Nvidia hier eine Meisterleistung vollbracht. Für mich zählt bei der RTX 3000 nicht die Rohleistung, denn dafür reichen schon die RTX2000er Generation mehr als aus( 3440x1440 ),für mich zählt die RayTracing Performance sonst hätte ich die 2000er Gen nicht übersprungen. Wenn Cyberpunk 2077 erscheint wird nun mal die RT Kerne und DLSS 2.0 das Spiel ansagen. Preise interessieren mich so oder so nicht, das ist mein Hobby und da kann man jede 4-5 Jahre gerne was zahlen. Ich bin ziemlich beeindruckt das NV die RT ära eingeleutert hat und so die NexGen Konsolen dazu bewegt hat auch diese zu nutzen und ich bin von DLSS 2.0 einfach nur begeistert
 
Also die so hohe Preise dafür ausgeben sind nicht nur verrückt sondern auch irgendwie nicht so helle. Denn das Produkt von Apple ist ja nicht gerade ein hochwertiges Handy die Leute kaufen es dennoch als ob es gold wäre. Dann noch gpu und cpu wo die Menschen so viel Geld ausgeben. Die Leute Jammern sie hätten so wenig Geld, dann kaufen sie aber sowas teures. Tya das Gejammer kann man somit echt nicht mehr ernst nehmen. Diese Schein Armut was so manche Menschen an den Tag legen, ist mir halt schleierhaft. Und die hersteller machen uns auch etwas vor, weil sie so tuen als ob man ohne die teures Sachen nicht mehr gut leben könnte. Ist alles echt sehr fragwürdig.

Ein iPhone ist weit aus runder und ausgereifter als alle Android Produkte. Allein die Sicherheit. Aber anderes Thema.
 
Ein echter Fanboy, deine Kommentare werde ich ab jetzt nur noch überspringen müssen. Nvidia ist zur Zeit technisch die beste Karte, RT, DLSS2.0 und stabilere Treiber, AMD ist weit hinter Nvidia, wir werden sehen was Sie mit der RDNA 2 leisten können, denn ausser Rohleistung ist nunmal der neue Spieler RayTracing Performance dabei, auch mit DLSS 2.0 hat Nvidia hier eine Meisterleistung vollbracht. Für mich zählt bei der RTX 3000 nicht die Rohleistung, denn dafür reichen schon die RTX2000er Generation mehr als aus( 3440x1440 ),für mich zählt die RayTracing Performance sonst hätte ich die 2000er Gen nicht übersprungen. Wenn Cyberpunk 2077 erscheint wird nun mal die RT Kerne und DLSS 2.0 das Spiel ansagen. Preise interessieren mich so oder so nicht, das ist mein Hobby und da kann man jede 4-5 Jahre gerne was zahlen. Ich bin ziemlich beeindruckt das NV die RT ära eingeleutert hat und so die NexGen Konsolen dazu bewegt hat auch diese zu nutzen und ich bin von DLSS 2.0 einfach nur begeistert

Absolut meine Meinung. Und ja der Dude redet sich einiges schön. aBbBBer PrEeiIiS lEiiIstUNnnNg1!11! aMMmmD1
 
Zurück