Intel ging zuletzt sehr ehrlich damit um, dass Sie im Silizium treibertechnisch unlösbare Handbremsen enthalten haben.
Diese sind Ihnen durch die gesammelten Erfahrungen sehr bewusst geworden, waren bei der 1Gen sicherlich nicht anders zu erwarten und sollen mit Battlemage, unter einhergehendem Fokus auf eine bedeutende RT-Leistungssteigerung, äußerst konsequent angegangen werden.
Mir macht es ungeheuer großen Spaß diese Reise von Intel Graphics mitzuerleben.
Hab den neuen Treiber gerade auf´s System gezogen, jetzt läuft der Assassins Creed "Fata Morgana" Download und dann sofort mal schauen, ob die XeSS-Implementierung bereits auf dem XeSS 1.2 SDK basiert und entspannt anzocken.
Anhang anzeigen 1439495
edit: okay, cool, ist schon XeSS in Version 1.2 an Board
Anhang anzeigen 1439497
Naja wer auf alte Spiele steht bekommt wenigstens über 100 % mehr Leistung XD ???Na das passt mir ja wunderbar in den Kram, hab mir ne günstige A750 zum rumdallern geschossen
Dem kann man nur zustimmen. Wird endlich Zeit das Nvidia und AMD GPU technisch aus ihrer Komfortzone kommen.Aber es geht immerhin vorwärts, und man schiebt sich - in den Benchmarks - peu à peu ein bisschen weiter nach vorne/oben.
Edit:
Und jeder Arc-Käufer trägt ja auch ein wenig zur Motivation bei, die GPU-Sparte (hoffentlich!) nicht wieder einzustampfen. Dafür gibts von mir ein dickes "Dankeschön".
Dann hätten sie jetzt auch was konkurrenzfähiges im Angebot. So leider nnicht?
naja . bis vor kurzem konnte man die karten bis 300EUR problemlos empfehlen.Dann hätten sie jetzt auch was konkurrenzfähiges im Angebot. So leider nicht.
Im Grunde also nicht viel anders als Vega64 (12,5Mill) gegen GTX 1080(7,2Mill).Die Arc 770 hat 21 Milliarden Transistoren.
Eine 370Ti hat 17,4!
Eine 3060 hat 13,25 und das ist die Liga in der die 770 spielt.
Die Radeon 7600 hat ebenfalls 13,6 Milliarden und ist ein direkter Konkurrent.
Es ist nicht nur der Treiber der hier das Problem ist, Intel hat auch schon bei der Architektur einiges aufzuholen.
Im Grunde also nicht viel anders als Vega64 (12,5Mill) gegen GTX 1080(7,2Mill).
Und erstere war bei weitem kein Erstlingswerk.
-> Nicht toll aber auch nicht unglaublich schlecht.
Es gab nie einen Zusammenhang zwischen Produktionsaufwand und Preis. Am Ende zählt einzig und allein was dabei herum kommt.Es zeigt halt auch, dass die Beziehung zwischen Chipgröße und Preis nicht mehr gegeben ist und aktuell nur eine Beziehung zwischen Benchmarkergebnis und Preis besteht.
Allerdings macht afaik R&D eh einen größeren Batzen aus als die Produktionskosten, also lohnt es sich für die Hersteller trotzdem komplexe aber langsame Chips lieber günstig als garnicht zu verkaufen.
Dann wird es ja mal zeit das Nvidia mal gezeigt wird, wo der Frosch die Locken hat...Zitat Nvidia Jahresbericht Seite 46:
Cost of Revenue = 11,6 Milliarden Dollar
R&D = 7,3 Milliarden Dollar
Definition Cost of Revenue Seite 36:
Cost of revenue consists primarily of the cost of semiconductors, including wafer fabrication, assembly, testing and packaging, board and device costs, manufacturing support costs, including labor and overhead associated with such purchases, final test yield fallout, inventory and warranty provisions, memory and component costs, tariffs, and shipping costs. Cost of revenue also includes acquisition-related costs, development costs for license and service arrangements, IP-related costs, and stock-based compensation related to personnel associated with manufacturing operations.
Quelle:
Die TSMC Preiserhöhung hat schon dafür gesorgt, dass sich diese Beträge nicht mehr die Waage halten. Es wird klar mehr Geld für die Herstellung ausgegeben als für R&D, wobei auch bei letzterem die Kosten gestiegen sind.
Nachdem sich Nvidia erst eine goldene Nase mit Krypto verdient hat, machen sie jetzt Geld mit AI, weil jeder Investor der nicht weiß wohin mit der Kohle in irgendein KI-Starup investiert und die wiederum alle wie blöd Nvidia kaufen. Besonders im Enterprisesektor ist Nvidia nicht gerade billig. Wir sprechen immer davon was die H100 Karten kosten, aber im Vergleich mit den Lizenzkosten für Treiber und Support ist die Nvidia Hardware der billige Teil der Kostenstelle. Stell Euch vor für eine 600€ teure 4070 wäre noch ein Treiber-Abo für 50€ im Monat fällig. Jetzt stellt Euch das mit sechsstelligen Beträgen vor. Wilkommen bei Nvidia Enterprise Sparte.
Das wird glaube ich nicht mehr passieren. Das hat damit zu tun, dass die USA erklärt haben, dass künstliche Intelligenz eine strategische Ressource ist. Damit ist künstliche Intelligenz auf einer Stufe mit Öl, oder seltenen Erden, oder bestimmten Medikamenten. Kurz gesagt, Dinge für die man bereit ist sogar Kriege zu führen, oder Gesetze der freien Marktwirtschaft außer Kraft zu setzen. Besonders letzteres ist attraktiv für Nvidia, denn das bedeutet, dass man jeden Preis verlangen kann, sofern man nur ganz vorne ist. Das ist auch im Umkehrschluss warum der aktuelle Hype irgendwelche Startups mit künstlicher Intelligenz sind, oder Firmen die Chips dafür produzieren.Dann wird es ja mal zeit das Nvidia mal gezeigt wird, wo der Frosch die Locken hat...