Du meinst so was wie Intels Larrabee? Kann man schon, ergibt aber keinen Sinn.Interessant ist das schon.Schade das man keinen Allrounder Entwickeln kann,der CPU und GPU in einem wäre.
Du meinst so was wie Intels Larrabee? Kann man schon, ergibt aber keinen Sinn.Interessant ist das schon.Schade das man keinen Allrounder Entwickeln kann,der CPU und GPU in einem wäre.
Nvidia wäre sehr gut vorstellbar in Konsolen. Welche CPU dazu ist dann eher die knackige Frage:
AMD oder Intel? Hat ARM überhaupt was passendes, Abwärtskompatibel sollte es besser sein.
Raytracing hat Nvidia nicht erfunden, es ist nur eine andere Weise der Berechnung. Im Film wurde sie schon viel früher eingesetzt.NVIDIA ist einfach fantastisch und ein Vorbild für jedes andere Unternehmen und die politischen und religiösen Führer der Menschheit gleichermaßen. Wenn dieses Unternehmen noch glorreicher wäre, würden wir alle vor Bewunderung platzen. Mehr Bewunderung verdient nur AMD, sich mit dem unbesiegbarem Goliath anzulegen, obwohl er niemals eine gute Grafikkarte mit mit DLSS und G-Sync wird erfinden können! Nicht mal Raytracing kann AMD erfinden und die Grafikkarte kommt auch nicht von ATI. Dumm.
Aber die Grafikkarte und das Licht im Allgemeinen kommt doch von denen? Davor war alles 16 Bit, ich erinnere mich wieder. Langsam und 32 Bit: Matrox, ATI; schnell und 16 Bit: 3dfx. Beides ab der Riva TNT: nur bei NV.Raytracing hat Nvidia nicht erfunden, es ist nur eine andere Weise der Berechnung. Im Film wurde sie schon viel früher eingesetzt.
Muss aber sagen, da NV Karten echt gut sind.
Erst seit Covid und selbst da war Gaming noch Nummer 1 bei Nvidia und AMD. 2021/2022 hat das erst fahrt aufgenommen mit den anderen Feldern.Das ist die Gamingsparte doch schon seit Jahren!
Wie?? Nvidia hat das Licht erfunden, erzählt das nicht den Falschen.Aber die Grafikkarte und das Licht im Allgemeinen kommt doch von denen? Davor war alles 16 Bit, ich erinnere mich wieder. Langsam und 32 Bit: Matrox, ATI; schnell und 16 Bit: 3dfx. Beides ab der Riva TNT: nur bei NV.
Nvidia müsste seine eigene CPU mit einbauen. Weder Intel noch AMD würden nur die CPU für eine Konsole liefern wollen im Jahr 2024. Intel würde immer eine Core+Arc Lösung verkaufen wollen und AMD immer irgendwas Ryz+RDNA (oder wie auch immer deren Technologien genannt werden)
Ob du's glaubst oder nicht ... der Typ heißt wirklich so."Alan Weckel": Gib's zu, @PCGH_Sven, der Name steht doch nie im Leben so in der Quelle, den musst du dir ausgedacht haben.
Ich glaube das nicht! Durch die Kontrolle über die Kamera sind die Ansprüche beim Gaming um ein Vielfaches höher. Bis Gesichter lebendig wirken muss es noch sehr lange dauern, länger als im Film mit der festen Perspektive. Da reichen ja auch Kulissen, während unsere Fassaden Substanz brauchen.ja stimmt ja,Filme verwenden ja schon Raytracing.Man merkt es nur nicht mehr,weil man sich ja länger schon dran gewöhnt hat.Bei Filmen tut sich bei der Bildqulität in letzter Zeit nichts mehr.Bei Videospielen kann das auch so passieren wie bei den Filmen ja auch.Ist nur ne Frage der Zeit.
Nvidia wird Intel nur unter einer Bedingung ihre GPU Technologie für APUs lizenzieren und das ist wenn Intel im Gegenzug x86 endlich an Nvidia lizenziert.Und düstere Schatten kamen von AMD?
Nvidia als Türöffner käme also gerade recht und es ist auch im Interesse Intels, wenn sich Nvidia an x86-CPUs bindet, die sie nicht selber herstellen können. Umgekehrt wäre ein weiteres Erstarken von Grace-basierten Designs ein Rückschlag von Intel. Die haben schon Apple an ARM verloren.
Ich hatte dazu was gelesen, und Apple wollte einen Modularen Chip, der mit verschiedenen CPU´s erweitert werden kann. Energie Effizients und Erweitbarkeit waren prio.Nvidia wird Intel nur unter einer Bedingung ihre GPU Technologie für APUs lizenzieren und das ist wenn Intel im Gegenzug x86 endlich an Nvidia lizenziert.
Für den Fall dass Microsoft ein Pendant zu Rosetta in eine ARM-Version von Windows einbaut, würde es für Intel auch düster aussehen. Was bedeuten denn selbst 50% Overhead bei einer schlechten Version von Rosetta? Anstatt 30% Auslastung im Gaming hat die CPU 45% Auslastung? Kein Problem, oder?
Daher denke ich, Intel ist auf sich alleine gestellt. Es gilt Rückstand bei der Fertigung aufzuholen und einzusehen, dass Apple recht hatte, als sie Intel verlassen haben, um selbst mit einer CPU-GPU-NPU Fusion anzutreten. Das war doch auch bestimmt so ein Ding, bei dem Apple gesagt hat, wir wollen sowas und wenn ihr das nicht liefern könnt, machen wir es selbst.
Ist doch Modular, ein CPU Teil, ein GPU Teil, ein NPU teil, verschiedene Modelle skalieren verschiedene Aspekte unterschiedlich und man kann zwei Stück "zusammenkleben" für die Ultra Version.Ich hatte dazu was gelesen, und Apple wollte einen Modularen Chip, der mit verschiedenen CPU´s erweitert werden kann. Energie Effizients und Erweitbarkeit waren prio.
Nvidia wird Intel nur unter einer Bedingung ihre GPU Technologie für APUs lizenzieren und das ist wenn Intel im Gegenzug x86 endlich an Nvidia lizenziert.
Ich hatte dazu was gelesen, und Apple wollte einen Modularen Chip, der mit verschiedenen CPU´s erweitert werden kann. Energie Effizients und Erweitbarkeit waren prio.
Apples aktuelle CPU-Palette ist weitaus unflexibler und deutlich schlechter erweiterbar als alles, was sie mit Intel hatten. Aber sie nutzen seit dem Wechsel spürbar fortschrittlichere Fertigungstechniken und teils deutlich größere, im Gegenzug niedriger taktende Chips sowie schnelle, sparsame Speichersysteme die eben gerade keine Rücksicht mehr auf gesockelte/modulare Plattformen nehmen. Das alles gibt Apple einen erheblichen Effizienzvorteil, gerade gegenüber "++++"-Intel.
Naja, ich denke das liegt eher am allgemein niedrigereren Preis und dem höheren Vertrauen in die Langlebigkeit der Chips. Die letzten Konsolen hatten auch zumindest auf GPU-Seite nie einen Vollausbau.Aber so lange dürften Microsoft und Sony nur noch knapp warten wollen und für eine in extrem großen Stückzahlen gefertige Konsole, bei der teildefekte Chips auch schlecht als "kleineres" Modell verkauft werden, nimmt man eher ungern einen brandneuen Prozess.
Vor allem ist man auch wieder unabhängig und Apples Kunden und Zulieferer machen das auch mit. Apple hat auch den Vorteil, dass man nur Chips für ein vergleichsweise schmales Band an Anwendungszenarios braucht. Ich kann aber nur hoffen, dass sich vielleicht ein paar andere Hersteller von Rosetta inspirieren lassen, das ja doch recht eindrucksvoll gezeigt hat, dass die x86-Herrschaft vielleicht doch nicht so absolut ist, wie man vielleicht dachte. Die ist mir ja doch schon auch ein Dorn im Auge.In meinem Post ging es allerdings nur darum, warum Apple von Intel weg ist. Heutige Intel-CPUs würden sie vielleicht als ausreichend empfinden und den großen Sprung nicht wagen, aber zum Zeitpunkt der Trennung stand Intel schlechter da und hatte überwiegend Versprechen in der Pipeline. Das zu überbieten schien Apple, offensichtlich zu Recht, leicht möglich zu sein.
Scheinbar wird er entweder on- oder offline transkompiliert, das ist, zumindest wenn es erledigt ist, noch mal deutlich schneller als eine Emulation.Ja stimmt,mit der methode wird eine x85 dann emuliert,so das diese Programme auch da dann laufen,nicht wahr?