News Nvidia sieht das Ende von Moore's Law

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia sieht das Ende von Moore's Law gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Nvidia sieht das Ende von Moore's Law
 
Wen kümmert's, wenn ne Software-Bude was zu Moore's Law äußert?!
Wenn meinst du mit Software-Bude Epics oder Nvidia
Die Software Programierer betrifft Moore's Law in der hinsicht dass sie die Programme für diese Prozessoren schreiben müssen und dies wird nunmal schwieriger je komplexer der chip ist.Deshalb findet Epics anscheinend das die fermi chips zu komplex und dementsprechend sehr schwer zu programmieren sind.Ich wüsste nur gern wiso die von epics den chip als veraltet bezeichnen obwohl nach moore's law die "neuen" chips noch komplexer sein müssten.
 
Wenn meinst du mit Software-Bude Epics oder Nvidia
Die Software Programierer betrifft Moore's Law in der hinsicht dass sie die Programme für diese Prozessoren schreiben müssen und dies wird nunmal schwieriger je komplexer der chip ist.Deshalb findet Epics anscheinend das die fermi chips zu komplex und dementsprechend sehr schwer zu programmieren sind.Ich wüsste nur gern wiso die von epics den chip als veraltet bezeichnen obwohl nach moore's law die "neuen" chips noch komplexer sein müssten.
Mit komplex meint er kompliziert und nicht "groß". die chips werden nach moores gesetzt "größer" und nicht komplizierter. der fermi nach epic ist aber zu kompliziert...
 
tja wo hin die reise wohl geht....
das kann wohl kaum wer sagen
dazu ist noch zu sagen das sich eine ganze reihe von autoren,pfantasten und schriftsteller (und die die das ganze verkaufen) sich nur sehr selten so etwas wie das internet vorgestellt haben.
es kamm in ihren zukunftsvisionen einfach nicht vor.
 
Wenn meinst du mit Software-Bude Epics oder Nvidia?


Nvidia hat sich vor nicht all zu langer Zeit selbst als Software-"Bude" bezeichnet -> so guess what

Wenn die Kombination aus CPU mit integrierter GPU und zusätzlicher Grafikkarte im klassischen Sinne ordentlich unterstützt würde und man in diese Richtung weiter entwickeln würde, wäre es eine unschlagbare Kombination aus Desktop und 3-D/Gaming System.
Je nach Situation könnte der entsprechende CHip tätig werden und zb Physikeffekte über die integrierte Grafikeinheit berechnet werden - was einen vllt mal einheitlichen Standard hervorbringen würde.

Somit wär Moor´s Law also doch recht wacklig aufgestellt.
Auch muss man bedenken, dass vor 40 Jahren von Multi-CPUs sicher noch nicht mal geträumt wurde.

MfG

Jara
 
Geht die Sache schonwieder los? Das behaupten die doch schon seit Jahren und Intel halt dazu das Gegenteil. Wollen die den Konflikt mit Intel noch weiter ausbauen oder ist heute nur wieder "ich lehn mich heute mal wieder ganz weit aus dem Fenster"-Tag? Man braucht noch immer beides und das wird sich so schnell nicht ändern. Wenn es soweit ist, dass eine Änderung kommt, dann werden wir das merken und müssen es nicht Jahre vorrausspekulieren. Am Ende wollen sie ja nur ala "ich habs euch doch gesagt" dastehen.
Solang Windows 7 noch nicht auf der Grafikkarte läuft oder nen Spiel komplett auf der CPU in voller Pracht, brauch eigentlich keiner "ich habe eine Lösung" schreien.
 
Die Leute bei nVidia sollten sich lieber auf die Entwicklung Ihrer Chips konzentrieren. Es reicht schon, dass einer, Jen Sung Huang ( oder wie man dieses Großmaul schreibt) immer seinen geistigen Durchfall von sich gibt.
Ich fühl mich bei diesen Schwachmaten immer leicht an die Schleimsch***er von der FDP erinnert :lol:Aber Spaß bei seite. Nvidia hat andere Probleme als das Moorsche Gesetz, zumal das ja nicht deren Problem ist, das sie keine CPUs entwickeln, sondern nur GPUs, welche onehin mehr auf viele Rechenkerne als auf hohe Taktraten setzen.
 
wäre es eine unschlagbare Kombination aus Desktop und 3-D/Gaming System.
Je nach Situation könnte der entsprechende CHip tätig werden und zb Physikeffekte über die integrierte Grafikeinheit berechnet werden - was einen vllt mal einheitlichen Standard hervorbringen würde.

bis sowas aber eintrifft vergehen sicher noch Jahre
aktuele IGPs von intel wären mit der aufgabe hoffnungslos überfordert
 
Geht die Sache schonwieder los? Das behaupten die doch schon seit Jahren und Intel halt dazu das Gegenteil. Wollen die den Konflikt mit Intel noch weiter ausbauen oder ist heute nur wieder "ich lehn mich heute mal wieder ganz weit aus dem Fenster"-Tag?

Ich tippe auf b)
""Moore's Law"" abzustreiten oder zu belegen ist sowieso ein bißchen witzlos. Im laufe der Jahre wurde das so oft umformuliert, dass man sich einfach die Definition raussuchen kann, die stimmt oder nicht stimmt - je nachdem, was man gerade will.
 
Wass diese Nvidia Grossmaeule erzaehlen interessiert micht nicht. Nach allem was die so alles in letzter Zeit von sich gegeben haben.:schief:
 
Manchmal kommt mir nVidia so vor als würden da nur Kinder arbeiten, argern bzw. streiten sich zumindest so wie welche :D
 
Alles, was schiefgehen kann, wird auch schiefgehen!!!:)
Murphy´s Gesetz wird nie am ENDE sein:)

Und wie man sieht ist bei dem letzten SHRINK ja einiges daneben gegangen:)
So wie die Ausbeute der 45nm GPU´s!
Wie soll das denn erst bei den 35nm CHIPS werden??





 
Alles, was schiefgehen kann, wird auch schiefgehen!!!:)
Murphy´s Gesetz wird nie am ENDE sein:)

Und wie man sieht ist bei dem letzten SHRINK ja einiges daneben gegangen:)
So wie die Ausbeute der 45nm GPU´s!
Wie soll das denn erst bei den 35nm CHIPS werden??


Nenn mir mal eine 45nm GPU. ;)
Und wollen die GPU Hersteller nicht 35nm überspringen und gleich auf 28nm wechseln? Dachte das mal irgendwo gelesen zu haben.

Aber recht hast du wohl schon, die Chips werden immer komplexer und damit nicht fehlerfreier bzw. auch nicht günstiger.
 
Alles, was schiefgehen kann, wird auch schiefgehen!!!:)
Murphy´s Gesetz wird nie am ENDE sein:)

Und wie man sieht ist bei dem letzten SHRINK ja einiges daneben gegangen:)
So wie die Ausbeute der 45nm GPU´s!
Wie soll das denn erst bei den 35nm CHIPS werden??





nur das es um moore und nicht murphy geht :P
 
Wohoot, Nvidia Bashing!

'Hey die sind so blöd ey! Da arbeiten nur kleine Kinder! Die labern Schmarrn wie die FDP! Die 45(!)nm GPUs sind so ein fail!'

Großes Kino ihr Lieben, großes Kino.

Früher hab es hier viel User wie ruyven_macaran mit denen man fachlich diskutieren konnte, und wenn man Glück hatte, dan hat man noch was gelernt. Mittlerweile ist das ganze hier ein bißchen 'meh'...
 
Wohoot, Nvidia Bashing!

'Hey die sind so blöd ey! Da arbeiten nur kleine Kinder! Die labern Schmarrn wie die FDP! Die 45(!)nm GPUs sind so ein fail!'

Großes Kino ihr Lieben, großes Kino.

Früher hab es hier viel User wie ruyven_macaran mit denen man fachlich diskutieren konnte, und wenn man Glück hatte, dan hat man noch was gelernt. Mittlerweile ist das ganze hier ein bißchen 'meh'...

*zustimm* :ugly:
und wenn man was diskutieren möchte, wird man noch als fanboy abgestempelt :schief:
 
Wohoot, Nvidia Bashing!

'Hey die sind so blöd ey! Da arbeiten nur kleine Kinder! Die labern Schmarrn wie die FDP! Die 45(!)nm GPUs sind so ein fail!'

Großes Kino ihr Lieben, großes Kino.

Früher hab es hier viel User wie ruyven_macaran mit denen man fachlich diskutieren konnte, und wenn man Glück hatte, dan hat man noch was gelernt. Mittlerweile ist das ganze hier ein bißchen 'meh'...

Ja ja, früher war alles besser, ich wünsche mir auch immer meine Voodoo1, den Cyrix 6x86er 200+ und mein 56k Modem zurück. Nicht zu vergessen die Mauer...

Nenn mir mal einen Zeitraum, während dem nicht in einem Forum ``gebasht´´ wurde. Gab es immer und wird es immer geben. Und Sprüche wie deine sind auch nicht neu.

Und mal ehrlich: für so manche Aussage von nVidia kann man gar nicht anders als mit den Augen zu rollen. Das fing schon weit vor der Aussage über den Kyro Chip von Power VR an, spätestens seit dieser jedoch hat Big Green bei mir fast alle Sympathie aufgebraucht. Würden die Ingenieure nicht immer mal wieder eine Meisterleistung abliefern, man müsste Nvidiot allein für die Marketingabteilung 24/7 bashen.

PS: Wenn du das Forum und dessen Inhalt bzw. Diskussionen verbessern willst, dann musst DU aktiv werden und mithelfen, statt zu jammern. Die Welt liegt im Wandel und das wird sich garantiert auch nie ändern.

Edit: Was ist so schlimm daran, als Fanboy ``beschimpft´´ zu werden? Solange du noch gute Argumente vorzeigen kannst ist doch alles ok. Und wenn man mal ehrlich ist: ein bisschen Fanboy steckt doch in jedem, jeder kauft von einer bestimmten Marke am liebsten, ob das nun Intel, AMD/ATI, Nvidia oder Asus, Gigabyte und MSI sind ist dabei doch egal.


Nur die Apple-Nazis sind ein Grüppchen für sich, he he he...
 
Zuletzt bearbeitet:
Wenn man von der ursprünglichen Definition ausgeht, hat der Nvidia-Mann recht. Denn Moore sagte einst, dass sich die Transistorzahl alle 18Monate (oder so) verdoppelt. Und was ist daraus geworden? Der i7 hat weniger Transistoren als ein 2 Jahre älterer Penryn-Quad (731Mio vs. 2x 419Mio).
 
Zurück