Intel im Jahr 2022 : 4 Nanometer Fertigung ?

buck, das abschalten von grafikeinheiten ist kein unsin udn macht auch keien imensen treiberprobleme,
nvidia udn ati haben beide die technik längst fertig,
teilweise kann sie eingesetzt werden, die frage ist wieso nicht breitflächig?

und entwickeln? wozu, da kramen wir mal im archiv nehmen nen kern von ner radeon 9500pro, shrinken den auf aktuelle fertigungsgrößen, nehmen den takt udn die spannung passend zurück, fertig,
das sidn keien entwicklungskosten sondern einfahc nur mal praktisch denken,
bei den cpus wäre das noch einfacher ;) einfach alle prozesse mit kernzugehörigkeit 0 versehen udn die restlichen kerne aus, fertig
 
Fakten die OT und dadurch uninteressant sind ja.
Es ist uninteressant, dass deine Aussage "ein heutige System verbrauch im Idle soviel Strom wie ein System von vor 10 Jahren unter Volllast" absoluter Bullshit ist? :ugly:

Ah, ja...

Einbildung ist auch Bildung, oder wie war das...
Richtig, beweist du immer wieder sehr gut.

Fakt ist das der Verbrauch mangels wirklich effektivem Einsatz von Sparmechanismen sehr oft viel zu hoch ist - höher als eigentlich nötig. Das weiß AMD, Intel, Nvidia und ATI usw, doch du weißt es natürlich besser.
Also ich finde den Unterschied eines Phenom2 z.B. von 120W (Volllast) auf weniger als 12W (idle) als sehr gut - ist immerhin eine Senkung um über 90%. Was wäre denn nun ein ein akzeptabler Verbrauch für einen P2 mit 120W unter Volllast im Idle? Immer noch keine einzige konkrete Zahl von dir, billigster Populismus :daumen2::daumen2:

Ziehst dich daran hoch das beim verlinkten Test C&Q usw deaktiviert wurde, dabei spielt das überhaupt keine Rolle - oder denkst du der Verbrauch eines kompletten Systems halbiert sich wenn man zb. beim X2 Energiesparmodell C&Q deaktiviert? Lachhaft. Ich möchte Computer die wirklich nur das verbrauchen was für die geforderte Leistung nötig ist, und das ist im Moment eben nicht der Fall - auch wenn du anderer Meinung bist. (was dein gutes Recht ist)
Ja genau, wir deaktivieren alle Stromsparmechanismen und wundern uns dann, dass ein aktuelles System ach so viel Strom verbraucht - wie bescheuert ist das denn? Ich fahr dann morgen mit meinem Auto auch nur noch im ersten Gang durch die stadt und jubel den Motor an die Ampel die ganze Zeit auf Vollgas - Scheiss modernes Auto aber auch, was schluckten das so viel?!?!?

Ich frag mich echt wen du mit deinem Gelaber beeindrucken willst. Wir deaktivieren sämtliche Stromsparmechanismen und behaupten dann, dass diese ja nutzlos sind. Du hälst einen echt für dumm :stupid:

Im Übrigen bezog ich mich oben auf den (unter Last) 50 Watt sparsameren 755, aber wie solltest du auch von alleine darauf kommen. Und ja, verglichen mit einer CPU die fast das doppelte an Strom benötigt ist es für mich einer der sparsameren.
Komisch, vor zwei Posts schreibst du noch vom Athlon X2E, hab ich mich wohl verlesen, wie dumm von mir - ach ne, steht da wirklich so, mh :rolleyes:

Spezifizier doch bitte mal wovon du genau sprichst. Und dann sag mir, welcher Idleverbrauch nun DEINER MEINUNG nach angemessen wäre. Auf diese Frage warte ich bereits seit 5 Posts. Ist das dein üblicher Diskussionsstil?

Danke, genau das habe ich schon im ersten Posting gesagt. Nur das er nicht zu schlecht im Sinne von unwirtschaftlich ist, sondern einfach nur im Sinne von (in erster Linie für Hersteller, nicht den Konsumenten) weniger wirtschaftlich. (was mit der Einführung in den Massenmarkt auch wieder hinfällig ist)
Auch für den Konsumenten, rechne mal aus wielange es dauert bis du 10 oder 20€ Aufpreis mit einem geringeren Stromverbrauch wieder heraus hast. Verdammt mieses GEschäft.

Wobei das bei dir ja eh nicht klappt, wo du alle Stromsparmechanismen so konsequent abschaltest. Da ballert dann ja trotzdem der große Chip ständig vor sich hin :rolleyes:

Dieser Teil hier ist leider wieder Unsinn, nichts weiter. Es ist auch mMn nicht nötig darauf weiter einzugehen...
Das sollte ich eigentlich mit deinem ganzen Post machen, denn der ist (Zitat) "Unsinn". Aber ich finde solch einen "Unsinn" wie du ihn hier verzapfst DARF man einfach nicht so ungeschrieben stehen lassen, weil er eben (siehe Links) nachweislich Bullshit ist. Nein, Idiotie gehört nicht an die Macht, nur weil die Leute ohne Ahnung am lautesten brüllen und am Meisten schreiben, sollten sie nicht die Welt regieren ;)

buck, das abschalten von grafikeinheiten ist kein unsin udn macht auch keien imensen treiberprobleme,
nvidia udn ati haben beide die technik längst fertig,
teilweise kann sie eingesetzt werden, die frage ist wieso nicht breitflächig?
Wie ich bereits oben schrieb: Die Zusatzkosten würde man durch die gesparten Stromkosten, selbst bei doppeltem oder dreifachen Strompreis niemals herauskriegen. Zumal die idle-Verbräuche inzwischen dermaßen gedrückt werden, dass die Luft für solche Zusatzchips immer dünner wird. Siehe aktuelle Karten: Eine GTS250 drückt man inzwischen auf unter 20W im idle.
 
Nein, Idiotie gehört nicht an die Macht, nur weil die Leute ohne Ahnung am lautesten brüllen und am Meisten schreiben, sollten sie nicht die Welt regieren ;)
Danke, schöner hätte ich es nicht sagen können.

Daher gehe ich auch nicht auf den Rest deines Postings ein.

Eines möchte ich aber noch loswerden (no response need). Ein paar Postings weiter vorne habe ich einen Link gepostet ( Test: Intel Core i7 950 und 975 Extreme Edition (Seite 29) - 03.06.2009 - ComputerBase ), aus dem du folgendes zitiert hast:

Alle Prozessoren werden in den Leistungstests ohne die Stromsparmodi getestet, um die maximale Performance zu zeigen (dass die Energiesparmodi seit der neuesten Generation zu so gut wie keinen Geschwindigkeitseinbußen mehr führen, ist allerdings bereits im letzten Artikel ausführlich dargelegt worden).
Du meinstes daraufhin:
Bevor du so einen Test verlinkst solltest du vielleicht mal den Text lesen:
Das ist natürlich echt fair, wenn man den Idleverbrauch ohne irgendein Stromsparmodi testen :daumen:
Deine Argumentation ist damit absolut gescheitert. Oder hast du noch wirkliche Argumente und Fakten?
Leider habe ich deinen vermeindlichen Irrtum nicht bemerkt - und ihn einfach übernommen.

Es ist die Rede von "Leistungstests" und "max. Performance". Daher "vermute" ich - gemeint sind die Benchmarks welche die max Leistung/Performance der CPUs aufzeigen sollen. Man hat also (is nur so eine Theorie von mir) lediglich bei den Benchmarks die Energiesparmodis deaktiviert um eventuelle Geschwindigkeitseinbußen durch C&Q/EIST usw ausschließen zu können. Um dies zu verdeutlichen hier ein anderer Link zur Leistungsaufnahme, dort ist der Absatz nämlich auch etwas länger:

Alle Prozessoren werden im Test ohne die Stromsparmodi getestet, um die maximale Performance zu zeigen. Dass die Energiesparmodi seit der neuesten Generation keine große Leistung mehr fressen, ist bereits in den letzten Artikeln ausführlich dargelegt worden. Um jedoch das Einsparpotential der Prozessoren aufzuzeigen, wird die Leistungsaufnahme im Idle und auch unter Volllast mit allen zur Verfügung stehenden Energiesparmodi (C&Q, C1E, usw.) getestet.
Quellen:
Test: Intel Core 2 Quad Q8200s und Q9550s (Seite 30) - 31.03.2009 - ComputerBase
Test: 19 Prozessoren von 50 bis 130 Euro (Seite 30) - 07.08.2009 - ComputerBase
Test: AMD Phenom II X4 965 Black Edition (Seite 29) - 13.08.2009 - ComputerBase
usw...

Soweit ich das erkennen konnte scheinen die Werte sämtlicher CPUs, die auch in einem der anderen Links aufgelistet sind, bei den Idle-Angaben übereinzustimmen. Also entweder spart man durch das aktivieren von Q&C/EIST nicht ein Watt, oder es war auch im von dir kritisierten Link aktiviert.

Guten Tag.

PS. Wenn du mir noch etwas zu sagen hast bitte per PM, hier ist mit OT jetzt besser mal Schluß.
 
Zuletzt bearbeitet:
Wie ich bereits oben schrieb: Die Zusatzkosten würde man durch die gesparten Stromkosten, selbst bei doppeltem oder dreifachen Strompreis niemals herauskriegen. Zumal die idle-Verbräuche inzwischen dermaßen gedrückt werden, dass die Luft für solche Zusatzchips immer dünner wird. Siehe aktuelle Karten: Eine GTS250 drückt man inzwischen auf unter 20W im idle.

mit dem verbrauch kann man schon fast nen ganzes quadcoresystem schon heute im idle betreiben, warum muss eine einzelne graka das verbrauchen?

sorry, nee, das ist sicher ein richtiger schrit, keien frage, aber stillstand ist hier jetzt nicht gefragt, das muss weitergehen.

übrigens,
damit ihrs mir glaubt mit dem quad und 25 w ;)
Quad-Core System unter 25W Idle? Das Motherboard ist entscheidend - Forum de Luxx

mal da linsen

so und nun hab ich genug off-topic geschrieben, fall wir weiter diskutieren wollen sollten wir uns nen eigenen thread dazu aufmachen ;)
 
mit dem verbrauch kann man schon fast nen ganzes quadcoresystem schon heute im idle betreiben, warum muss eine einzelne graka das verbrauchen?

sorry, nee, das ist sicher ein richtiger schrit, keien frage, aber stillstand ist hier jetzt nicht gefragt, das muss weitergehen.

übrigens,
damit ihrs mir glaubt mit dem quad und 25 w ;)
Quad-Core System unter 25W Idle? Das Motherboard ist entscheidend - Forum de Luxx
ähmm ein CPU allein gegen eine komplette Graka ist ein vergleich, wie ein Kraftwagen gegen einen LKW mit Anhänger.
Du müßtest schon CPU+Mobo+Ram vs Graka rechnen, denn die beinhaltet alle diese Aspekte.
 
das ist ein ganzes system, keine cpu!!!!!!!

sry jub stimmt.

Mal eine einfache frage: Mit den undervoltign etc pp, kann man den dafür dann aber nirgendwo anders mehr für gebrauchen. Dann müßte man das wieder zurückstellen. Ok es gibt tolls die können das, aber für den ottonormalverbraucher ist das doch weit weg von realistisch
 
es geht mir ja auch eher darum, es ist technishc ja machbar, warum kann der hersteller sowa snicht gleich integrieren?
zu teuer kanns nicht sein, ob cnq jetzt auf 0,9 oder 0,8v absenkt ist reine einstellungssache....
genauso NB spannungssenkung...

das otto-normalo mit stanndardeinstellungen udn aktivierten stromsparmodi (ab werk) schon ausreichend gut fährt sieht man ja auch, ca. 35w für ein quadsystem im idle sind ja schon ok,
wenn man jetzt die spielegraka noch abschaltet beim win und dfür die igp nutzt wären ebend ca. 40w drin bei nem spielequad unter win,
aber da ist man ja wieder von weg (bescheuerter weise) und so hat man noch mal 20w mehr verbrauch, ergo ca. 60w
 
Daher gehe ich auch nicht auf den Rest deines Postings ein.
Da das alles beweist das du Unrecht hast, wundert mich das selbstverständlich nicht. Aber gut, dann ignoriere ich deine restlichen Ausführungen einfach mal, wird eh nur heiße Luft drin sein.

Wobei mir ja immer noch interessiert, wieviel Strom sparen denn nun im idle sein soll, wenn selbst 90% Einsparung (Phenom2, GTX285, GTS250) nicht genug sind....

mit dem verbrauch kann man schon fast nen ganzes quadcoresystem schon heute im idle betreiben, warum muss eine einzelne graka das verbrauchen?
Vergleiche mal die weiteren Daten (Chipgröße, Rechenleistung usw) miteinander, dann ist das ein Spitzenverbrauch. Zumal man nicht vergessen sollte, dass die Grafikkarte als Gesamtsystem gemessen wird (also Chip + Speicher + Spannungswandler), während z.B. bei einem Quadcoresystem nur die CPU gemessen wird, der Speicher wird über das Mainboard versorgt.

Es sollte doch wohl jedem klar sein, dass ein 40Tonner nunmal mehr Sprit verbraucht als ein Kleinwagen. Wer das nicht will, kann sich ja auch problemlos einen Kleinwagen kaufen -> Atom und Konsorten.
 
buck noch mal auch für dich, die 25w werden als ganzes system unterboten, nicht die cpu alleine!

heißt, cpu, mb, ram, igp, hdd, .... mit netzteilineffizienz
 
es geht mir ja auch eher darum, es ist technishc ja machbar, warum kann der hersteller sowa snicht gleich integrieren?
zu teuer kanns nicht sein, ob cnq jetzt auf 0,9 oder 0,8v absenkt ist reine einstellungssache....
genauso NB spannungssenkung...

Die Hersteller wollen ja Produkte abliefern, die in 100% der Fälle auch funktionieren, denn genau das erwarten die Kunden. Wenn es nur ein paar Chips nicht gefällt, plötzlich 0,1V weniger Spannung zu bekommen, ist der Rufschaden nicht auszumalen.

Also siedeln die Chiphersteller die Spannungen in einem Fenster an, in dem garantiert jeder Chip mitspielt. Und selbst wenn die jeden Chip noch genauer prüfen würden und bei denen, die da mitspielen, die Spannung noch weiter senken würden, ist immer auch die Frage, wieviel das MB denn tatsächlich dem Chip bereitstellt. Wenn das von selbst schon etwas weniger Spannung als vorgesehen anlegen sollte, hast Du möglicherweise ein System, das sich im Idle gerne aufhängt. Das will keiner.
 
Gib doch mal ein Link, ein andere Poster (INU.ID) behauptet ja schließlich, dass so ein heutige System im Idle MINDESTENS (!!!) 100W schluckt. ;)

Augen auf, den Link hat er oben schon gepostet.

Ich habe mit keinem Wort gesagt das jeder - oder wie im Beispiel hier auch die sparsamsten - Rechner 100 Watt Idle verbrauchen, also hör bitte auf mir so etwas zu unterstellen. Lies den Link zu dem Spar-System einfach mal durch, dann fällt dir vielleicht auch auf das zb. spezielle Netzteile (u.a. ein picoPSU), eine 2,5" Notebookfestplatte, ein kleines µATX-Mainboard und KEINE Grafikkarte zum Einsatz kommt. Weiter wurden an verschiedenen Stellen Takte und Spannungen soweit wie möglich bzw nötig reduziert. Also meilenweit von einem High-End System und "einfach nur C&Q einschalten" entfernt. Denkst du ein solches auf "Sparsamkeit" getrimmtes System ist die Regel? Was ich sagte war das auch die gößeren Systeme so sparsam sein sollten/müssten/könnten.

Irgendwie bekomme ich langsam den Eindruck das du nur provozieren willst... o0
 
Zuletzt bearbeitet:
Irgendwie bekomme ich langsam den Eindruck das du nur provozieren willst... o0
Das Gefühl habe ich bei dir auch, wenn du offensichtlich behauptest, dass die Energieeinsparung einer CPU (AMD Phenom II) oder einer GPU (diverse Nvidia) um >90% (Vergleich Volllast - Idle) viel zu wenig wäre - ohne natürlcih meine (sicherlich schon 5x gestellte) Frage zu beantworten, welche Einsparung denn nun sein soll und was ok ist und was nicht usw usf.

Solange werde ich weitere Posts von dir ignorieren, führt eh zu nichts. Mit jemanden der nach dem Motto "Meine Meinung steht fest, verwirr mich nicht mit Fakten!" lebt, kann und braucht man auch gar nicht zu diskutieren. Da gilt der alte Spruch "Dann stirb halt dumm"....
 
Das Gefühl habe ich bei dir auch, wenn du offensichtlich behauptest, dass die Energieeinsparung einer CPU (AMD Phenom II) oder einer GPU (diverse Nvidia) um >90% (Vergleich Volllast - Idle) viel zu wenig wäre - ohne natürlcih meine (sicherlich schon 5x gestellte) Frage zu beantworten, welche Einsparung denn nun sein soll und was ok ist und was nicht usw usf.

lustig ist nur das es möglichkeiten gäbe ca. 99,9% der energie zu sparen, ...also warum wirds nicht getan?
 
lustig ist nur das es möglichkeiten gäbe ca. 99,9% der energie zu sparen, ...also warum wirds nicht getan?
Möglich? Ja. Bezahlbar/Sinnvoll: Eher nicht bis Nein.

Das ist das übliche 10/80 Prinzip: 10% Einsatz und dafür 80% Ergebnis. Die anderen 20% werden dann allerdings richtig teuer und sind dann oft einfach nciht effizent.

Wie ich bereits schon bei Grafikkarten schrieb: Die Ersparnis durch die 20W weniger Stromverbrauch werden in der Laufzeit des Gerätes niemals die zusätzlichen Anschaffungskosten decken können - die logischerweise folgen werden.

Du wirst eine Highend-CPU niemals mit 1W fahren können. Das ist einfach utopisch.
 
Möglich? Ja. Bezahlbar/Sinnvoll: Eher nicht bis Nein.

Das ist das übliche 10/80 Prinzip: 10% Einsatz und dafür 80% Ergebnis. Die anderen 20% werden dann allerdings richtig teuer und sind dann oft einfach nciht effizent.

Wie ich bereits schon bei Grafikkarten schrieb: Die Ersparnis durch die 20W weniger Stromverbrauch werden in der Laufzeit des Gerätes niemals die zusätzlichen Anschaffungskosten decken können - die logischerweise folgen werden.

Du wirst eine Highend-CPU niemals mit 1W fahren können. Das ist einfach utopisch.
Besonders was die meißten nicht beachten. Die einzelteile, die produziert werden müßten, damit es an die 99,9% gehen kann, kosten durch den hohen standart in der produktion ein vielfaches an der Energie, die sie später wieder einsparen sollen.
Es ist immer leicht zu sagen, dann nehmt hochwertigere Materialen, damit retten wir die umwelt. Damit wird oft nur die last von den Haushalten in die Industrie umgescheffelt.
 
Zurück