3D-Trigate: Intels Transitoren werden dreidimensional

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu 3D-Trigate: Intels Transitoren werden dreidimensional gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 3D-Trigate: Intels Transitoren werden dreidimensional
 
Was soll der Satz "wer ein gutes gedächtnis hat" mir geht das ziemlich auf die nerven, das in jedem 5ten artikel bei euch, man immer unterschwellig doof gemacht wird. was ist los mit euch?
erstens habe ich vor langer zeit davon mal was mit bekommen
zweitens habe ich es mir bis heute merken können
drittens bin ich trotzdem überrascht

schön abend
 
Gutes Timing, erst vor kurzem hat TSMC das nahende Ende des Moore'schen Gesetzes vorausgesagt - genau solche Innovationen werden nötig sein, um dem entgegenzuwirken. Denn lange wird man durch kleinere Fertigungsprozesse keinen Spielraum für Leistungsteigerungen haben, Transistoren im einstelligen nm-Bereich wird es wohlmöglich nicht geben, da zu aufwendig/innefizient - und wir sind schon bald bei 22nm.
 
Wau, da habt ihr aber das wirklich gut für den Laien erklärt. Hätte es nicht einfach und doch zugleich treffend erklären können :daumen:

Was mich aber gerade noch interessiert, hat intel bereits auf UV-umgestellt, oder werden Sie das mit der 22nm Fertigung machen?

Wenn ja, würde ich darin auch ganz klar einen Grund dafür sehen, das Sie es geschafft haben, Source-Drain hochkant zu stellen.
 
Was soll der Satz "wer ein gutes gedächtnis hat" mir geht das ziemlich auf die nerven, das in jedem 5ten artikel bei euch, man immer unterschwellig doof gemacht wird. was ist los mit euch?
erstens habe ich vor langer zeit davon mal was mit bekommen
zweitens habe ich es mir bis heute merken können
drittens bin ich trotzdem überrascht

schön abend

Ruuhig, Brauner :ugly:
Kein Grund sich angegriffen zu fühlen und so aggressiv zu reagieren ;)
 
Das klingt mal sehr interessant und wird bestimmt auch voll einschlagen!
Ich habe nur leider etwas Bedenken, dass AMD diese Technik bestimmt erst 2-3 Generationen nach BD einführen wird und Intel wieder auf und davon ist...
 
also wenn dass alles laut theorie funktioniert, wird ivy bridge ein stromsparwunder verglichen mit dem derzeit erhältichen,
aber abwarten und tee trinken, also vom release her, würd mich das schon sehr reizen, da ich mir in dem zeitraum ein neues system zusammenstellen wil
 
Ich habe nur leider etwas Bedenken, dass AMD diese Technik bestimmt erst 2-3 Generationen nach BD einführen wird und Intel wieder auf und davon ist...

Wieso wieder? Ich habe doch arge Bedenken dass der BD intels Sandy überhaupt gefährlich werden kann... intel weiß das wohl besser als wir und die halten es nicht für nötig einen 8 Kerner rauszubringen (vorerst) wobei AMD das mit dem BD grob gesagt ja macht (auch wenns nicht wirklich 8 Kerne sind)... die scheinen sich ihrer Sache sehr sicher.

Wenn Ivy wirklich schon mit dieser Technik kommt dürfte das Ding mal wieder voll einschlagen... kleinere Fertigung UND neue Technologie dürfte selbst bei fast gleich bleibender Architektur wieder viel Spielraum für mehr Performance (besonders pro Watt) bieten.
 
Meine ganz private Meinung ist ja: AMD geht volles Risiko und hofft auf Parallelisierung. Anwendungen, die viele Threads aufreißen und womöglich noch die APU fordern, werden auf Bulldozer hervorragend laufen. Aber wehe, wenn nicht. Es hilft aber nix: Bald werden wir es konkret wissen. Alles andere ist Spekulation.
 
Wieso wieder? Ich habe doch arge Bedenken dass der BD intels Sandy überhaupt gefährlich werden kann... intel weiß das wohl besser als wir und die halten es nicht für nötig einen 8 Kerner rauszubringen (vorerst) wobei AMD das mit dem BD grob gesagt ja macht (auch wenns nicht wirklich 8 Kerne sind)... die scheinen sich ihrer Sache sehr sicher.

Wenn Ivy wirklich schon mit dieser Technik kommt dürfte das Ding mal wieder voll einschlagen... kleinere Fertigung UND neue Technologie dürfte selbst bei fast gleich bleibender Architektur wieder viel Spielraum für mehr Performance (besonders pro Watt) bieten.
Also aktuell ist Intel nicht auf und davon! Klar haben sie einen Vorsprung aber der ist noch im erträglichen Bereich und außerdem sind die AMD Preise wirklich sehr okay (gerade die Hexa-Cores - da kann man sich nicht beschweren)! Wenn ich da an die Einführung vom C2D denke bzw. den nächsten Monaten... Da war es in meinen Augen deutlicher...

Ich kann auch nicht einschätzen, ob Intel die Leistung vom BD richtig einordnet! Solange es nix handfestes gibt, kann Intel auch nur anhand des vorhanden Spekulieren! Letztendlich wird der BD mit der FX Serie doch eh nur was für den HighEnd Bereich und wenn dort AMD mehr CPU´s verkauft wird das Inten kaum merken... das ist doch der kleinste Teil der Abnehmer!
Der Llano Bereich wird vllt. schon entscheidener! Da hat AMD die bessere Grafikeinheit (im Vergleich zu SB) aber auch weniger CPU Leistung...

Mal schauen wie sich das alles entwickelt :)

Edit// @PCGH_Andreas: Der BD != APU!
Der BD ist ein "reiner" CPU! Lediglich der Llano wird eine APU! Erst die nachfolgende Generation vom BD wird auch im HighEnd Bereich eine APU :)
 
Ja, Du hast ja recht. :) Ihr wisst was ich meine.
tja in einem monat werden wir mehr wissen, wird ja zeit das amd auch mit was neuem kommt, das derzeit erhältliche, ist nur durch den Preis attraktiv, und wenn man leistung will, führt nix an intel vorbei, so leid mir das für die amd jünger tut, aber vlt ist bd ja ähnlich schnell wie SB
 
Klingt auf jeden Fall sehr interessant. Die Frage ist ob Intel da die vollmundigen Versprechen auch hält.

Aber vermutlich werden sie zumindest den Abstand zu AMD wieder vergrößern können der ja mit Bulldozer etwas schmelzen sollte.

Hoffen wir mal dass diese ganz neue Bauweise nicht zum nächsten Pentium-Bug führt, denn bei etwas so umgewälzen kann das viel schneller passieren.
 
Sicher übertreiben Intel bei ihrer PR, jedoch glaube ich den Aussagen Intels dennoch bei weitem mehr als denen von AMD oder nvidia.
Wenn die Vorteile des Tri-Gate-Transistors annähernd stimmen, könnte das ein vergleichbarer Sprung wie vom P4 auf den C2D werden.
Wahnsinn.
 
Ein Wafer wurde kurz in die Kamera gehalten auch lauffähige Engineering Samples hatte man auch dabei.
Ein "auch" zu viel.

Das hört sich vielversprechend an, wie Intel im Video erwähnt könnte dies kleinere Größe in Mobilen Geräten zur Folge haben, immer her damit.
 
Meine ganz private Meinung ist ja: AMD geht volles Risiko und hofft auf Parallelisierung. Anwendungen, die viele Threads aufreißen und womöglich noch die APU fordern, werden auf Bulldozer hervorragend laufen. Aber wehe, wenn nicht. Es hilft aber nix: Bald werden wir es konkret wissen. Alles andere ist Spekulation.
Das doofe ist nur: man ist ja nicht nur einmal mit dem Trendsetting auf die Nase gefallen und musste dann zurückrudern bzw hat die Transistorfläche jahrelang umsonst mitgeschleppt. 3Dnow, 64 Bit etc.

Außerdem lassen sich manche Dinge eben nicht parallelisieren. Und drittens: der Wechsel zu vielen Cores/Threads bzw bis das die Software ordentlich ausnützt, vergehen noch viele viele JAHRE. Das hätte bei AMD mal wer merken müssen. und bis dahin hat Intel das Konzept längst besser kopiert, wie schon beim integrierten Memorycontroller, der integrierten Grafik auf dem Prozessor uvm.
Bulldozer muss einfach nochmal so knallen wie der Athlon( und der 64er erst). Aber da war ja der P4 eine Enttäuschung damals... was Nehalem, Sandy Bridge und Ivy Bridge nicht sein werden (außer man erwartet sich von Ivy Bridge jetzt unmögliches)
Sicher übertreiben Intel bei ihrer PR, jedoch glaube ich den Aussagen Intels dennoch bei weitem mehr als denen von AMD oder nvidia.
Wenn die Vorteile des Tri-Gate-Transistors annähernd stimmen, könnte das ein vergleichbarer Sprung wie vom P4 auf den C2D werden.
Wahnsinn.
das waren ja 2 völlig verschiedene Architekturen. Du meinst eher von 65 auf 45 nm...
 
Das doofe ist nur: man ist ja nicht nur einmal mit dem Trendsetting auf die Nase gefallen und musste dann zurückrudern bzw hat die Transistorfläche jahrelang umsonst mitgeschleppt. 3Dnow, 64 Bit etc.

Außerdem lassen sich manche Dinge eben nicht parallelisieren. Und drittens: der Wechsel zu vielen Cores/Threads bzw bis das die Software ordentlich ausnützt, vergehen noch viele viele JAHRE. Das hätte bei AMD mal wer merken müssen. und bis dahin hat Intel das Konzept längst besser kopiert, wie schon beim integrierten Memorycontroller, der integrierten Grafik auf dem Prozessor uvm.
Bulldozer muss einfach nochmal so knallen wie der Athlon( und der 64er erst). Aber da war ja der P4 eine Enttäuschung damals... was Nehalem, Sandy Bridge und Ivy Bridge nicht sein werden (außer man erwartet sich von Ivy Bridge jetzt unmögliches)
Mit 64 Bit war AMD früh dran. Das ist ja zum einen gut, zum anderen hatte man kaum nutzen davon. Trotzdem würde ich sagen: Gute Sache, AMD. Einer muss die Lanze brechen. Aber auch heute ist 64 Bit für die breite Masse nur mäßig spannend. ich sag trotzdem: Danke an AMD.

AMD ist "IMHO" in einer Position, in der man Risiko gehen muss. Die CPUs sind eher für Sparfüchse interessant, viel zu verlieren hat man nicht, wenn es um die Leistung geht. Vielleicht rockt Bulldozer im Serverbereich die Hütte. Da ist die Marge gut, das hilft AMD. Apropos ICM: Hat AMD eingeführt, alle haben geflucht, aber am Ende war's ne gute Sache. Ja, Athlons waren zickig mit dem IMC, aber es war der richtige Weg.

Bulldozer wird das Rad wohl nicht neu erfinden, aber vielleicht lohnt es sich doch. Es wird aber sicher nicht leicht. Intel hat nen Lauf. Wir wissen aber alle: Das kann sich schnell drehen. Das ganze Fanboy-Gezicke ist da völlig fehl am Platz. Schon morgen könnten GPUs auf CPUs extrem wichtig werden und schon sitzt AMD mal ganz easy am Drücker. Es bleibt weiter spannend.

ja glaub ich. damit die User mit ihren Usernews nicht wieder schneller sind ;)
Waren sie, aber der Inhalt ist dann doch eher überschaubar gewesen. :) Davon ab haben wir gefühlt (ohne mich selbst loben zu wollen) den längsten, ausführlichsten und einsteigerfreundlichsten Artikel am Start.
 
Zuletzt bearbeitet:
Zurück