Details zu Ivy Bridge: Namensschema und TDP aufgetaucht

über zwei Stunden? Was würd ich mich freuen.
Einen 1080p Film in H.264 in maximaler Qualität von 50GB auf sagen wir mal 15GB zu konvertieren dauert je nach Film locker mal 20-25 Stunden - da lohnt sich Ivy umso mehr.
Ich will einfach nicht diese billig-Settings nutzen die die Programme ab Werk eingestellt haben (oder CUDA Software da ists das gleiche), da ist man zwar in 2 Stunden durch aber die Qualität kann man auch mit der halben Dateigröße haben wenn man "richtige" Einstellungen wählt... dann dauerts halt maln Tag :ugly:
Selber schuld wenn man sowas nur über die CPU laufen lässt. xD

Ich binde mittlerweile standardmässig für HQ Encodes meine GTX 480 AMP! mit ein (fragt nicht, wofür genau : P), welche den Vorgang mehr als spürbar beschleunigt (Standardsettings hauen aber wie schon erwähnt Kompressionsverluste ohne Ende rein - unschön), trotzdem dauern "saubere" Encodes je nach Grösse der Datei immernoch etliche Stunden ... Nichts desto trotz lohnt auch 'ne fixere CPU, so sie denn mit neuen Befehlssätzen kommt aus welcher Software ihren nutzen ziehen kann. Trotzdem ist für "Brute Force Computing" inzwischen eine zusätzliche GPU wirklich die bessere Wahl, bin nach schlechten Erfahrungen mit einem GTX 285er Gespann (Mikrogeruckel in Spielen >_>) zwar erklärter Mulit-GPU-Feind, aber für Berechnungen abseits von Spielen würde eine zweite Karte doch irgendwie Sinn machen ... naja, erstmal Kepler abwarten. ^^
 
Selber schuld wenn man sowas nur über die CPU laufen lässt. xD

Ich habe beinahe alle erhältlichen H.264 encoder auf CUDA Basis probiert.
Das Ergebnis ist qualitativ sichtbar schlechter als x86 basierte Encoder da die CUDA/GPU beschleunigten keine der wirklich rechenintensiven Funktionen des Codes vollständig unterstützen (weniger refFrames, weniger SubpixelRefinement, kleinere MotionEstimationRange und vieles mehr) und dem Nutzer auch nicht wirklich die Kontrolle über den Encoder geben, viele Dinge kann man erst gar nicht verändern weil sie nicht ini CUDA implementiert worden sind - daher sind diese Encoder keine alternative für mich.

Und nebenbei erwähnt: wenn ich die Qualität des CPU Encoders so weit reduziere dass er mit den gleichen Einstellungen wie die GPU rechnet ist die GPU auch nicht mehr wesentlich schneller ;)

Vielleicht wirds ja demnächst irgendwann mal richtig gute Encoder für die GPU geben und Kepler noch nen Zahn zulegen dann wage ich wieder einen Versuch...
 
Ich habe beinahe alle erhältlichen H.264 encoder auf CUDA Basis probiert.
Das Ergebnis ist qualitativ sichtbar schlechter als x86 basierte Encoder da die CUDA/GPU beschleunigten keine der wirklich rechenintensiven Funktionen des Codes vollständig unterstützen (weniger refFrames, weniger SubpixelRefinement, kleinere MotionEstimationRange und vieles mehr) und dem Nutzer auch nicht wirklich die Kontrolle über den Encoder geben, viele Dinge kann man erst gar nicht verändern weil sie nicht ini CUDA implementiert worden sind - daher sind diese Encoder keine alternative für mich.

Und nebenbei erwähnt: wenn ich die Qualität des CPU Encoders so weit reduziere dass er mit den gleichen Einstellungen wie die GPU rechnet ist die GPU auch nicht mehr wesentlich schneller ;)

Vielleicht wirds ja demnächst irgendwann mal richtig gute Encoder für die GPU geben und Kepler noch nen Zahn zulegen dann wage ich wieder einen Versuch...
Man kriegt da schon ein akzeptables Ergebnis hin, aber dass ein reiner CPU Encode genauer betrachtet hübscher wirkt stimmt schon .... nVidia müsste da eigentlich ein Interesse daran haben dass mehr auf die GPU gesetzt wird, die Rechenleistung ist ja da.

Liebäugele ja auch schon seit längerem mit dem SBE deswegen .... wenn dann aber eine 8 Kern-Server Variante, und die geht ins Geld.
 
Intel selbst hat ja Sprüche abgelassen wie "IB wird das doppelte leisten können bei gleicher Leistungsaufnahme". Selbst wenn das übertrieben ist, so könnte ich mir 50% mehr Takt bei gleicher Leistungsaufnahme schon vorstellen. D.h. hier hätte man immer 50% mehr Leistung.
Das SB-E Topmodell schafft nur dann 40-50% mehr Leistung, wenn auch alle seine sechs Kerne ausgenutzt werden. Hier hätte man also das gleich Szenario wie bei Bulldozer vs SB: lieber weniger Kerne, die das gleiche leisten in Multi-Threading Anwendungen und dafür aber wesentlich mehr Leistung bei Single-Threads.

Von daher kommt es mir so vor, als würde Intel den Takt für IB CPUs absichtlich niedrig ansetzen, damit sie die SB-E Produkte nicht gefährden. Warum sonst sollten sie IB nun ins gleiche Namensschema zwängen wie die SB-E, wäre ja schon komisch wenn ein i7-3700 IB schneller wäre als ein i7-3800 SB-E. Ich denke, Intel bringt nur deshalb keinen 95W IB, da sie sonst nen 6-Kerne SB-E lächerlich machen damit (ähnlich wie heute der 2600K gegen nen Gulftown).

Was mich daher brennend interessiert ist das OC-Potenzial von IB. Oder gibt es nen Grund, weshalb man ihn nicht auch auf (deutlich) höheren Takt bringen könnte als SB oder SB-E? An der Leistungsaufnahme kann es ja anscheinend nicht liegen.

Naja klar ist nur, dass sich das Aufrüsten für Spieler mit ner Single-GPU von nem SB aus nicht lohnt. Denn wie gesagt, wird IB 1. anscheinend (absichtlich?) nicht schneller und 2. kenne ich kein aktuelles Spiel, wo ne Single-GPU durch nen SB Quad in Full HD und AA ausgebremst werden würde und ich kann mir nicht vorstellen dass die nächste Graka-Gen doppelt so schnell wird.
 
Von daher kommt es mir so vor, als würde Intel den Takt für IB CPUs absichtlich niedrig ansetzen, damit sie die SB-E Produkte nicht gefährden.

Darüber habe ich auch schon nachgedacht. Am takt wird sich wohl sehr wenig ändern (vielleicht die obligatorischen 100 oder 200 MHz mehr um etwas Mehrleistung zu erzeugen), daher rührt dann wohl die gesunkene TDP.

Falls es sonst keine limitierenden faktoren gibt (was ich zumindest im "leichten" OC Bereich auch nicht vermute) hat Ivy wohl das Potential ein ziemliches OC-Wunder zu werden :D

0,1-0,15v mehr vCore, nen guten Luftkühler drauf, Multi hoch und ab gehn die 5GHz :ugly:
 
Das neue Topmodell der kommenden Ivy Bridges (angeblich um 10-20% schneller), der i7 3700(K), soll eine TDP von nur 77 Watt haben, obwohl der bereits als sehr genügsam geltende aktuelle Sandy Bridge i7 2600K bereits mit nur 95 Watt TDP daher kommt?! Hui, Hut ab, Intel ..... SO macht man das, AMD! SCHNELLER UND SPARSAMER als der Vorgänger! xD
Und ich gammel noch mit meinem 920er rum :ugly:


MfG
fac3l3ss
 
@Alk: jo, wie schon meinte, deutet ja gerade das Namensschema darauf hin, wo sich die CPUs leistungsmäßig einordnen werden. Und zwischen nem 2700K und dem kleinsten SB-E (3800K?) dürfte imho eh nicht so viel Luft liegen. D.h. die IB Top-Modelle würden sich irgendwo in diese kleine Lücke reinquetschen müssen.

Und wenn alles stimmt mit dem angeblich 50% geringeren Verbrauch und die kleinere Fertigung nicht für irgendwelche sonstigen Störungen sorgt, warum sollten nicht sogar noch deutlich mehr als 5 GHz unter Luft drin sein? Ich mein ein SB schaffts ja heute schon auf 4,5 GHz unter Luft, wohin solls denn da gehen, wenn der Verbrauch wirklich so viel niedriger ist :D?

Ok, ich kann Intel schon verstehen, kein normaler Nutzer braucht heute mehr Leistung als SB bietet, vor allem kein Spieler. Ein deutlich niedrigerer Stromverbrauch ist da schon ganz nice bei leicht gestiegener Leistung. Frag mich nur, wieso die dann jetzt im High-End nochmal die "alte" Architektur raus bringen, wenn im IB anscheinend so viel mehr Potenzial liegt. Ist das OC-Potenzial wirklich so gut, wie man vermuten kann, macht das den i7-3960 für Übertakter imho sofort wieder überflüssig.
 
Ivy Bride und Sockel 1155 ist alles schön und gut, sieht man immer wieder auf den Folien...

Aber gibt es IRGENDWO auch nur einen Hinweis darauf, dass man Ivy Bridge auch zeitnah (oder überhaupt) auch auf der Sockel 2011 Platform erwarten darf?

Ich meine wie doof ist das denn: Man kauft sich in kürze ein schickes X79 System, damit man auch irgendwann einmal 6-Kerner einsetzen könnte und ganz allgemein lange was davon hat und dann kommen in einigen Moanten die Ivy CPUs für Sockel 1155 die die teuere SB-E Platform ganz alt aussehen lassen...????
 
Zuletzt bearbeitet:
Von der TDP ja, von der Leistung her nein. Die IGP aus dem A8 3850 ist jetzt schon fast doppelt so schnell wie die aus dem 2500K. Eine Verdopplung der Leistung werden die nicht erreichen.

Die Ivy IGP reicht zu allem außer Gamen aus. Genauso wie di Sandy.
Und ich redete sowieso mehr von der TDP im Bezug auf die CPU Leistung ;)
 
Ich meine wie doof ist das denn: Man kauft sich in kürze ein schickes X79 System, damit man auch irgendwann einmal 6-Kerner einsetzen kann und lange was davon hat und dann kommen in einigen Moanten die Ivy CPUs für Sockel 1155 die die teuere SB-E Plaform ganz alt aussehen lassen...????
Ich versteh es wie gesagt zwar auch nicht, warum die nicht auch gleich auf IB setzen, wenn der Sockel eh erst so krass spät raus kommt. Aber vllt möchte Intel das bisherige Schema einfach beibehalten: ein gnadenlos überteurter Sockel mit im Optimal-Fall (Multi-Threading) vllt 20-40% mehr Leistung, im Normalfall aber genauso schnell, wenn nicht gar langsamer und daneben ein günstiger Sockel mit performanten und außerdem OC-freudigen CPUs.

Gab ja einige die sich trotz 1155 noch 1366 gekauft haben^^. Und auch die 1156er Quads waren jetzt net wirklich schlechter als die vom 1366er, nur günstiger.
 
Ich meine wie doof ist das denn: Man kauft sich in kürze ein schickes X79 System, damit man auch irgendwann einmal 6-Kerner einsetzen könnte und ganz allgemein lange was davon hat und dann kommen in einigen Moanten die Ivy CPUs für Sockel 1155 die die teuere SB-E Platform ganz alt aussehen lassen...????
SB-E wird mit sicherheit nicht alt aussehen gegen Ivy. Da kann man schon lange davon zerren. Aber Intel überflutet regelrecht den Markt und da kommt man sich als Käufer verarscht vor, weil man nach spätestens 12 Monaten ein "altes" Model besitzt. Ich persönlich würde jetzt weder Sandy noch Sandy-E kaufen um später dann aufzurüsten. Ist doch was Intel will. Das halbe Jahr kann man überbrücken und auf Ivy warten.
Dazu kommen die Leute, die ein P67 oder ein Z68 Board besitzen. Werden die durch ein Bios Update vollständig kompatibel sein? Und natürlich wird Zeitnah ein "Z 77" Board raus kommen, damit die Hardware Hersteller auch was davon haben.
Übrigens die 6-Kerner werden sofort mit erscheinen des 2011 Sockels releast und ich tippe daß intel die 8-Kerner erst mit Ivy-E auf die Plattform 2011 los lässt.
 
Wie ist das eigentlich jetzt mit dieser IGP ?
Kann man diese ausschalten und nur die eigene Grafikkarte nutzen oder wie muss man das verstehen?
Im Grunde braucht man dann auch keine seperate Grafikkarte ab Sandybridge mehr?
Kann man die Leistungen auch bündeln? Also IGP + Geforce...?
 
Man kann die Leistung nicht bündeln.
Man kann weiterhin eine dedizierte Grafikkarte verwenden.
Wenn man das macht schaltet siche die IGP automatisch ab.
 
Sind interessante News...wird nächstes Jahr auch mein Schätzchen werden...Im Frühjahr kommt ein (schon günstig ersteigerter 2120 als Platzhalter...., wenn ich nur schon wüsste, welches Board....,:ugly:
Kommt Zeit, kommt Herbst,Winter,Frühjahr (naja, spätestens Anfang April w+sste ich schon gerne Bescheid..:D...)
 
AMD braucht die Next-Gen Bulldozer eigentlich gar nicht erst zu releasen. Angesichts des feineren Fertigungsprozesses und der Verwendung von Tri-Gate Transistoren bei den Ivys, wird AMD da keine realistische Chance haben, auch nur annähernd die Leistung der Ivys zu erreichen zu können. Außerdem wird Intel die Ivys viel wirtschaftlicher produzieren können, da man für die gleiche Anzahl an Transistoren, weniger Fläche brauchen wird als AMD. Ich schätze, dass die Ivys den Next-Gen Bulldozern wieder ca. 20 bis 40% vorraus sein werden, was die Rechenleistung betrifft. AMD wird sich zudem schwer tun, TDP und Leistungsaufnahme der aktuellen Bulldozer-Generation zu unterschreiten. Selbst wenn man TDP und Leistungsaufnahme um 30% reduzieren könnte, was schon relativ viel wäre und eigentlich kaum zu schaffen ist, werden die Ivys noch einen großen Vorsprung haben.
AMD sollte die Piledriver streichen und die ganzen Entwicklungskapazitäten auf Steam Roller konzentrieren.
 
Ich liebäugle auch schon mit einer Ivy, wird wohl ein 3700k oder eventuell ein xeon werden.
die 77 W TDP sind schon ein schöner Wert, die lassen sich sicher sehr leise kühlen.
 
Zurück