Intel Ivy Bridge: Benchmarks in chinesischem Forum erschienen

Ohne mehr Leistung gibt es keinen Grund für ein Upgrade, abgesehen vielleicht von z.B. Büros, wo sich das alleine durch Energieeisparungen rechnen kann, Defekten und eventuell Mobilgeräten zugunsten einer längeren Laufzeit

Und das es in Games keinen "Fortschritt" bei der CPU Belastung gibt stimmt auch nicht; es gibt mittlerweile doch einige Spiele, die mit einem Dualcore mehr schlecht als recht laufen

Danneben gibt es, wie gesagt noch einige durchaus "alltagstaugliche" Anwendungen, in denen man nicht genug Leistung haben kann, etwa Packen/Entpacken, Konvertieren oder Videoschnitt; mehr Leistung ist hier zwar vielleicht nicht immer nötig aber doch wenigstens wünschenswert


Warum bringt Ivy Bridge nicht mehr Leistung?
Weil es primär eine Notebook Plattform ist und man möglicherweise auch Konflikte von Ivy-6-Kernern mit 2011 ausschließen will; Ivy 6 Kerner im Notebookbereich wären wohl auch nur im absoluten high-End Bereich interressant, auch 2012 wird bei Notebooks mit Quad wohl praktisch immer die GraKa limitieren, abseits von Anwendungen, in denen die GraKa relevant ist ist der Markt wohl nicht allzu groß, vor allem wenn man bedenkt, dass Sechskerner auch mehr Energie verbrauchen würden und nicht billig wären... im Desktopbereich sieht das zwar anders aus aber da gibt es auch Sandy Bridge-E
DAS MEIN ICH DOCH! :schief:

Wenn einer wirklich mehr Leistung braucht, dann ist das nicht nur ein bischen mehr, sondern richtig viel mehr, und der wird dann auf Sockel 2011 setzen, wobei dann wohl gleich nen Dual/Quad-Sockel System, oder stellt sich halt gleich einen mehr oder weinger großen Cluster hin.

Das es Anwendungsbereich gibt, wo die Leistung gebraucht wird sag ich doch auch, aber es gibt halt immer Gruppen von Leistungsanforderungen, und da wird die Lücke halt immer größer, und die kann IB selbst mit 10-20% Mehrleistung nicht schließen. Ergo würde man für den Leuten im Desktop-Bereich einfach nur Mehrleistung bieten, die Sie nicht wirklich brauchen.

Und zu Games, welches Game wird denn von nem SB Quad limitiert? :ugly: Auch gern zukünftige.

Zudem, selbst die Leute die Videoschnitt beruflich machen, werden wohl eher auf SMP SBE-System umsteigen, oder aber halt gleich den dicken Cluster dastehen haben, je nachdem was Sie halt genau machen. Alternativ halt das MultiGPU System im Serverraum oder im Büro stehen haben.

Die IB Zielgruppe braucht einfach nicht mehr CPU-Leistung in absehbarer Zeit. Energieersparnis wird aber immer gern mitgenommen, und eine gestiegene GPU-LEistung EBENSO! Wenn man nämlich kann, spart man sich gern das Geld für ne dezidierte GPU. ISt ja nicht so, dass die LEute sagen: "Juhu Gott sei dank kann ich Geld für ne dezidierte GPU ausgeben"

Cray hats ja mal versucht :ugly:
Link? :ugly:
 
Ich verstehe die Diskussion hier nicht. Der IB wurde gegen einen völlig überdimensionierten SB getestet, ERGO die zentrale Aussage, dass der SB schneller ist hat mit Überdimensionierung zu tun, nicht mit der Architektur oder Baugröße. Trotzdem übernehmen manche diese Aussage. Verstehe ich nicht. Warum sollte der IB nicht mehr Leistung haben als der SB? Macht einfach keinen Sinn.

Und Skysnake, deine Argumentation ist zwar logisch aufgebaut, aber ALLE Indizien um uns herum sagen das Gegenteil. Natürlich brauchen wir eigentlich keine Mehrpower, aber seitwann werden wir gefragt. Guck dir doch so manche Rechner an. Die kriegen den Hals doch nie voll.
Wenn man sich ansieht wie schlecht heutige Spiele und Programme auf Mehrkernsystemen laufen, brauchen wir mehr Softwarepower, aber nicht mehr Hardware, ich stimme zu. Aber das Argument hätte man schon bei jeder anderen Prozessorgeneration geltend machen können. "Brauchen" tut das nie einer. Als ob auf einmal eine der Rechner nen Looping oder so macht. Ist doch IMMER subjektiv. Es ist bezahlbar und dewegen wird es gekauft. Wenn nen Ferrari 20000 Euro kosten würde... Wüsste also keinen guten Grund warum Intel nicht "normal" handeln sollte. Was erzählen die ihren beknackten Aktionären? "Reicht" gibts leider im Kapitalismus nicht. Wie mal ein guter Kabarettist sagte: "Auf dem Grabstein des Kapitalismus wird stehen: Zuviel war nicht genug";) Daher glaube ich, dass du da falsch liegst. Wäre das erste Mal in der Geschichte des Computers, dass sowas passiert, oder!?
 
Geblubber hier...
Natürlich wird der Ivy Bridge mehr leisutng haben als SB...
Ich erwarte mir viel von den Tri Gate Transistoren...
und ich gebe nix auf solche Benches, sondern nur auf handfestes

Abwarten und Tee trinken, aber eins schonaml vorweg: Intel baut nuerdings bestimmt keine langsameren Prozzis...
 
Ich verstehe die Diskussion hier nicht. Der IB wurde gegen einen völlig überdimensionierten SB getestet, ERGO die zentrale Aussage, dass der SB schneller ist hat mit Überdimensionierung zu tun, nicht mit der Architektur oder Baugröße. Trotzdem übernehmen manche diese Aussage. Verstehe ich nicht. Warum sollte der IB nicht mehr Leistung haben als der SB? Macht einfach keinen Sinn.
SuperPi und ein Thread und so?
Der Unterschied kommt sicherlich von der unterschiedlichen Cache Größe, könnte man aber leicht prüfen mit SB. Große Unterschiede wird es aber wohl nicht geben. Es sind ja zwei ES gegeneinander getestet worden.

Und Skysnake, deine Argumentation ist zwar logisch aufgebaut, aber ALLE Indizien um uns herum sagen das Gegenteil. Natürlich brauchen wir eigentlich keine Mehrpower, aber seitwann werden wir gefragt. Guck dir doch so manche Rechner an. Die kriegen den Hals doch nie voll.
Wenn man sich ansieht wie schlecht heutige Spiele und Programme auf Mehrkernsystemen laufen, brauchen wir mehr Softwarepower, aber nicht mehr Hardware, ich stimme zu. Aber das Argument hätte man schon bei jeder anderen Prozessorgeneration geltend machen können. "Brauchen" tut das nie einer. Als ob auf einmal eine der Rechner nen Looping oder so macht. Ist doch IMMER subjektiv. Es ist bezahlbar und dewegen wird es gekauft. Wenn nen Ferrari 20000 Euro kosten würde... Wüsste also keinen guten Grund warum Intel nicht "normal" handeln sollte. Was erzählen die ihren beknackten Aktionären? "Reicht" gibts leider im Kapitalismus nicht. Wie mal ein guter Kabarettist sagte: "Auf dem Grabstein des Kapitalismus wird stehen: Zuviel war nicht genug";) Daher glaube ich, dass du da falsch liegst. Wäre das erste Mal in der Geschichte des Computers, dass sowas passiert, oder!?
Ja, du machst aber einen Fehler. Es FEHLT ja an Leistung, nur eben an GPU Leistung. Intel steht also vor einer Entscheidung. CPU-Leistung weiter anheben, oder aber diese gleich lassen und mit etwas mehr Takt nachhelfen, und dafür ALLES in die iGPU stecken, und deren Anbindung an die CPU. Jetzt Rate mal, was wohl sinnvoller ist.

Einen bereits sehr guten Bereich weiter pushen, oder sagen es langt? Ich würde zweites nehmen.

In Sachen iGPU muss Intel noch verdammt viel machen, und das werden Sie auch. Du nimmst aber an, dass Sie wenn Sie die CPU-Leistung nicht steigern nichts tun. Das ist aber falsch. Es geht immer darum, ob man iGPU-Potenzial zugunsten der CPU opfert oder nicht.
 
Ich verstehe die Diskussion hier nicht. Der IB wurde gegen einen völlig überdimensionierten SB getestet, ERGO die zentrale Aussage, dass der SB schneller ist hat mit Überdimensionierung zu tun, nicht mit der Architektur oder Baugröße.

Immerhin sind die meisten Benchmarks Singeltreath-Benchmarks...

Wobei der SB auch hier wenn auch (nur) geringfügig dadurch profitiert, dass er mehr Cache hat

Natürlich brauchen wir eigentlich keine Mehrpower

Wir? Also ich brauch Mehrpower, Skysnake sicher auch...

Wenn man sich ansieht wie schlecht heutige Spiele und Programme auf Mehrkernsystemen laufen

Na ja, bei "Programmen", die die Leistung auch brauchen sieht es eigentlich recht gut aus, und es gibt durchaus einige Spiele, bei denen etwas mehr als ein i7 2600k noch sinnvoll wäre, spätestens wenn man noch etwas im Hintergrund laufen hat und es werden sicher nicht weniger

Daher glaube ich, dass du da falsch liegst.

Er hat schon recht... in einigen Bereichen stagniert die benötigte Leistung, etwa im klassischen Office Bereich

Nur ein Beispiel: die Sekretärin meines Vaters hat letztes Jahr in der Firma einen neuen PC bekommen: Core2 Duo -> Clarcdale-Pentium; 2GiB RAM -> 2GiB RAM; oder mit anderen Worten: kein Upgrade, den neuen PC gab es auch nur, weil der Leasingvertrag ausgelaufen ist; wie auch immer, das soll zeigen, dass spätestens seit dem Core2 Duo im Office Bereich tatsächlich nicht mehr Leistung sinnvoll ist

ABER: "nur Office" ist nicht der gesamte Markt, auch nicht der gesamte Mobile, sondern nur eine Sparte, eine recht große aber überschätzen darf man sie auch nicht

Der Grund dafür, dass Ivy Bridge nicht mehr Leistung -oder im Klartext: Sechskerner- bringt ist ein anderer: die CPUs sind primär für Mobilgeräte und low-End Office-Desktops gedacht; im Mobilbereich gibt es eine massive Mehrleistung: durch Quadcores, in TDP Klassen, in denen es bisher nur Dualcores gab; im Desktopbereich wird diese entweder nicht gebraucht (Office PC)- oder fällt in den Einsatzbereich von Sandy Bridge-E

Ja, du machst aber einen Fehler. Es FEHLT ja an Leistung, nur eben an GPU Leistung.

Fehlt es denn daran? Die einzigen Geräte, bei denen eine stärkere IGP wirklich sinnvoll wäre sind Subnotebooks, bei denen eine dezidierte GraKa nichtmehr ins TDP Budged passt...

Nicht umsonst haben die meisten Desktop CPUs maximal die "halbierte" HD 2000...

Abgesehen davon hab noch von niemandem gehört, dass ihm die Sandy Bridge IGP zu langsam wäre (mit einer Ausnahme aber das ist ein Spezialfall)

Und komm mir jetzt nicht mit GPGPU; die EINZIGE für Normaluser sinnvolle Anwendung, die mir Einfällt, bei der Aufgaben Anfallen, die man mit einer IGP beschleunigen könnte und die man nicht mindestens genauso gut auch mit einer dezidierte GraKa beschleunigen kann sind Physik und KI Berechnungen in Spielen; die Einführung davon ist aber nicht ansatzweise absehbar, da ist AVX greifbarer; andere klassische GPGPU Anwendungen im "Alltagsbereich" laufen mindestens genauso gut auch auf einer dezidierten GPU, etwa Video Konvertierung u.Ä. oder sind wenigstens so banal, dass man sie genauso gut auch auf dem CPU laufen lassen kann

Für wissenschaftliche Simulationen, HPCs oder ähnliches ist Ivy Bridge sowieso nicht gedacht- maximal für low-end Server... für die gibts wahrscheinlich wieder Xeons ohne GPU

Sicher kann Intel die IGP weiter verbessern, vor allem im Mobilen Bereich ist das in einigen Gebieten sicher sinnvoll aber man darf das nicht überbewerten und wirklich nötig ist es auch nicht; die große Stunde von GPGPU auf IGPs, die dann zunehmend zu Vektor- Coprozessoren werden kommt noch aber das dauert noch; vielleicht 2013 oder 2014? Jedenfalls wird das für kaum einen potentiellen Ivy Bridge User ein durchschlagendes Kaufargument sein
 
Zuletzt bearbeitet:
Sehr gut erklärt.

Dazu muss man sehen, dass verdammt viele Heimanwender weg vom Desktop hin zum Laptop/Tablet gehen. Die Märkte sind extrem am wachsen. Desktop stagniert oder schrumpft.

Naja, und durch die Cloud-Welle, die im Moment anrollt wird SB-E etc. wichtiger, aber der normale Desktop verliert wieder an Bedeutung, da ich eben teils auf die Cloud setzen kann, wenn ich Sie brauch.

Und ja Superwip Office ist nicht alles, aber wenn man sich anschaut wie viele Rechner an Instituten, Büros, Schulen, Lagern, etc etc etc steht, dann braucht man da halt nicht viel Leistung.

Der Punkt mit den Leasingverträgen ist sehr gut. Da wird neue Hardware angeschafft, obwohl die alte noch läuft, und es auch tun würde, kostet ja aber nichts, und eventuell kann man sogar noch was sparen, da man downgraden kann. Intel wird so was bestimmt nicht schmecken.

Für Office, Internet etc. hat halt selbst nen Netbook genug Leistung :ugly: Schon krass wenn man sich anschaut, wie die Leistung vor rund 20 Jahren aus sah. Ich denk nur an meinen C64 :ugly:

PS: Superwip das gefällt mir an Besten :D

Wir? Also ich brauch Mehrpower, Skysnake sicher auch...
Das triffts SOWAS von :D Wenn ich die Kohle hätte um die Anschaffung UND vor allem auch den Unterhalt zu zahlen, hätte ich hier nen 256 Node Cluster rum stehen mit den feinsten Sachen, einfach nur um ziemlich perverse Simulationen zu fahren. Das würde verdammt noch mal richtig bock machen für so ne Maschine Programme zu schreiben und so richtig das letzte bischen Leistung raus zu kitzeln :hail:

Wenn man GANZ viel Zeit hat, könnte man ja vielleicht seine eigene Wettervorhersage machen :lol: Ich fänds cool :daumen:

Allgemein würden mir aber wirklich auch einige sinnvolle Sachen einfallen, die man machen könnte. Z.B. Das AES256 File von Wikileaks knacken :D Son Exaflop Rechner oder zwei wären da sicherlich nicht schlecht :devil:

Da darfste aber nicht einfach so den Rechner anschalten, sonst geht in 10 km Umkreis die Lichter aus :lol:
 
Und Skysnake, deine Argumentation ist zwar logisch aufgebaut, aber ALLE Indizien um uns herum sagen das Gegenteil. Natürlich brauchen wir eigentlich keine Mehrpower, aber seitwann werden wir gefragt. Guck dir doch so manche Rechner an. Die kriegen den Hals doch nie voll.
Wenn man sich ansieht wie schlecht heutige Spiele und Programme auf Mehrkernsystemen laufen, brauchen wir mehr Softwarepower, aber nicht mehr Hardware, ich stimme zu.

Hallöchen,

ich stimme natürlich auch zu, dass die Software wesentlich besser optimiert werden könnte, keine Frage.

Evtl. habe ich das ein oder andere Argument in dem Thread vielleicht nicht gelesen, aber ich möchte Euch gerne meine neuesten Messungen an dieser Stelle als Beleg nicht vorenthalten, DENN:

Mein alter Rechner benötigt zum Transcodieren eines 4-Minuten-HD-Filmschnipsels die Rechenzeit von 23:03 Min. (Athlon 64 X2 4600+).

Mein neuer Rechner (seit Freitag :D) berechnet die gleiche Sequenz in HD in der Zeit von 4:01 Min. (i7-2600k, Standardtakt). Er ist also grob gesagt 6 mal schneller.

Bei Diskussionen ob mehr Rechenleistung gebraucht wird, kann man eigentlich nur mit "Ja" antworten, denn:

- Kennt Ihr eine Familie, die keine Video-Kamera hat und ihre Kinder nicht filmt? Ich schätze, das sind ziemlich wenige und ich rede hier von nur einer einzigen Mainstream-Anwendung, die viele viele Leute benutzen.

- Videokameras in SD werden ziemlich wahrscheinlich aussterben. HD-Kameras mit guter Heimanwender-Qualität kosten nicht mehr viel! D.h. alle Familien, die ihre Urlaubsvideos (eben in HD) dann auch nur minimal schneiden und bearbeiten wollen, brauchen einen Rechner, der nicht geschlagene 10 Stunden an 1 Stunde Filmmaterial festhängt.

- Beim Schneiden/Transcodieren eines 1-Stunde-Films braucht mein i7-2600k also immer noch rund eine Stunde.

Also: Es ist noch massenhaft Raum für Verbesserungen des Leistungspotentials bei CPUs da, und ich mache nichts besonderes.

Bitte auch mich nicht falsch verstehen:
- Ich kaufe immer einen Rechner für die kommenden Jahre, das Equipment muss ne ganze Weile halten.
- Ich bin absolut zufrieden und glücklich, den i7 jetzt zu haben.
- Der oben genannte Athlon wird natürlich weiter genutzt, denn außer Videobearbeitung kann er alles andere (unter Win 7 Ult 64) noch flüssig!

Gruß

Zweiblum
 
Ähm...

Du ziehst hier auch einen wirklich alten Prozessor als Vergleich ran. Es geht hier um den Vergleich zwischen aktueller und nächster Generation, also was da nochmals eine Leistungssteigerung wert ist.

Wie oft schneidet denn nen Normalo so nen HD Video? 1, 2 mal pro Jahr? Dafür vielleicht 50-x00€ mehr ausgeben? Sehr fragwürdig.

Dazu kommt noch, das solche Sachen wie Videoschnitt eine Paradedisziplin für GPUs sind. Du hast VÖLLIG! unabhängige Datensätze. Da hat ne CPU absolut keine Chance. Wenn du das öfters machst, würde ich mir mal nach ner GPU Beschleunigung umschauen. Da bist du schnell um nen Faktor 5 schneller.
 
Intel selbst sagt 20% mehr Leistung.

20% bei was? Gleichem Takt oder weil höher getaktet? Eine ziemlich fragwürdige Aussage wie ich finde. Wobei man dazu sagen muss, das Intel bei dem Ivy Bridge eher auf die Grafikkarte achten wird. Schließlich ist AMD im APU bereich vor Intel. Es wird sich aber zeigen wie gut er wirklich wird. Dauert eh noch locker 7-9 Monate bis er kommt, dann werden wir es sehen.
 
Dazu muss man sehen, dass verdammt viele Heimanwender weg vom Desktop hin zum Laptop/Tablet gehen. Die Märkte sind extrem am wachsen. Desktop stagniert oder schrumpft.

Eben, es werden immer mehr Notebooks pro Jahr verkauft, aber die Verkaufszahlen für Desktop Computer gehen zurück.

Für Office, Internet etc. hat halt selbst nen Netbook genug Leistung :ugly: Schon krass wenn man sich anschaut, wie die Leistung vor rund 20 Jahren aus sah. Ich denk nur an meinen C64 :ugly:

PS: Superwip das gefällt mir an Besten :D

Ich will auch immer mehr Leistung haben.
Schlossere ich ein paar Filme fertig, kann ich nie genug Leistung haben, das dauert immer alles viel zu lange. Aber da habe ich auch eine andere Theorie:
Die Software wird schlechter. Die Entwickler sehen, dass die CPUs heute mehr als genug Leistung haben also wird die Software schlampig programmiert. Die nutzt die Leistung der CPU gar nicht richtig aus. Wie sonst ist es zu erklären, dass SMT bei einigen Anwendungen 30% oder mehr an zusätzlicher Leistung bringt. Das bedeutet doch, dass die physikalischen Kerne gar nicht ausgelastet werden.
 
Wie gesagt, mein i7-2600k braucht für 1 Stunde Filmmaterial 1 Stunde Rechenzeit. Auch das läßt sich verbessern. ;)

Eine Grafikkarte, die das sinnvoll kann, kostet auch 100 Euro (nur mal nen Beispiel). Und mit einem zu schwachen MoBo+CPU funktioniert das trotzdem nicht (ich habs mit meinem alten System probiert). Außerdem ist die Qualität nicht dieselbe. Weiterhin macht das nicht jede Software... (natürlich sind das Programmierprobleme, die nicht die Hardware betreffen). Mein momentanes Fazit ist: Das ist noch zu sehr entwicklungsbedürftig, obwohl ich den Ansatz hervorragend finde.

Viele Leute haben sicherlich etwas schnellere Systeme als mein altes, aber sie haben dann eben immer noch 2-3 Stunden Rechenzeit für 1 Stunde Film. Ich sag Dir (aus eigener Erfahrung): Das nervt gewaltig. Und wer so genervt ist, kauft sich bei einem angemessenen Preis (SB hat einen in meinen Augen wirklich guten Preis) relativ wahrscheinlich ein neues System.

Wie oft der Normalo schneidet? Wenn er die Leistung hat, filmt er öfter und schneidet mehr! Dann macht das Filmen nämlich erst richtig Spass. Guck Dir die ganzen Fun-Mini-Kameras an, die in HD filmen. Überall dabei und spielend leicht zu bedienen. Dann stellen es alle auf YouTube ein... Ja, nachdem sie den Film erstmal transcodieren mussten :ugly: (der nächste Punkt, wo alle solche Rechnungen brauchen).
Das ist wie bei den Digitalfotos versus Kleinbildfilm: Damals habe ich bei jedem Foto überlegt, ob ich das brauche wg. des Preises (Film + Entwicklung). Heute kosten die Bilder nix, weil ich die Digitalfotos speichere und keine Entwicklung bezahlen muss. Ich mache wesentlich mehr Bilder.

Meiner Ansicht nach ist der Markt da.

Gruß

Zweiblum
 
Schlossere ich ein paar Filme fertig, kann ich nie genug Leistung haben, das dauert immer alles viel zu lange. Aber da habe ich auch eine andere Theorie:
Die Software wird schlechter. Die Entwickler sehen, dass die CPUs heute mehr als genug Leistung haben also wird die Software schlampig programmiert. Die nutzt die Leistung der CPU gar nicht richtig aus. Wie sonst ist es zu erklären, dass SMT bei einigen Anwendungen 30% oder mehr an zusätzlicher Leistung bringt. Das bedeutet doch, dass die physikalischen Kerne gar nicht ausgelastet werden.

:daumen::daumen::daumen: Sehe ich ganz genauso.
 
Eine Grafikkarte, die das sinnvoll kann, kostet auch 100 Euro (nur mal nen Beispiel). Und mit einem zu schwachen MoBo+CPU funktioniert das trotzdem nicht (ich habs mit meinem alten System probiert). Außerdem ist die Qualität nicht dieselbe. Weiterhin macht das nicht jede Software... (natürlich sind das Programmierprobleme, die nicht die Hardware betreffen). Mein momentanes Fazit ist: Das ist noch zu sehr entwicklungsbedürftig, obwohl ich den Ansatz hervorragend finde.

Ich habe diese CUDA Software alle durchgekaut und bin zum Entschluss gekommen, dass du das komplett vergessen kannst.
Was nützt mir ein Cuda Programm, das trotzdem langsamer kodiert als eins, das ohne Cuda auskommt? :(
 
20% bei was? Gleichem Takt oder weil höher getaktet? Eine ziemlich fragwürdige Aussage wie ich finde. Wobei man dazu sagen muss, das Intel bei dem Ivy Bridge eher auf die Grafikkarte achten wird. Schließlich ist AMD im APU bereich vor Intel. Es wird sich aber zeigen wie gut er wirklich wird. Dauert eh noch locker 7-9 Monate bis er kommt, dann werden wir es sehen.

Es hieß einfach 20% mehr Leistung.
Durch was, oder auf was sich das bezog wurde nicht gesagt. Das kann sich auch auf geringer Taktsteigerungen, eine minimal bessere IPC und einen aufgebohrten Grafikteil handeln.

Und was bringt das AMD, mit der APU?
Intel hatte sie früher auf den Markt, bietet dazu mehr Prozessorleistung bei geringeren Verbräuchen und die IGP reicht für alles bis Blu Ray.
Zum ernsthaften Gamen ist auch AMD's APU zu langsam.
 
Ernsthaft Gamen heißt für mich mehrere aktuelle Titel im Jahr auf mindestens mittleren Settings.
Meine Güte, heute hast du es aber mit mir :ugly:
 
Trinity, Cuda, OpenCL, Llano -->:offtopic:

Also bitte wieder zum Thema zurückkommen.

Edit: Offtopic Beiträge entfernd, bei der nächsten derart ausufernden Offtopic Diskussion gibt es gratis Punkte. Es muss nicht jeder CPU Thread mit Diskussionen über Llano, Cuda usw zugespammt werden.

Das Thema ist Ivy Bridge, und da der CPU Teil da nur dieser getestet wurde

mfg
 
Zuletzt bearbeitet:
Das ist jetzt aber schon SEHR selektiv, hier nur über den CPU-Part zu reden, der wohl nur geringfügige Änderungen erfährt.

IB ist nach allem was Intel sagt insbesondere durch die iGPU karakterisiert, und dort halt eben nimmt DX11 und damit OpenCL abgesehen von der reinen Anzahl der Funktionseinheiten den größten Stellenwert ein.

Aber gut, dann reden wir halt nicht über ~30% des Chips.

Damit ist der Topic für mich gerstorben, da so keine angemessene/umfassende Diskussion möglich ist.

CU GL HF
 
Zurück