Zen 3: 20% mehr Integer-Leistung im Vergleich zu Zen 2?

Details die auf der CPU laufen, beispielsweise manche Schattenberechnungen, ja (das ist aber die Ausnahme, je moderner Spiele sind desto mehr dieser Details/Effekte werden von der GPU über Shader, AmbientOcclusion, demnächst Raytracing usw. übernommen).
Die Auflösung dagegen definitiv nicht, das ist reine Arbeit der Grafikkarte und völlig CPU-unabhängig.

Wenn man diese CPU-Effekte nicht von anderen Effekten oder der Auflösung unterscheidet kann man den falschen Schluss ziehen dass höhere Auflösungen mehr CPU-Leistung benötigen was aber schlichtweg nicht so ist. Das problem ist, dass viele, VIELE Benchmarker da draußen nicht wissen was sie tun und das Netz mit tonnen an verschiedensten Settings vollgepackt ist wo man nur sehr schwer den Überblick behalten und Dinge richtig einordnen kann. Die allerwenisgten Bencher wissen, welcher Regler die CPU-last erhöht (und entsprechend nach rechts muss) und welcher nur die GPU beeinflusst (und entsprechend bei CPU-Tests nach links muss).

Recht vereinfacht kann man aber hingehen und die (herkömmlichen, also jetzt nicht RT oder sowas^^) Details alle voll aufdrehen um keine CPU-Last zu verpassen aber die Auflösung unten lassen. Das verhindert Grafiklimits sehr zuverlässig da Auflösung noch immer das mit Abstand forderndste für die GPU ist.
 
Zuletzt bearbeitet:
Dann müsste dir bekannt sein, dass höhere Details und Auflösungen deutlich mehr CPU Last verursachen.:huh:

Ich kenne nur bestimmte Techniken, die nicht mal konkret in irgendwelchen bekannten Engines implementiert sind. Dabei geht's um spezielles Culling. Also nein, ich kennen kein einziges Spiel, wo das so ist.
 
Und die Diskussion geht wieder von vorne los :D
Man muss in so einem Fall, mit 2 Sachen klarkommen.
- Das Thema beschäftigt doch einige
- Man wirkt mit den Erklärungen die man vom Elfenbeinturm der Richtigkeit runtertröpfeln lässt, wohl doch nicht so einleuchtend wie man es gerne glaubt

Entweder man lebt damit und ignoriert es oder man versucht seine Position klarer darzustellen (genehm selektives Quoten mit dem Weglassen des Rests gehört übrigens nicht dazu...).
So tun als wenn die Leute alle schwer vom Begriff wären, gehört erst Recht nicht dazu, aber da müssen die beiden Experten (nicht du) halt selbst mit klarkommen wie sie sich hier geben. Selbst erklären bzw. aufklären konnten sie bisher nichts ;)

@Lichtspieler2000
Jein. 1080 ist jetzt keine "hohe" Auflösung, aber 1080 ist laut Steam noch absolut real und das mit einer 2080 bedeutet eben, daß man wenn denn massiv öfters im CPU-Limit landet als im GPU-Limit und damit sind das realistische Tests, wenn es darum geht zu zeigen was die CPU-Entwicklung bisher brachte.

720 ist Speichelleckerei ohne Bezug zum Thema (Zocken). Wenn man meint, so kommt das aber nicht zu Geltung, dann kommt das beim Zocken eben nicht so zu Geltung. Dann nimmt man 7-zip dafür oder sonstwas, aus der realen Welt
Das ist die gleiche Story wie mit GPUs. Wenn die minFPS dem Marketing nicht reichen, dann nimmt man 1%low. Und wenn das immernoch zu wenig ist zu zeigen wie mega die neue Generation ist, dann nimmt man eben 0.1%low. Ich warte nur noch bis der erste Verkaufstester mit 0.01%low ankommt...

Apropos. Wie kommt sowas eigentlich, daß gefühlt innerhalb 2 Wochen plötzlich alle z.B. 1%low messen? Bekommt man das in einem Rundschreiben dringendst empfohlen oder sowas? ;) Das gleiche lief übrigens mit diesen unsäglichen 720p ab.

Aber hej, nicht verzweifeln. Es gibt ja noch Frametimes. Wenn das also alles immernoch nicht reicht, nehmen wir eine Skala von Millisekunden die zwischen + und - Jenseits vom Wimpernschlag ist und schauen was da gelegentlich wie viele klitzekleine Peaks mehr produziert als anderes. Das ist im Gegensatz zu oberem geradezu eine Goldgrube. Sag ICH jetzt, und ich war mit dabei beim Tombman als wir Mikroruckler in die weite Welt getragen haben (und das andere blaue Portal meinte sich mit fremden Federn schmücken zu können).

Ich bin für jede sachdienliche Belehrung dankbar, aber erzählt mir nicht einfach nur einen vom Pferd.
 
Zuletzt bearbeitet:
Die Min FPS liegen als absolutes Minimum noch unter der 0,1-Perzentile und natürlich auch unter der 0,01-Perzentile. Genau deshalb nimmt man die Min FPS eben nicht mehr, um ganz extreme Ausreißer nach unten rauszunehmen.

bil_normal5.png
Grafik der Normalverteilung mit Perzentile und absolutem Minimum (percentile normal distribution).
 
Zuletzt bearbeitet:
Ist das so? Das wäre gar wunderbar, aber das scheint nicht jeder so zu handhaben. Das ist mir jetzt/heute schon zu spät kurz zu suchen, aber als ich noch drauf achtete lagen (war wohl wieder so mein Pech bei mir) spätestens die 0.1% immer unter den minFPS.

Anscheinend haben da viele nicht verstanden was sie messen und wie sie das darstellen. Youtube halt...

Ich guck mal morgen. Thx.

@Casurin
Man könnte von dem Verlauf ein Slowmo mit einem iphone drehen und es dann wieder auf 30fps normiert als 5min. Video ins Netz stellen. Das wäre wirklich Klasse für z.B. Leute die sich zwischen einer 2080 und einer 2080S schwanken. Oder einem 3700X und einem 3800X. Ich bin klar dafür. Sowas wäre eine Offenbarung...

Ich sehe dein 2,86493 + 3,41649 = 5 und ich sehe auch die Überforderung die du ansprichst. Ich bin ja nicht blind :)

Bis später mal.
 
Zuletzt bearbeitet:
Ist das so? Das wäre gar wunderbar, aber das scheint nicht jeder so zu handhaben. Das ist mir jetzt/heute schon zu spät kurz zu suchen, aber als ich noch drauf achtete lagen (war wohl wieder so mein Pech bei mir) spätestens die 0.1% immer unter den minFPS.

Wenn es verschiedene Systeme sind, können natürlich Werte abweichen.

Man könnte von dem Verlauf ein Slowmo mit einem iphone drehen und es dann wieder auf 30fps normiert als 5min. Video ins Netz stellen. Das wäre wirklich Klasse für z.B. Leute die sich zwischen einer 2080 und einer 2080S schwanken. Oder einem 3700X und einem 3800X. Ich bin klar dafür. Sowas wäre eine Offenbarung...

Da wirst du nicht viel sehen. Da ist die Abtastrate viel zu gering. Dazu kommt im Video dann die Komprimierung.
 
Eigentlich wollte ich nächstes Jahr ein Tiger Lake - Update hinzaubern, nach diesem Artikel fange ich an zu hadern :devil:.
 
Min-FPS im Afterburner ist auch was anderes, das ist das Minimum über alle gemittelten 1 Sekunden Intervalle, also kann Min-FPS sehr wohl größer als P0.1 sein.
 
also was haben denn alle hier so,tuen so als ob es nur um gaming geht.Es gibt fall noch andere Sachen außerhalb des Gamings.Darum sehe ich dann doch lieber das ganue und nicht nur um rein aufs gaming.Das Problem ist,wir wissen ja leider nicht genau woraus es die 20 % erreicht worden sind.Schade,denn ich würde zu gerne wissen,wie stark sich diese Einheiten auf die Leistung wirklich auswirken.Ich versuche noch immer herauszufinden welche Einheit für das VIdeoumwandeln am wichtigsten ist.Und wie sich das ganze dann letztes ende dann auswirken wird.Kann mir wohl leider niemand sagen.
 
Halbwegs vernünftige Tester haben 1% und0.1% schon seit langer langer zeit verwendet da max/min einfach 0 Relevanz hat und nichts über die tatsächliche Leistung oder das Spielerlebnis aussagt. Aber leider gibt es da, genauso wie bei 720p test - noch so sehr viele die es nicht mal schaffen 1+1 zusammen zu zählen aber ihre absurde Meinung sehr lautstark jedem Aufdrücken versuchen. Die Angabe der Frametimes bzw der Percentile sind dagegen wirklich aussagekräftig, wenn nicht vollständig. Dafür benötigt man schon den Verlauf der Frametimes bzw ein Histogram - nur das würde die meisten 0815 "ich kann 2+3 addieren" hier überfordern, genauso wie es sie auch überfordert zu verstehen das man mit niedriger Auflösung (720p) Testet um eben alle anderen Faktoren die das Ergebnis beeinflussen könnten zu eliminieren.

Ja, ok.
Sag mal was bedeuten deine 1% und 0,1% denn ?
Die 1 % und 0,1% langsamsten Frames oder wie ?
Weil die Anzeige bei den meisten benches heißt ja immer 99% oder 99,9% und das bedeutet doch das die langsamsten 1 bzw 0,1% augelassen werden oder ?
Kannst du mir ja vlt erklären, ohne meine zarten Nerven mit doppledeutigen Matheaufgaben zu überfordern.

Danke.
 
Da wirst du nicht viel sehen. Da ist die Abtastrate viel zu gering. Dazu kommt im Video dann die Komprimierung.
Weil this was auch Sarcasmus von mir ;)

Du du anscheinend absolut garnichts im Bezug auf FPS und Leistungsmessung bei Spielen verstehst - selbst Blinde hätten da Mitleid.
Wenn du irgend etwas vom Wert schreibst sag bescheid.
Das ist der richtige Weg. Die Versuche mich mit Beweisen durch Behauptungen zu beschäftigen wären zeitnah eh gescheitert. Da ist diese Lösung sinnvoller.
 
Wäre es das, dann müsste ein gleich schnell getakteter Milan immer gleich viel Integer-Mehrleistung im Vergleich zum Rome beringen. Egal, ob die CPU gesamthaft 16 oder 64 Kerne hat. Single Thread Leistung kann man auch probmlos im L1 Cache messen und AMD wird den wohl hoffentlich nicht mit mehr Kernen runter takten.

Wenn die Taktrate bei 64 ausgelasteten Server-Kernen unter die von Rome mit 64 Kernen fällt, wäre das nicht mehr wirklich (als IPC nach der Definition) vergleichbar. Aber dazu müsste der anonyme Benchmarker halt bereit (oder gar in der Lage) sein, mal ein paar Fakten auf den Tisch zu legen.

Davon abgesehen ist IPC Instructions per Cycle, ändert aber insgesamt wenig.
Du denkst da völlig falsch drüber
Wenn 2 Kerne mit 5 GHz Takten machen die in einer Sekunde 10 GHz so gesehen da ja beide diesen Wert einzeln für sich haben. (Bevor Leute diesen Vergleich bemängeln, es soll einfach sein und nur aufzeigen. Der wirkliche Takt steigt natürlich nicht aber daraus resultierend die Anzahl an Berechnungen weswegen der Vergleich auch so stehen kann)

Also doch die Metrik ist theoretisch Taktunabhängig und auch an sich Kernunabhängig, da sich Kerne nicht die Takte teilen müssen sondern eigenständig sind bis zu einem gewissen Grad.
 
Zuletzt bearbeitet:
Ja - Cache zum Beispiel wird teils gemeinsam genutzt, ähnlich auch Speicheranbindungen und es gibt noch extremfälle wie Bullcrapper. Dazu kommt auch das Caches ihren eigenen Takt haben (oder bei Ryzen auch noch das IF) - wodurch IPC auch etwas von der Kernanzahl und den Taktraten abhängen.
Es ist da schon eher Sinnvoll zu sagen "IPC bei Spielen" allgemein oder noch besser pro Entwickler-Studio. Sieht man ja deutlich wie weit Ryzen bei rein-synthetischem wie Cinebench vorne ist, auch bei Blender noch weitaus bessere IPC als alles von Intel, bei Spielen siehts dann aber wieder deutlich anders aus.

Mal ganz abgesehen davon das IPC nur ein seeeeehr grober Richtwert ist da die verschiedenen Befehle irgendwo zwischen 0.5 und 500 Taktzyklen brauchen können (ja - 0.5 ... klingt komisch aber so werden teils Befehle angegeben die mehrere Schritte in einem Taktzyklus abarbeiten können), dann hängen sie auch noch von den verwendeten Daten und Befehlen ab da der selbe Befehl mit Unterschiedlichen Daten auch länger dauern kann, oder auch durch vorangehende Befehle "blockiert" wird (Abhängigkeiten der Daten/register oder auch falsche Abhängigkeiten).

Die IPC-Steigerung die oft im Zusammenhang mit Architekturverbesserungen erwähnt werden sind halt extrem Szenario abhängig, da ists immer wieder Lustig wenn die Leute das Marketing schlucken und nicht verstehen was wirklich los ist.
Mit dem Schritt von AVX2 zu AVX512 hat man "100% IPC Steigerung" - für gewisse Befehle. In manchen Anwendungen kann sich das durchaus mit >90% Steigerung niederschlagen, ind anderen mit exakt 0%.

Integer-Leistung ist da so ne Sache - Was genau meinen sie da?
Wenn es nur die einfache reine Arithmetik der ALUs ist - beinahe Nutzlos, auch in integerlastigen Anwendungen. Dafür gibts SSE/AVX und co.
Bei AVX2 gibts zB Gather-Befehle die 2 Eingabe-Speicherbereiche und eine Ausgabe haben. Mit Angabe der Wertebereiche wird der Index ausgerechnet, die Daten der 2 Speicherbereiche multipliziert und zum Ausgabebereich addiert - mit einem Throuput von 1 - also pro Taktzyklus einmal. Das 8 Integer-Berechnugnen pro Taktzyklus. "Normale" nicht-SIMD Befehle können wenns hoch kommt auf 4 Berechnungen pro Zyklus kommen.

Du willst uns also damit sagen das die ipc steigerung von so EInheiten wie AVX und so abhängig sind.Ich dachte der wäre unabhängig davon.Scheint also nicht so zu sein.
Das heißt wenn ich nun garkein AVX verwende,dann liegt somit die Leistungssteigerung also brach.Also je weniger Befehlsätze man verwendet,desto weniger ist die Leistungssteigerung.
Integer Einheit wird wohl auch von den Instruktionen abhängig sein.Das heißt je weniger Befehlsätze desto weniger kann man bei der Leistungssteigerung erwarten.Darunter wird wohl auch BMI2 und FMA3 wohl dazu gehören.
Also ich habe die genannten alle in der Software abgeschaltet.SIe brachten mir alle nix um schneller umzuwandeln.Die Auslastung sank allerdings dennoch nicht bei der CPU.Anscheinend kann das Videoumwandlungsprogramm auch ohne diese ganzen Befehlssätze die CPU voll auslasten.

Fragt sich halt nur ob das sich auch bei der Integer Leistung auswirkungen hat,genauso wie halt die IPC.Ich frage mich wie unabhängig das am ende wirklich arbeitet.Denn je weniger Befehlsätze,wie soll das ganze denn dann noch gesteigert werden.
Und MMX ist wohl nen einfacher Befehlsatz.ALso wo bleibt denn da die richtige Leistungssteigerung.Ich warte noch immer drauf.
 
Ja - Cache zum Beispiel wird teils gemeinsam genutzt, ähnlich auch Speicheranbindungen und es gibt noch extremfälle wie Bullcrapper. Dazu kommt auch das Caches ihren eigenen Takt haben (oder bei Ryzen auch noch das IF) - wodurch IPC auch etwas von der Kernanzahl und den Taktraten abhängen.
Es ist da schon eher Sinnvoll zu sagen "IPC bei Spielen" allgemein oder noch besser pro Entwickler-Studio. Sieht man ja deutlich wie weit Ryzen bei rein-synthetischem wie Cinebench vorne ist, auch bei Blender noch weitaus bessere IPC als alles von Intel, bei Spielen siehts dann aber wieder deutlich anders aus.

Mal ganz abgesehen davon das IPC nur ein seeeeehr grober Richtwert ist da die verschiedenen Befehle irgendwo zwischen 0.5 und 500 Taktzyklen brauchen können (ja - 0.5 ... klingt komisch aber so werden teils Befehle angegeben die mehrere Schritte in einem Taktzyklus abarbeiten können), dann hängen sie auch noch von den verwendeten Daten und Befehlen ab da der selbe Befehl mit Unterschiedlichen Daten auch länger dauern kann, oder auch durch vorangehende Befehle "blockiert" wird (Abhängigkeiten der Daten/register oder auch falsche Abhängigkeiten).

Die IPC-Steigerung die oft im Zusammenhang mit Architekturverbesserungen erwähnt werden sind halt extrem Szenario abhängig, da ists immer wieder Lustig wenn die Leute das Marketing schlucken und nicht verstehen was wirklich los ist.
Mit dem Schritt von AVX2 zu AVX512 hat man "100% IPC Steigerung" - für gewisse Befehle. In manchen Anwendungen kann sich das durchaus mit >90% Steigerung niederschlagen, ind anderen mit exakt 0%.

Integer-Leistung ist da so ne Sache - Was genau meinen sie da?
Wenn es nur die einfache reine Arithmetik der ALUs ist - beinahe Nutzlos, auch in integerlastigen Anwendungen. Dafür gibts SSE/AVX und co.
Bei AVX2 gibts zB Gather-Befehle die 2 Eingabe-Speicherbereiche und eine Ausgabe haben. Mit Angabe der Wertebereiche wird der Index ausgerechnet, die Daten der 2 Speicherbereiche multipliziert und zum Ausgabebereich addiert - mit einem Throuput von 1 - also pro Taktzyklus einmal. Das 8 Integer-Berechnugnen pro Taktzyklus. "Normale" nicht-SIMD Befehle können wenns hoch kommt auf 4 Berechnungen pro Zyklus kommen.

Beziehe mich lediglich auf Ryzen und Core i Aufbauten.
Der Core Multithreading Aufbau sieht da ganz anders aus natürlich.

Und deswegen spricht man von theoretisch und bis zum gewissen Grad. An sich gesehen ist IPC eine reine auf den Rechenkern bezogene Größe.
Wenn der seine 5 Milliarden Berechnungen pro Zyklus (5 GHz) machen kann dann machen 2 Kerne die 100% ausgelastet sind bei 5GHz zusammen 10 Milliarden Zyklen.
Cache und so weiter sorgt dann so gesehen nur für Flaschenhälse. Die muss es aber halt geben denn sonst würde die CPU einfach nur vor sich her rechnen ohne zu kommunizieren oder sonst was sinnvolles zu tun^^

Aber ja ist halt dazu noch eine Metrik die über verschiedene Bereiche gemittelt ist und dazu wird das ja nicht mal als Kenngröße irgendwo angegeben. Ist halt rein zum Vergleichen ohne konkretes zu nennen.

Wie bei allen fast allen Themen die auch mal komplexer werden: Theorie und Praxis ist genau wegen sowas nie dasselbe. Theorie beschreibt nunmal meist ein Objekt für sich allein und isoliert. Sowas in der Praxis ist dann aber nur ein Anschauungsobjekt. Sowie die ominösen 25 GHz Graphen Transistoren. Ernsthaft Leute verabschiedet euch davon!
 
Zuletzt bearbeitet:
XD Ach, MMX - das ist soooooooo ur alt und sollte wirklich nicht mehr verwendet werden.
MMX war für 32bit Prozessoren gedacht und erlaubte 64bit Operationen - zB 2x 32bit additionen auf einmal. Nur sind wir schon längst bei 64 bit und normale Additionen sind auch 64 bit breit (und fast immer schneller).
Und MMX hatte natürlich auch Nachfolger. MMX => SSE => SSE2 => SSE3 => SSE4 => AVX => AVX2. Wenn es einfache Matrix-Multiplikationen sind (ein großer Teil der Videokonvertierung) dann kann AVX2 schon mal um den Faktor 16 schneller sein.

Ja stimmt SSE Instuktionen sind die nachfolger von MMX.Ich habe zumindest alle MMX und SSE Instuktionen ein,nur eben nicht die ganzen AVX Befehlsätze
Wenn also bei Zen 3 der Fokus auf AVX liegt,dann liegt das Potzenzial der Mehrleistung leider brach bei mir.
Zwischen Zen 1 und Zen 2 Generation habe ich ja noch Profitiert weil da einiges Optimiert wurde und das selbst trotz das ich da ebenso AVX abgeschaltet hatte.Achja dabei habe ich alle der anderen CPUS bei 4 ghz am laufen gehabt.Da muss sich also auch der 4950x sich dann noch beweisen,wie gut dann die gesammtleistung letztes ende dann sein wird.Achja mein Workload werde ich auch in Zukufnt nicht mehr ändern.



Es bleibt somit spannend wie es am ende aussehen wird.Da ja sowas PCGH nicht testen,suche ich mir dann wenn es so weit ist,einfach einen aus der einen Ryzen 9 4950x hat und bitte im darum es für mich zu testen.Will ja schließlich die selben bedingungen haben wie die anderen über 10 CPUs die ich so getestet hatte eben auch.Könnte zwar nun hergehen und meine Aufnahmen samt settings und genau der Software Version hier posten ,damit ihr es euch ebenfalls anschauen könnt.Frage mich allerdings ob ihr damit was anfangen könnt oder nicht.
 
Zuletzt bearbeitet:
@latiose88
Was hast du geraucht? NIEMAND hat jemals etwas darüber erzählt, daß der Fokus bei Zen3 auf AVX liegt. Genauso wie niemand bisher behauptet hat, selbst Casurin nicht, daß die Gerüchte über die IPC Steigerungen von Zen(x) jemals etwas mit Flunkerei über den AVX Umweg zu tun haben. Oder auch je hatten (!)

Selbst Casurin behauptet das nicht. Er möchte das wohl nur unauffällig implizieren :D Oder so... Was ich für reinen Quark halte, daß AMD irgendwas mit AVX dazwischen schiebt um beim Zen3 auf ~ +10% IPC gegenüber Zen2 zu kommen. Lächerlich.

Und das hier @Casurin " => SSE => SSE2 => SSE3 => SSE4 => AVX => AVX2" ist mal sehr grob vereinfacht erzählt. Was Intel für unnötigen Chaos mit so Blödsinn wie SSSE3 und SSE 4.1 und SSE4.2 auf dem Consumermarkt veranstaltet hat (bei der Kundschaft mit Superkomputern natürlich nicht...) ist eigentlich nicht zu entschuldigen.

Dann war ne Weile Ruhe und es herrschte plötzlich der gesunde Menschenverstand. Bis sie mit AVX-512 all ihre mal wieder neu erworbenen Tugenden mal wieder weggeworfen haben
Linus Torvalds: "I Hope AVX512 Dies A Painful Death" - Phoronix
 
Zuletzt bearbeitet:
@latiose88
Was hast du geraucht? NIEMAND hat jemals etwas darüber erzählt, daß der Fokus bei Zen3 auf AVX liegt. Genauso wie niemand bisher behauptet hat, selbst Casurin nicht, daß die Gerüchte über die IPC Steigerungen von Zen(x) jemals etwas mit Flunkerei über den AVX Umweg zu tun haben. Oder auch je hatten (!)

Selbst Casurin behauptet das nicht. Er möchte das wohl nur unauffällig implizieren :D Oder so... Was ich für reinen Quark halte, daß AMD irgendwas mit AVX dazwischen schiebt um beim Zen3 auf ~ +10% IPC gegenüber Zen2 zu kommen. Lächerlich.

Und das hier @Casurin " => SSE => SSE2 => SSE3 => SSE4 => AVX => AVX2" ist mal sehr grob vereinfacht erzählt. Was Intel für unnötigen Chaos mit so Blödsinn wie SSSE3 und SSE 4.1 und SSE4.2 auf dem Consumermarkt veranstaltet hat (bei der Kundschaft mit Superkomputern natürlich nicht...) ist eigentlich nicht zu entschuldigen.

Dann war ne Weile Ruhe und es herrschte plötzlich der gesunde Menschenverstand. Bis sie mit AVX-512 all ihre mal wieder neu erworbenen Tugenden mal wieder weggeworfen haben
Linus Torvalds: "I Hope AVX512 Dies A Painful Death" - Phoronix

Also du bzw ihr scheint mich falsch verstanden zu haben.Denn es heißt ja IPC Intstuktionen pro Zyklus.Das heißt alles sind instruktionen.Was ja die meisten einheiten an Platz einimmt,wird ja wohl AVX sein.Darum auch die feststellung je weniger Instruktionen ich also somit verwende,desto weniger IPC Vorteil werde ich ja wohl haben.Denn ich werde ja wohl weniger IPC Vorteil haben.Sollte es nicht so stimmen,kannst du bzw ein anderer mich darin ja korigieren.Denn ich wüsste ja nicht was man an Instruktionen missverstehen könnte oder doch?
 
Zurück