AMD Ryzen: Zeppelin-Die im Vergleich zu Intel

Vielleicht ist es ja zu krass und darum kann man die Garfikkarten und die CPUs auch nicht so hoch takten

NVIDIA packt ihre 14nm Karten doch genau so stark.
Viel eher mit dem Fertigungsprozess (Scheint keine Chance gegen den Intel und TSMC Prozess zu haben) und der GPU Architektur (nicht umsonst kommt Vega mit GCN5 oder auch 2.0 wen man so will ab Werk mit 1500mhz).
 
Nichts für ungut, aber ich frage mich immer, warum die Leute so viel über die Architektur von Intel wissen :ugly:
Hier hat scheinbar jeder technische Informatik studiert und ein genaues Bild über die von Intel verwendete Architektur sowie deren Schwachstellen und Potentiale. ;)
gRU?; cAPS

Der ganze Beitrag ist eine Vermutung auf Basis von Beobachtungen. Dachte das ist klar.
Ist nunmal so dass die Taktraten seit 15 Jahren kaum gestiegen sind. Und wenn man an die Leistungssprünge zwischen den ersten Core-Architekturen und das Feintuning der TicToc-Ära denkt kanns einem schnell mal so vorkommen. Aber die Zeit wird azeigen ob da was dran ist. Sollt aber an Cannonlake nicht mehr dran sein als 2 Kerne plus wirst nicht drum rum kommen meinen Vermutungen recht zu geben. :P
 
Der ganze Beitrag ist eine Vermutung auf Basis von Beobachtungen. Dachte das ist klar.
Ist nunmal so dass die Taktraten seit 15 Jahren kaum gestiegen sind. Und wenn man an die Leistungssprünge zwischen den ersten Core-Architekturen und das Feintuning der TicToc-Ära denkt kanns einem schnell mal so vorkommen. Aber die Zeit wird azeigen ob da was dran ist. Sollt aber an Cannonlake nicht mehr dran sein als 2 Kerne plus wirst nicht drum rum kommen meinen Vermutungen recht zu geben. :P
Das mit den Taktraten stimmt auch so :D
Nur bei der Architektur hab ich eben keine Ahnung. Das kommt eben auch dazu
gRU?; cAPS
 
Genau das ist der Grund.
Und aus genau dem Grund hats fast 10 Jahre gedauert, bis 8 Threads vom i7 ordentlich genutzt werden (werden sie aber eh nur in einem Bruchteil der Spiele, also eigentlich immer noch nicht wirklich relevant).
Jetzt kommt gerade der 8 Kerner von AMD, der muss zuerst mal Zeigen, dass er in absehbarer Zeit (3-5 Jahre) irgendeinen Vorteil bringt.

Dennoch gibts schon Leute die träumen vom 16 Kerner, 32 Threader. Was für ein Unsinn, den brauchen wir noch die nächsten 10 Jahre nicht für Spiele.

Dir ist schon bewusst das man mit einem PC auch mehr machen kann als spielen? Es gibt genug Leute die Videobearbeitung etc machen.
Oder auch für Leute die beim Spielen gleichzeitig streamen ist das nicht verkehrt.

Wenn man allerdings nur zockt, dann gebe ich dir Recht braucht man einen 8 Kerner (noch) nicht
 
Dir ist schon bewusst das man mit einem PC auch mehr machen kann als spielen? Es gibt genug Leute die Videobearbeitung etc machen.
Oder auch für Leute die beim Spielen gleichzeitig streamen ist das nicht verkehrt.

Wenn man allerdings nur zockt, dann gebe ich dir Recht braucht man einen 8 Kerner (noch) nicht
Hallo Frischling.
Du bist noch nicht so lange hier, drum kurz zur Erklärung:
Ich arbeite an der Universität im Institute for Parallel Computing.
Ich bearbeite gerne Videos und lasse auch neben meinen sonstigen Tätigkeiten, die allesamt mit Mutlithreading zu tun haben, nebenbei auf mehreren kernen eine VM laufen.

Da wir uns aber in einem SPIELE Forum befinden, schreiben wir hier meistens vom Anwendungsfall Spiele. Natürlich gibt es, und da auch noch eine Andere Welt die für 1% der User interessant ist, für 99% der User nicht. Ich habe sie nicht immer erwähnenswert gehalten, aber diese 1% würden mehr Kerne natürlich begrüßen. Warum schreibe ich eigentlich würde: Für diese 1% GIBT es Prozessoren mit mehr Kerne. Und für alle anderen 99% sagt man hier oft pauschal (und zu recht): " 32 Threads braucht niemand"-> dieser "Niemand" sind die 1%.

Weil es aber dennoch gerne i-Typfelchen-Reiter gibt, die sagen "mann, es gibt doch mehr als Spiele, schau doch mal über deinen Tellerrand", gibt es dann eine Phrase, die diesen ganzen Post überflüssig macht. Nämlich der Hinweis, dass dediziert nur Spiele gemeint sind. Wenn du jetzt also schon spitzfindig sein willst, dann schauen wir uns gemeinsam bitte nochmal meienen Beitrag an:
Und aus genau dem Grund hats fast 10 Jahre gedauert, bis 8 Threads vom i7 ordentlich genutzt werden (werden sie aber eh nur in einem Bruchteil der Spiele, also eigentlich immer noch nicht wirklich relevant).
Jetzt kommt gerade der 8 Kerner von AMD, der muss zuerst mal Zeigen, dass er in absehbarer Zeit (3-5 Jahre) irgendeinen Vorteil bringt.

Dennoch gibts schon Leute die träumen vom 16 Kerner, 32 Threader. Was für ein Unsinn, den brauchen wir noch die nächsten 10 Jahre nicht für Spiele.
Ich hab' beim Spielen dann doch lieber 4 Effiziente Kerne als 28 oder 32, von denen halt dann 24 oder 28 brach liegen und nix tun außer Strom verschwenden.
Und hier auch nochmal was aus dem von dir zitierten Beitrag
Das Feld wo man so viele Kerne braucht ist winzig klein.
Ich nehms dir gleich vorweg: bevor du sagst, der Servermarkt ist riesengroß: mit "Man" meine ich den einzelnen User,den Extremen Enthusiasten, den Forscher,den Videoschnippsler, den Cad-Spezi...

Natürlich sind mehr Kerne Nett für die oben genannten Berufe, aber wie gesagt 99% (meinetwegen auch nur 95%) brauchen noch keine 16 Threads, gemeint waren bei mir aber sowieso eher die genannten 16, 28 und 32 Kerner, also 32, 56 und gar 64 Threads

Und bevor du mir jetzt böse bist, dass ich so antworte:

Nimms mir nicht übel: hab' einen langen Tag hinter mir, bin krank und ich möchte dir einen Tipp geben: Du hast wohl meine Beitragszahl übersehen. Oder, wenn du im PCG Forum nachsiehst, mein Registrierungsdatum (das Datum hier ist wegen einer Forenrücksetzung falsch und das richtige ist 2002). Und wenn man so eine Bemerkung macht die offensichtlich ist (Es gibt nicht nur Spiele), dann nimm doch einfach mal an: das kenn ich schon ;)
 
Zuletzt bearbeitet:
...und was ist wenn ich dir für deinen Gamer PC eine CPU samt Board etc schenken will und du dir kostenlos einen aussuchen darfst:
Einmal den i7 7700K oder den 6950X, welchen würdest du nehmen (darfst aber net mit dem Argument Wiedererkauf kommen, musst den also selber nutzen) :fresse:
 
Und auch "Anwendungen" sind längst nicht durch parallelisiert. Auf der Arbeit darf ich z.B. regelmäßig auf den einzelnen Worker von IBMs Rhapsody und Mathworks Matlab Simulink (OK, da sind wenigstens manche Toolboxen etwas beschleunigt) warten.

@Topic: AMD hat da auf jeden Fall ein schmuckes Stück Technik abgeliefert. Schade dass gerade die so hoch gehängte Modularität im Moment der Leistungsfresser zu sein scheint.
 
OMG ... das ist ja tatsächlich ein CCX design.

freute mich schon auf einen echten 8 kerner und nun so eine enttäuschung...

naja die i7 werden billiger und ich werde dann wohl auf einen i7 upgraden gegen ende des jahres.
schade.

Und aus genau dem Grund hats fast 10 Jahre gedauert, bis 8 Threads vom i7 ordentlich genutzt werden (werden sie aber eh nur in einem Bruchteil der Spiele

ist auch überhaupt nicht sinnvoll... ein großteil der spiele läuft nicht mal auf einem 2C/4T i3 im cpu limit.
intel hat halt seit sandy bridge die IPC krone in der hand und jahrelang nahezu den doppelten durchsatz pro kern im vergleich zu AMD.

wozu also parallelisieren?

game engines die das wirklich gut können, kannst du an einer hand abzählen.

dieses know how hat nun mal nicht jeder entwickler, oder legt auch keinen wert darauf.
warum glaubst du haben 90% der games für die ps4/x1 einen 30 fps limiter? ... tja weil da eben mit dem holzhammer optimiert wird (nämlich gar nicht).

und spiele die echt gut laufen auf der PS4 wie DOOM kommen eher selten vor.
da kann ein 0815 rise of the tomb raider, batman arkham knight oder auch ein assasins creed nicht mithalten... die halten nämlich trotz 8x1,6 GHz noch nicht mal 30 fps. :lol:
 
Zuletzt bearbeitet:
OMG ... das ist ja tatsächlich ein CCX design.

freute mich schon auf einen echten 8 kerner und nun so eine enttäuschung...

naja die i7 werden billiger und ich werde dann wohl auf einen i7 upgraden gegen ende des jahres.
schade.



ist auch überhaupt nicht sinnvoll... ein großteil der spiele läuft nicht mal auf einem 2C/4T i3 im cpu limit.
intel hat halt seit sandy bridge die IPC krone in der hand und jahrelang nahezu den doppelten durchsatz pro kern im vergleich zu AMD.

wozu also parallelisieren?

game engines die das wirklich gut können, kannst du an einer hand abzählen.

dieses know how hat nun mal nicht jeder entwickler, oder legt auch keinen wert darauf.
warum glaubst du haben 90% der games für die ps4/x1 einen 30 fps limiter? ... tja weil da eben mit dem holzhammer optimiert wird (nämlich gar nicht).

und spiele die echt gut laufen auf der PS4 wie DOOM kommen eher selten vor.
da kann ein 0815 rise of the tomb raider, batman arkham knight oder auch ein assasins creed nicht mithalten... die halten nämlich trotz 8x1,6 GHz noch nicht mal 30 fps. :lol:

Aha :ugly:

Edit:

1. die PS4 hat einen nativen Achtkern-Prozessor.
2. Aufwendige Spiele müssen für PS4 & XBO enorm optimiert werden.
3. Ein 4+4 ist auch ein Achtkernprozessor nur, dass die Berechnungen auf einem CCX wenn Daten vom anderen CCX gebraucht werden etwas langsamer abgearbeitet werden.

Glaskugel: Mitte des Jahres wird der R7 jeden i7 1151 bei Multithread-Anwendungen in der Tasche haben.
 
Zuletzt bearbeitet:
Das Problem ist halt, bis heute gibt es nicht viele (oder gar keine) Videospiele die 8 Kerne wirklich sinnvoll ausnutzen. Darum ist Intel aktuell auch noch vorne, weil eben 4,5 GHZ mehr bringt also "nur" 4 GHZ. Aber in 2-3 Jahren wird die Sache ganz anders aussehen, und ich sage einfach mal wenn alle Kerne sinnvoll genutzt werden, wird die Kerne > GHZ Zeit kommen. Aktuell ist es ja noch GHZ > Kerne. Wer dann einen 8 Kern CPU mit 16 Thread hat, wird sich die Hände rubbeln, auch wenn diese nur 4 GHZ haben oder sogar darunter.

ääähm und das hat jetzt mit dem thema hier genau was zu tun?
 
OMG ... das ist ja tatsächlich ein CCX design.

freute mich schon auf einen echten 8 kerner und nun so eine enttäuschung...

ist auch überhaupt nicht sinnvoll... ein großteil der spiele läuft nicht mal auf einem 2C/4T i3 im cpu limit.
intel hat halt seit sandy bridge die IPC krone in der hand und jahrelang nahezu den doppelten durchsatz pro kern im vergleich zu AMD.

wozu also parallelisieren?
(...)

1) Das CCX-Design war schon vor Jahren bekannt, Vor- und Nachteile des Designs waren auch schon damals absehbar, und jetzt hier herumraunzen, nochmal Monate nach der tatsächlichen Designpräsentation wo es öffentlich wurde zeugt nur davon dass du noch ein Newbie bist. und ca. 2 Jahre hinten nach. ;)
2) Intel ist seit Yonah der unangefochtene Erste wenns um IPC geht. Yonah kam 2006 auf den Markt. Somit bist da eigentlich schon 6 Jahre hinten nach.
3) Die 30fps bei den von dir genannten Spielen kommen von der Grafikkarte, da hat die CPU nichts mitzureden. Selbst mein alter xeon schafft @Stock jedes AC mit deutlich über 60fps.
4) Die Entwickler haben über kurz oder Lang keinen anderen Ausweg als die Parallelisierung sollte meine Vermutung zutreffen und die Singlecore-Leistung nicht noch signifikant gesteigert werden können. Bis jetzt war es einfach nicht so notwendig. Aber ich denk die Einschätzung von Rollora mit den Jahren wird da eher zutreffen als unser aller, da is da eher vom Fach.

@Rollora: Schlecht geschlafen? So laut kenn ich dich garnicht gegenüber den Neuen. ;)

Wüsst zu gern ob ich auch so frech war als ich meine ersten Posts hier verfasst hab :schief:
 
Fast noch interessanter finde ich wie viel mehr Transistoren Ryzen ggü. Broadwell-E (trotz Quadchannel und mehr PCIe Lanes) und vor allem Skylake (trotz iGPU) hat. Allein der größere L2-Cache kann es doch nicht sein, wofür geht das alles "drauf" (in Anbetracht des etwa selben Leistungsniveaus)?
 
Hallo Frischling.
Du bist noch nicht so lange hier, drum kurz zur Erklärung:
Ich arbeite an der Universität im Institute for Parallel Computing.
Ich bearbeite gerne Videos und lasse auch neben meinen sonstigen Tätigkeiten, die allesamt mit Mutlithreading zu tun haben, nebenbei auf mehreren kernen eine VM laufen.

Da wir uns aber in einem SPIELE Forum befinden, schreiben wir hier meistens vom Anwendungsfall Spiele. Natürlich gibt es, und da auch noch eine Andere Welt die für 1% der User interessant ist, für 99% der User nicht. Ich habe sie nicht immer erwähnenswert gehalten, aber diese 1% würden mehr Kerne natürlich begrüßen. Warum schreibe ich eigentlich würde: Für diese 1% GIBT es Prozessoren mit mehr Kerne. Und für alle anderen 99% sagt man hier oft pauschal (und zu recht): " 32 Threads braucht niemand"-> dieser "Niemand" sind die 1%.

Weil es aber dennoch gerne i-Typfelchen-Reiter gibt, die sagen "mann, es gibt doch mehr als Spiele, schau doch mal über deinen Tellerrand", gibt es dann eine Phrase, die diesen ganzen Post überflüssig macht. Nämlich der Hinweis, dass dediziert nur Spiele gemeint sind. Wenn du jetzt also schon spitzfindig sein willst, dann schauen wir uns gemeinsam bitte nochmal meienen Beitrag an:

Und hier auch nochmal was aus dem von dir zitierten Beitrag

Ich nehms dir gleich vorweg: bevor du sagst, der Servermarkt ist riesengroß: mit "Man" meine ich den einzelnen User,den Extremen Enthusiasten, den Forscher,den Videoschnippsler, den Cad-Spezi...

Natürlich sind mehr Kerne Nett für die oben genannten Berufe, aber wie gesagt 99% (meinetwegen auch nur 95%) brauchen noch keine 16 Threads, gemeint waren bei mir aber sowieso eher die genannten 16, 28 und 32 Kerner, also 32, 56 und gar 64 Threads

Und bevor du mir jetzt böse bist, dass ich so antworte:

Nimms mir nicht übel: hab' einen langen Tag hinter mir, bin krank und ich möchte dir einen Tipp geben: Du hast wohl meine Beitragszahl übersehen. Oder, wenn du im PCG Forum nachsiehst, mein Registrierungsdatum (das Datum hier ist wegen einer Forenrücksetzung falsch und das richtige ist 2002). Und wenn man so eine Bemerkung macht die offensichtlich ist (Es gibt nicht nur Spiele), dann nimm doch einfach mal an: das kenn ich schon ;)

Ich merke schon du bist hier der richtig gute Kenner und Profi.Vielleicht kann ich ja von dir noch was lernen.
Übrigens mit Videos umwandeln hatte ich ja auch ein thread eröffnet gehabt.Und man stellte fest das selbst Videoumwandeln das limit selbst wenn man alles auf maximum stellt ref frames,threads 128 usw das selbst nur maximal ein 64 kerner ausgelastet wird.Ich hatte da auch ne webseite erhalten gehabt mit 128 kerne wo nur 50 % maximal ausgelastet wird.Da ist also auch irgendwann das ende erreicht.
Mich wirds interessieren mit wieivelen kernen du da hantierst.Muss also wohl sehr viele kerne sein.

Und noch was auch wenn bluray rippen allgemien eher nicht so gern gesehen wird,aber ich besitze ja das original und möchte für mich ne eigenkopie machen,da kann ja keiner was sagen oder machen.Ich habe da make mkv benutzt.Aber bei einigen stellen ruckelte das Bluray video.Es befindet sich als mkv.Der BLuray laufwerk schafft nur maximal 22 x geschwindigkeit.Ist also ein eher lames Laufwerk.Mir hat einer gesagt gehabt das es an zuwenig ram liegt.Kann ich mir nicht vorstellen das 8 gb Arbeitsspeicher echt zu wenig ist.Warum sollte beim abspielen denn soviel arbeitsspeicher benötigt werden.Ich habe hierfür den vlc playler benützt.Da dieses Video 12 gb bei 1 Stunde und 45 minuten groß ist scheint da irgendwas im argen zu sein.Fände also toll wenn ich hilfe bekommen würde.Mich nervt nur das die hersteller nur 1080i verwenden.Warum müssen es immer nur halbilder sein.Klar ist das toll das es kein deinterlacing hat aber so macht man hier keinem einen gefallen.Kein wunder das sich bluray so schlecht verkauft.Die Hersteller machen echt nur murx.Am besten wäre es wenn bluray ausstirbt damit so mist nimmer passiert.
 
Nun ja. Was man heute als mittlemäßigen Spielerechner bezeichnet wäre vor 15 Jahren eine wahnsinns super Hardwaresensation gewesen.

Für diese Rechenleistung, kombiniert aus Quadcore CPU und GPU mit OpenCL fähigen Rechenkernen hätte damals so mancher ne halbe Million oder mehr locker hingeblättert, mit dem Gefühl dabei, ein Schnäppchen gemacht zu haben.

Wenn es sich nun herausstellt, daß man damit nicht einmal ein Video ruckelfrei konvertieren kann, dann liegt das sicherlich an der eingesetzten Software und nicht an der Hardware.

Die Hardware entwickelt sich einfach zu schnell und die Softwareprogrammierer kommen nicht mehr hinterher.

Als ich mir damals die Radeon 5870 gekauft hatte, hieß es überall, daß es eine Wahnsinnshardware mit brachialer Leistung von 2.5 TFLOP wäre. Dann kamen die ersten Anwendungen für GPU Compute auf, um diese Rechenleistung auch irgendwie dem Käufer/Nutzer zu Verfügung zu stellen. Da fallen mir spontan bloß 3 Sachen ein, auf die ich damals aufmerksam wurde. Das eine war ein Plugin für Photoshop CS3 um dort den Bildaufbau beim Rein-und Rauszoomen von großen Bilddateien und verschiedene Filterfunktionen zu beschleunigen. Das zweite war eine Software von einem Bastler aus der Schweiz, der ein Programm erstellt hatte, um MD5 Verschlüsselungen mit Hilfe von Passwortlisten oder Brute-Force Algorithmen zu knacken. Das dritte waren diverse Programme, um Videodateien angeblich mit Hardwarebeschleunigung zu konvertieren. Die daraus entstandene Bildqualität war, verglichen mit der herkömmlichen Konvertierung per CPU, allerdings bedeutend schlechter und die Auslastung des Grafikprozessors durch diese Berechnung bei der Konvertierung vernachlässigbar gering.

AMD entwickelte 2010 das sogenannte AMD Stream SDK. Das erreichte noch nicht einmal die Versionsnummer 1.0 bis die neue GCN Architektur am Start war und Stream wieder fallengelassen wurde, zugunsten der effektiveren und kompatibleren OpenCL API, welche wiederum eine Karte mit GCN Chip erforderte.

Spiele sollten damals Compute Aufgaben wie Physikemulation auf die Grafikhardware verlagern, weil man so deren hohe parallele Rechenleistung voll Nutzen kann.

Das Ende vom Lied war, daß AMD sowas garnicht unterstützte bzw. das Stream SDK von Entwickler offensichtlich kaum genutzt wurde und nVidia einige wenige Spiele mit PhysX-Effekten auf den Markt gebracht hatte, welche meistens von der CPU und nicht wie ursprünglich beworben, von der GPU berechnet wurden.

Der Entwicklungsaufwand für solche Spielereien ist einfach zu groß, das Know-How zu wenig verbreitet und Spiele sind kurzlebige Konsumartikel, die diesen ganzen Aufwand überhaupt nicht Wert sind.
 
Zuletzt bearbeitet:
Nutzfläche, Bebaute Fläche, Rechnerischer Nachweis? :ugly:

Schon beim ersten Test des i7-980x wurde baldige Mehrkernoptimierung vorausgesehen. Das ist 7 Jahre her.

Ich denke oft wirds nicht am Unwillen der Programmierer liegen, sondern einfach daran dass es sauschwer ist, multithreaded zu programmieren. Man stelle sich 2 Tischler vor, die zu zweit einen Tisch bauen sollen, aber aus dem selben Material den Zuschnitt machen. Jedes seperate Einzelteil müsste gleichzeitig fertig werden, es dürfte keine Abhängigkeiten der Einzelteile geben und und und....
Zwei Arbeiter auf einer Baustelle sind nie doppelt so schnell wie einer aus oben genannten Gründen. Daher ist Multithread-Programmierung auch so schwierig, weils oft Abhängigkeiten gibt, und ich denk deshalb skalieren Einzelanwendungen auch 2017 besser mit dem Takt und werden es auch weiterhin tun. Dass es aber auch hier eine Grenze gibt und man dann keine Wahl mehr hat als auf mehr Threads auszuweichen ist auch absehbar. Die Core-Architektur ist ausgelutscht, sauberer als das Nutellaglas meiner besseren Hälfte. Deutliche Steigerungen sind weder über Takt, noch Architektur drinnen. Ich vermute deshalb geht Intel den Schritt auf Hexacore-1151.

Einen anderen potenziellen Grund sehe ich in der Steam Survey. Man will ja möglichst wenige potenzielle Kunden ausschließen, und wo kann man besser (und billiger) daten über die Hardware von PC Gamern bekommen als ind er Steam Survey (Datensammeln in eigenen Spielen mal ausgenommen, aber da fehlen natürlich all jene die jene Spiel nicht gekauft haben)? Dort haben noch knapp die Hälfte der rechner weniger als 4 Kerne (Physische Kerne wohlbemerkt, sprich die i3 gehören auch dazu), Selbst wenn man Hyperthreading mit einbezieht sollte die Engine mit 4 Kernen auskommen um nicht die Hälfte der potenziellen Kundschaft auszuschließen. Mehr als 4 Kerne hat da zudem fast keiner (weniger als 2% - insgesamt wohlbemerkt!), schlimmer noch: die 6- und 8 Kerner sind seit Monaten rückläufig in der Statistik, macht also kein Sinn für die Entwickler auf jene zu bauen.

Dies bringt natürlich auch ein Henne-Ei Problem mit sich: Engines werden erst auf mehr Kerne setzen wenn sich diese auch durchsetzen, aber wozu Prozessoren mit mehr Kernen kaufen fürs Gaming, wenn jene nicht benutzt werden? Ich hoffe dementsprechend, dass mit Ryzen die Marktsituation sich verschiebt in Richtung mehr Kerne und dass Engines im Gegenzug jene auch ausnutzen zu wissen werden. Dass Intel zuküftig Sechskerner im Mainstream anbietet ist da auch sicherlich nicht schlecht, genauso wie die ersten Anzeichen dass das Namensschema sich in Richtung mehr Kerne verschieben wird.
 
@downsampler. Du hast bestimmt indirekt beantwortet. Nun das ruckeln liegt nicht an der software. Wer schuld Sind, Sind die das herstellen also 1080i mit 25 vollbilder oder 50 halbbilder Als m2ts in adva ist wirklich traurig. Dièse ruckeligen kameraschwenks ist das einzige was sogar beim rohmaterial ruckelt. Ich habe den k- kit mit media Player classic auf aktuellem stand. Als ich das endlich wiedergeben konnte ruckelte es an bestimmten stellen beim kamerschwenks seitlich.
hier gebe ich der ganze filmindustrie die schuld. Dièse 25 frames ist nicht mehr zeitgemäs und die ganzen fernsehanstalten machen den ganzen schmarn Auch Nich mit aber Gut die können auf grund der zu geringen bandbreite nichts dafür. Aber Bei bluray wo jede 20 euro kostet erwarte ich was gescheites. Es ist ein armutszeugnis im jahre 2017 noch mit 25 fps herrumzudünpeln.

nur eine direkte beschwerde wird nur leider nichts bringen. Leider.
 
Die Chips, sind zwar nicht gut geeignet um sehr hoch zu takten. Dafür kann man aber pro Wafer recht viele CPUs herstellen, womit 8 Kerne recht günstig herzustellen sein sollten.
Mal sehen, ob es später noch 16 Kerner für Workstations gibt. Auch teildeaktivierte Chips als 12 Kerner sollten dann möglich sein.
 
Zurück