Core i9-9990XE: Selektierter 5-GHz-14-Kerner bei den ersten OEMs

Eigentlich bin ich ja hier um mit Gleichgesinnten zu sprechen, aber ich lass mich heute noch mal von Dir ablenken, in Zukunft versuche ich mich zu diziplinieren bzw. sowas einfach zu ignorieren wegen Zwecklosigkeit.

Amd ist schon froh wenn Sie 64 Kerne auf 4,3 Ghz kriegen oder waren das noch 32? Egal jedenfalls weit außerhalb der Reichweite von drolligen Aussagen oder Schluckauf.

Ich ginge einige Wetten, dass 8auer es schafft zen 2 mit 64 Kernen auf 4,8 - 5 Ghz zu bringen.
Intel kann jetzt nur noch AMD hinterherlaufen und ich freue mich wirklich auf meinen fest eingeplanten Zen2 8-12Kerner (16 ist mir zu viel) für vermutlich 260 Euro mit besserem HT so gut wie ohne Sicherheitslücken und 5Ghz (Radeon 7 geht bei 20° selbstständig bis auf
2100 Mhz da ist für Zen2 viel zu erwarten)

Ps. Von Dir sieht man auch oft diesen dämlichen Auslach-Emote, wenn Du damit nerven möchtest GW hast es bei mir geschafft.
Wobei wir ja alle wissen das Intel wieder mal zündelt bis die Sicherung rausfliegt und das Mainboard feuer fängt.
 
Zuletzt bearbeitet:
Amd ist schon froh , wenn sie 6-8 Kerne auf ca. 4,1 GHZ bekommen , und dabei die Bude nicht Abfackeln :lol:
Wenn ich mich nicht täusche, werde ich womöglich im Sommer von AMD eine 16-Kern-CPU für unter 500€ haben, die etwas ähnliches wie 5GHz als Standardboost hat. Und selbst wenn es nicht 16 Kerne wären, dann könnte ich sicherlich mindestens 12 zu einem noch günstigeren Preis haben.

Kann es sein, dass Dein Emote eigentlich das Gesicht vergräbt und weint?
 
amd ist schon froh wenn Sie 64 Kerne auf 4,3 Ghz kriegen oder waren das noch 32? Egal jedenfalls weit außerhalb der Reichweite von drolligen Aussagen oder Schluckauf

Ps. Von Dir sieht man auch oft diesen dämlichen Auslach-Emote, wenn Du damit nerven möchtest GW hast es bei mir geschafft.
Wobei wir ja alle wissen das Intel wieder mal zündelt bis die Sicherung rausfliegt und das Mainboard feuer fängt.

takt etc. ist egal. am ende zählt was in den benchmark steht. für 1-5% mehrleistung mehr als doppelte zu berappen ist es eindeutig wenn man dann amd nimmt. nicht umsonst führt amd beim 2 sockel system den cinebench benchmark. :ugly:
 
Was kosten Syteme mit dem 14 Kerner?
Normiert auf Takt hat der ungefähr 18 Kerne wenn man so will. Damit wird man nicht mal in Sichtweite zum AMD 64 Kerner sein

Ps. sry hatte Dich falsch verstanden.
PPs das war eine Pro AMD-Aussage von mir ;)
 
Ich bin tatsächlich immer wieder Faszieniert wie weit Intel "Mount-TDP" noch erklimmt.
Dann aber sowas wie "Selektiert, Super Selektiert, Nur Versteigerung, Verlosungen, Spezial Kunden,...." Ziemlich niederträchtig. Mein 8700K bekommt sicher keinen Nachfolger!:nene:

Tja wenn der Leak zu AMD auch nur einen Funken Wahrheit hat, werden sie da wohl sauber mithalten können.--Bei weniger Verbrauch. Zwar ist der Verbrauch jetzt nicht unbedingt wichtig für den Normal User aber die daraus resultierende Abwärme schon. Mal sehen wie sich mein angepeilter AMD 16 Kerner dagegen Schlägt. Der hoffentlich wie "geleakt" auch bei etwa 5.0Ghz Turbo liegt. Die IPC ist ja nach CB auf der CES scheinbar "ähnlich".
 
Zuletzt bearbeitet:
Ich bin tatsächlich immer wieder Faszieniert wie weit Intel "Mount-TDP" noch erklimmt.
Dann aber sowas wie "Selektiert, Super Selektiert, Nur Versteigerung, Verlosungen, Spezial Kunden,...." Ziemlich niederträchtig. Mein 8700K bekommt sicher keinen Nachfolger!:nene:

Wo Leistung ist wird auch Energie gebraucht... Der 14 nm Prozess ist quasi 2019 tot (zumindest im Highend-Bereich ziehste da keinen Hering mehr vom Tisch) da darf man sich mal keine Illusionen machen...

Naja, wenn wir mal ehrlich sind, bis du imho nicht im Markt für den Prozi. Ich werden mir zulegen... allerdings erst in 10-12 Jahren fürn Huni von Ebay ;)...

Tja wenn der Leak zu AMD auch nur einen Funken Wahrheit hat, werden sie da wohl sauber mithalten können.--Bei weniger Verbrauch. Zwar ist der Verbrauch jetzt nicht unbedingt wichtig für den Normal User aber die daraus resultierende Abwärme schon. Mal sehen wie sich mein angepeilter AMD 16 Kerner dagegen Schlägt. Der hoffentlich wie "geleakt" auch bei etwa 5.0Ghz Turbo liegt. Die IPC ist ja nach CB auf der CES scheinbar "ähnlich".

Dir ist schon klar, dass die 5,1 GHz beim gemunkelten Topmodell nur auch einem Kern anliegen werden bei 135 Watt TDP und nicht auf Allen, wie beim Intel mit 255TDP? Irgendwie halte ich da den 16 Kerner mit 4,7GHz Turbo und 125 W TDP für realistischer. Könnte aber natürlich auch an AMDs gutmütigen TDPs liegen...

Bisher sehe ich nur den 12 Kerner für den AM4 als gesichert an. Irgendwas sagt mir, dass der 16 Kerner dem Threadripper zu nah kommen könnte. Vlt. erscheint er auch erst zum Ryzen 4000 Launch? Zumal ein 16 Kerner mit SMT im Mainstream imho noch nicht wirklich sinnvoll ist, da viele Programme oder Spiele immer noch nicht mit der Menge an Kernen wirklich umgehen und gelegentlich Probleme machen können, wie nicht starten, deutlich langsamer laufen oder abstürzen, die für den "Otto-Normal-User" ehr hinderlich statt förderlich sein werden... Aber ich lag ja damals mit dem Ryzen 1 8 Kerner komplett daneben, obwohl ich da nicht an solche Probleme dachte, aber mal abwarten, was da im 3 Quartal passiert...
 
260 watt braucht also dieser 14 kerner mit ht auf 5 ghz.Mann die energiesparsamen Prozessoren zeiten sind also nun vorbei.Jetzt geht es also nur noch mit den stromfressenden Prozessoren.Kommt mir vor als ob sie mit ner brechstange kämpfen würden.So wird es wohl auch in zukunft der stromverbrauch steigen weil wenn das shrinken immer schwerer wird und nicht mehr so stark zur leistungssteigerung führen kann,dann hilft wohl nur noch das diese Prozessoren mehr strom aus der steckdose saufen.Das ist also die Zukunft das man es nicht mehr mit Luftkühler kühlen kann.Ich finde die Zukunft ja schockierend.
 
auf 5ghz kannst Du eher mit min 350 Watt rechnen.
Computerbase ist die Sicherung rausgeflogen als sie den 18Kerner von Intel auf 700 Watt hatten...
 
Wenn die Fertigung sich nicht groß geändert hat, wären das wohl schon
(14 * 21,6667) ~ 300 Watt bei 4,5 Ghz wenn man das Bsp. hier aus dem Thread als Basis nehmen möchte.
400 Watt würden mich nicht wundern vlt 380.
Ich erinnere mich noch wie bei CB die Sicherung rausgeflogen ist, als sie den 18kerner mit OC getestet haben. ;)



Intel Core i9-9900K & i7-9700K im Test (Seite 3) - ComputerBase

...
ein Plus von knapp acht Prozent. Der Verbrauch des Rechners stieg allerdings von 184 Watt auf 273 Watt an (+89 Watt beziehungsweise 48 Prozent)
...
Mit AVX und geringerem Takt 287 Watt unter Volllast.

Hab jetzt einfach den ersten gefundenen Test genommen, war vorher auf 2 anderen Seiten die haben aber mit normalen Settings schon 234 Watt gemessen bei 4,7 Ghz und hatten kein OC

Ps. ich würde gern mal den 9900k mit 160 Watt bei 5ghz und last sehen, gibt es da einen Link ?

Gehe da am besten nicht drauf ein, schont die Nerven. Das sind immer die, die auf 60Hz V Sync on ein Game spielen und dann verkünden wie wenig ihre CPU unter Last doch braucht...
 
Zuletzt bearbeitet von einem Moderator:
Hier ist ja wieder Märchenstunde für den Intel angesagt. Sorry, aber jetzt mal ehrlich. Das Ganze Geblubber von wegen sehr gute 9900k brauchen nur 160 Watt Allcore auf 5Ghz. Vielleicht bei Spielen, die soweit von der Vollauslastung weg sind, wie man nur sein kann. Wenn Igor von THW mit seinem Equipment und der Erfahrung im Torture Loop ohne OC 205 Watt misst für den 9900K und mit OC auf 5Ghz auf 250 Watt kommt, sorry, dann ist das hier nur Märchenstunde. Der macht das mit einem Chiller mit konstanter Temp von 20 Grad. Besser geht das nicht. Und ja auch ohne AVX in Cinebench mit OC 232 Watt gemessen, in Blender 241 Watt etc. Also bitte keine weiteren Märchen dass das alles nur an AVX liegt. Und ja, auch Intel verschickt an die Tester die Besten Samples, wie jeder Hersteller. Aber natürlich sind hier im Forum wieder Zauberer der Physik unterwegs. Ja das ist hart formuliert, aber wirklich mal nötig. Wie viele Märchen über Hardware in Foren kursiert ist ja nicht mehr feierlich.

Und über die TDP Angabe von Intel ist es doch nun wirklich nicht mehr nötig zu reden. Das ist doch schon so oft durchgekaut worden, dass die Intel TDP für den Basistakt gilt. 25% mehr Takt werden auch mehr als 25% an Mehrverbrauch generieren. Wir sind also locker in der 300 Watt Klasse. Und Nein, ich bin kein AMD Fanboy, weder Intel Hater noch sonst was. Habe einen Intel Rechner, einen mit Ryzen und sogar Grafikkarten von beiden Herstellern. Man kann auch einfach mal objektiv bleiben.
 
Mein i9-9900k verbraucht, wenn alle Kerne mit 5GHz fix laufen um die 80 Watt unter FarCry5 bei 4k/ Ultra .
Als gäbe es eine maximale Auslastungen für einen i9 9900k, da limitiert doch vorher weit schon die GTX 1080TI OC oder GTX 2080Ti.
So ein Unsinn.
Davon abgesehen, haben Synthetische Benchmarks die CPUs an ihre Schmelzgrenze bringen, überhaupt nichts mit realen Anwendungen zu tun.
Wenn es dann AVX sein muss, gibt es im Bios dafür einen eigenen AVX-Takt.
Wer zerstört denn seine Hardware absichtlich?
Das wäre ja so, als würde ich meinen 1,8 Liter Turbo Motor mit 8700 U/Min Werksangsben auf 11000 hochdrehen nur weil er es für ein paar Sekunden kann.
 
Zuletzt bearbeitet:
Davon abgesehen, haben Synthetische Benchmarks die CPUs an ihre Schmelzgrenze bringen, überhaupt nichts mit realen Anwendungen zu tun.

Nur wenn man diese realen Anwendungen nicht kennt. :schief:

Benutze mal eine kostenpflichtige professionelle Version des x265 Encoders mit hochauflösendem Videomaterial auf einem 9900K.
Du wirst feststellen, dass die von dieser "realen Anwendung" erzeugte CPU-Last sehr nahe an der liegt, die Prime95 (mit AVX) erzeugt - und ein unlimitierter 9900K dann auch bei einer ganz normalen praktischen Anwendung 200W frisst - oder ein 9900K der innerhalb seiner Spezifikationen betrieben wird noch Taktraten zwischen 3,8 und 4 GHz schafft.


Bitte denkt doch bei so unsinnigen Pauschalaussagen wie "Prime hat mit der Praxis nichts zu tun!!1" nur kurz daran, dass es auch Menschen gibt die andere Dinge mit ihren CPUs tun als zu spielen.
Es ist auch gar kein problem, die AVX512-Einheiten von Skylake-X voll auszulasten ohne synthetische Benchmarks - AVX512 bietet je nach Settings bei oben genanntem Encoderbeispiel auch eine massive Mehrleistung (teilweise über 50%!). Und da sieht man die Vielkern-CPUs auch ganz ohne Prime schnell nahe ihrem Basistakt laufen. Was aber gar nicht schlimm ist - da das Programm bei 3 GHz mit AVX512 viel schneller ist als bei 4 GHz ohne AVX.
 
Nur wenn man diese realen Anwendungen nicht kennt. :schief:

Benutze mal eine kostenpflichtige professionelle Version des x265 Encoders mit hochauflösendem Videomaterial auf einem 9900K.
Du wirst feststellen, dass die von dieser "realen Anwendung" erzeugte CPU-Last sehr nahe an der liegt, die Prime95 (mit AVX) erzeugt - und ein unlimitierter 9900K dann auch bei einer ganz normalen praktischen Anwendung 200W frisst - oder ein 9900K der innerhalb seiner Spezifikationen betrieben wird noch Taktraten zwischen 3,8 und 4 GHz schafft.


Bitte denkt doch bei so unsinnigen Pauschalaussagen wie "Prime hat mit der Praxis nichts zu tun!!1" nur kurz daran, dass es auch Menschen gibt die andere Dinge mit ihren CPUs tun als zu spielen.
Es ist auch gar kein problem, die AVX512-Einheiten von Skylake-X voll auszulasten ohne synthetische Benchmarks - AVX512 bietet je nach Settings bei oben genanntem Encoderbeispiel auch eine massive Mehrleistung (teilweise über 50%!). Und da sieht man die Vielkern-CPUs auch ganz ohne Prime schnell nahe ihrem Basistakt laufen. Was aber gar nicht schlimm ist - da das Programm bei 3 GHz mit AVX512 viel schneller ist als bei 4 GHz ohne AVX.

Gibt es auch eine kostenpflichtige professionelle Version des x264 Encoders. Um wirklich alles aus der CPU rauszuholen was geht und auch eine richtige Ausnutzung von avx, da würde ich sehr gerne mehrere hunderte von € zahlen. Dann wäre ich wirklich schneller. Das kostenpflichtige wird bestimmt besser sein als xmedia recode, handbrake, advidmux oder hybrid. Ich brauche ein richtig fettes Programm. Damit auch bei H264 mehr als 10 Kerne genutzt werden können. Wenn dann wird alles was geht ausgenutzt wird, avx und ht dann könnte ich ne Halbierung der Zeit erwarten. Dann müsste ich mir nicht mit 2 Programmen gleichzeitig behilflich sein um noch mehr Kerner voll auszulassen. H265 ist für mich keine Option und auch nix mit Grafikkarten Umwandlung. Somit bleibt für mich nur H264 übrig. Bin gespannt was es so alles für kostenpflichtigen so gibt. Bei den ganzen anderen profitiere ich bis auf hanbrake(das bei deiner lacing nix hat um meine Aufnahmen gescheit zu deiner lacing zu machen), haben alle andere weder von avx noch von ht wirklich nennswert einen geschwindigkeitsboost bekommen. Von 3,5 auf 4 GHz brachte auch nicht so einen riesigen geschwindigkeitsboost. Nur bei HD und full HD bekam ich da nennenswerte Unterschiede in Minuten zu Gesicht. Mir helfen also die kostenlosen nicht mehr weiter. Was ist denn die besten und teuerste Software bei H264. Und zwar bei mit Oberflächen und keine mit zeilenumwandlung. Denn da habe ich weder echte Ahnung noch ne echte Möglichkeit es zu bekommen. Wenn es drauf ankommen würde, wäre ich sogar bereit einem Programmierer Geld zu geben,der mir ne gescheite Software programmiert. Denn ich selber kann nämlich nicht programmieren. Habt Sache es ist schneller als alle meine Software und umfangreicher bei deinterlacing als es handbrake ist. Dann wäre ich wirklich glücklich wenn ich es dann hätte.


Und wenn man alle prozessoren auf 140-160 Watt limitierten würde, dann geht bei keinem einzigen Viel Kerner mehr 5 GHz. Dann wäre wohl bei 4 GHz wohl Schluss. Hier ist also die Entwicklung bei viel Kerner wohl am Ende angelangt, was echt schade ist.
 
Gibt es auch eine kostenpflichtige professionelle Version des x264 Encoders.

Der schnellste/beste h.264/AVC Encoder ist das x264 Kommandozeileninterface und das kostet nix.
Es gibt hier keine besonders viel besseren Versionen/Implementierungen als das was du aus xMediarecode, Handbrake usw. kennst hinsichtlich Mehrkernoptimierung, AVX usw. - aus einem einfachen grund: Der AVC-Codec selbst kann das aufgrund seiner Struktur nicht ausnutzen da er zu alt ist. Es ist einfach aufgrund der generellen Struktur/Vorgehensweise des AVC-Codecs nicht möglich, besonders viele Threads gut auszulasten da der Codec nunmal nicht besonders gut parallelisierbar ist und die Vektorfunktionen sind auch ziemlich rudimentär weswegen auch AVX nicht viel Mehrleistung bringt.

Oder anders gesagt: Um einen echten Vorteil von vielen Kernen und AVX/2/512 zu haben musst du zwingend den HEVC nutzen. Der ist dem AVC nicht nur in Sachen Kodiereffizienz deutlich überlegen sondern profitiert auch durch große CTUs (64x64 statt 16x16 beim AVC) und massive Vektorfunktionen (viel bessere/komplexere motionestimation-patterns und -ranges) viel besser von modernen Architekturen mit vielen Kernen und AVX-Einheiten.
 
Nur wenn man diese realen Anwendungen nicht kennt. :schief:


Benutze mal eine kostenpflichtige professionelle Version des x265 Encoders mit hochauflösendem Videomaterial auf einem 9900K.
Du wirst feststellen, dass die von dieser "realen Anwendung" erzeugte CPU-Last sehr nahe an der liegt, die Prime95 (mit AVX) erzeugt - und ein unlimitierter 9900K dann auch bei einer ganz normalen praktischen Anwendung 200W frisst - oder ein 9900K der innerhalb seiner Spezifikationen betrieben wird noch Taktraten zwischen 3,8 und 4 GHz schafft.


Bitte denkt doch bei so unsinnigen Pauschalaussagen wie "Prime hat mit der Praxis nichts zu tun!!1" nur kurz daran, dass es auch Menschen gibt die andere Dinge mit ihren CPUs tun als zu spielen.
Es ist auch gar kein problem, die AVX512-Einheiten von Skylake-X voll auszulasten ohne synthetische Benchmarks - AVX512 bietet je nach Settings bei oben genanntem Encoderbeispiel auch eine massive Mehrleistung (teilweise über 50%!). Und da sieht man die Vielkern-CPUs auch ganz ohne Prime schnell nahe ihrem Basistakt laufen. Was aber gar nicht schlimm ist - da das Programm bei 3 GHz mit AVX512 viel schneller ist als bei 4 GHz ohne AVX.

Ich weiss das du dich damit sehr gut auskennst
Das mit AVX habe ich ja bereits anwendungsbedingt eingegrenzt und zugesprochen.
Die offenen 200 Watt sind doch bereits für mich Overclocking.
Zumindest hält mein Asus sich an die Intel-Spezifikationen .
Wir diskutieren halt auch über eine 95 Watt TDP Mainstream-Leistung, CPU .
Würdest du diese CPU mit über 180 Watt für dein 264 codieren, geschweige denn 265 auf 1080p verwenden damit sie sich gleich wieder heruntertaktet? Das scheint mir alles zu Extrem.
Ich würde diesen i9 nicht dafür verwenden, genauso wie beim Haswell-E 10 Stunden keine 200 Watt durchquetschen nur um 8 Kerne auf 4,4 GHz zu bekommen weil ich, er es kann.
Auch in den Benchmarks die AVX nutzen gibt es gute und schlechtere. Das erinnert mich auch an den der 8auer, vor 5 Jahren hieß es last Prime ruhig ein paar Stunden oder eine Nacht laufen und heute heist es von ihm beim i9-9900k ca. 1 Stunde mit 12k genügt. Das meinte ich mit synthetischen Benchmarks die bis zum Themperaturlimit nur voll draufhalten. Prime hatte ich zwar nicht erwähnt aber hier trifft das für ich mich auch zu, ausser ohne AVX mit 8k.
Eine Ausnahme wie ich finde, ist die von dir einmal erwähnte Linepack Extreme, dieses Programm ist wirklich klasse.
Was man halt für sich als zutreffend umsetzen möchte, muss jeder selber entscheiden.
Ich frage mich des öfteren wie Anfänger da noch Überblick haben.
 
Zuletzt bearbeitet:
Linpack extreme ist auch so ziemlich das schlimmste was man einer modernen CPU antun kann (und nochmal deutlich härter als prime).
Diese CPU würde ich nicht für meine Kodiererei benutzen wollen - einfach weil das die falsche Zielgruppe ist. Ich brauche keine CPU die mit Gewalt hohe Taktraten bzw. Singlecore-Leistung erreicht da ich "fehlende" Leistung einfach mit Zeit ausgleichen kann. Ob ich ein Video in 4 oder 5 Stunden kodiere ist ziemlich egal - ob man "live" 40 oder 60 fps hat dagegen nicht, hier kannste nicht einfach "warten".

Der 9990XE ist eher was für Leute die gleichzeitig im CPU-Limit zocken wollen und im Hintergrund kodieren/streamen usw. - also 144Hz-Gaming + Stream + Encode. Für "nur spielen" ist ein 9700K sinnvoller, für "nur kodieren" je nach Budget ein Vielkerner mit weniger Takt.


...nebenbei ich hab grade mal nachgesehen: x.256 ist mittlerweile zwar lizenzpflichtig wenn man selbst ein programm entwickelt das es nutzt aber das reine kodieren ist bis zur höchsten Version aktuell kostenlos. Sprich die aktuelle x.265-Version (2.9) einschließlich AVX512-Support usw. darf frei genutzt werden (auf eigene Gefahr und ohne Support in der kostenlosen Variante). Man kann also einen Skylake-X ganz ohne Zusatzkosten auf seinen Basistakt zwingen. :D
 
Ich erinnere mich, wir hatten schon mal darüber geschrieben und fand Linepack Xtreme auch nicht so empfehlenswert.

Das mit dem AVX und 264, 265 muss ich mir mal näher betrachten.
Vorerst bin an einer Planung zur Thermoelektrischen Kühlung dran.
Das Ganze muss in ein LianLi Cube und auch automatisch funktionieren.
Das zum Thema 200 Watt. :D
Der 9990XE wird bestimmt noch getestet werden.
Wenn der 300 Watt vertilgt, müsste es neue Kühlungen dazu geben.
 

Anhänge

  • Screenshot_20190210-144657.png
    Screenshot_20190210-144657.png
    410,1 KB · Aufrufe: 89
Zuletzt bearbeitet:
...:bday:
;)

"Bei weniger Verbrauch" hab ich geschrieben und das ist richtig. Wie viele Kerne wie viel Watt benötigen um ihren Boost auf 5.0Ghz zu halten, habe ich gar nicht erwähnt.
Mir ist auch klar das mehr Leistung mehr Energie benötigt. Dir aber anscheinend nicht das Intels "Core" eine Uralte Museumsreife Technik ist. :daumen: zu Alt zu Durstig!


Von AMD ist weder ein 16 Kerner noch ein 12 Kerner auf der AM4 Platform "gesichert". Ein 16-Kerner im Mainstream hat wenigstens genauso viel (ehr mehr) daseinsberechtigung wie PCIe 4 u. 5 als Beispiel. Warum also nicht? Ich kann for example die 16 Kerne ganz bestimmt auslasten!
Der kleinste TR und der größte AM4 waren schon seit Beginn nahe beieinander.:daumen:
 
Zuletzt bearbeitet:
Der schnellste/beste h.264/AVC Encoder ist das x264 Kommandozeileninterface und das kostet nix.
Es gibt hier keine besonders viel besseren Versionen/Implementierungen als das was du aus xMediarecode, Handbrake usw. kennst hinsichtlich Mehrkernoptimierung, AVX usw. - aus einem einfachen grund: Der AVC-Codec selbst kann das aufgrund seiner Struktur nicht ausnutzen da er zu alt ist. Es ist einfach aufgrund der generellen Struktur/Vorgehensweise des AVC-Codecs nicht möglich, besonders viele Threads gut auszulasten da der Codec nunmal nicht besonders gut parallelisierbar ist und die Vektorfunktionen sind auch ziemlich rudimentär weswegen auch AVX nicht viel Mehrleistung bringt.

Oder anders gesagt: Um einen echten Vorteil von vielen Kernen und AVX/2/512 zu haben musst du zwingend den HEVC nutzen. Der ist dem AVC nicht nur in Sachen Kodiereffizienz deutlich überlegen sondern profitiert auch durch große CTUs (64x64 statt 16x16 beim AVC) und massive Vektorfunktionen (viel bessere/komplexere motionestimation-patterns und -ranges) viel besser von modernen Architekturen mit vielen Kernen und AVX-Einheiten.

Also sprich ohne h265 liegen sämtliche avx einheiten sowie HT brach.In dem Fall würde der Prozessor wohl aber keine 200 Watt mehr brauchen oder verbraucht er dank den 5 ghz dennoch 250 Watt.Also nützt es nichts wenn die beiden sachen ganz brach liegen.Irgendwas wird doch hier wohl strom einsparen,kann ja nichts sein das es dann ins nichts verpufft.
Nun gut dann werde ich wohl weiterhin mit zwei dieser Programme weiterhin vorlieben nehmen.Für mehr bin leider ich nicht mehr flexibler und darum macht es nur bis zu einem gewissen Grad dann auf viel Kerner zu setzen.Das gillt aber nur wenn ich weiterhin auf h264 setze.Zum glück wird h264 nie ganz auf der Welt verschwinden,selbst nach weiteren 20 oder noch mehr Jahre nicht.Ändert dennoch nichts an der limitierung.Und updates für verbesserungen wird es für h264 auch nicht mehr geben.

Bin gespannt wie es weiter geht.Werde die etwas mehr Kerner weiterhin beobachten.Denn 5 ghz könnten tatsächlich was bringen.Nur ist die Frage ob wir so schnell einen 18 kerner mit ht auf 5 ghz sehen werden ,wo man mit Luftkühler noch kühlen kann.Bezweifle ich aber.Und der stromverbrauch dürfte extrem sein.Gehe wohl von über 700 Watt stromverbrauch aus.Was nicht mainstream tauglich ist.Und temps sind auch nicht mehr zu ertragen.
 
Also sprich ohne h265 liegen sämtliche avx einheiten sowie HT brach.
Nein. Nur deren Nutzen ist sehr viel kleiner bei h.264.

In dem Fall würde der Prozessor wohl aber keine 200 Watt mehr brauchen oder verbraucht er dank den 5 ghz dennoch 250 Watt.
Er verbraucht die 250W wahrscheinlich trotzdem weil er bei "geringerer" Auslastung ja alles auf 5 GHz boosten kann. Wenn der HEVC alle AVX-Einheiten stärker nutzt und alle Threads auslastet verbraucht die CPU genauso die 250W - nur das schon bei 4 statt 5 GHz. Und: In dem Fall sind 4 GHz schneller als 5 da AVX wesentlich effizienter arbeitet bei dem Workload als non-AVX.

Zum glück wird h264 nie ganz auf der Welt verschwinden,selbst nach weiteren 20 oder noch mehr Jahre nicht
So wie DivX und Xvid? und MEPG-2? Natürlich verschwinden die Codecs über die Jahre weil sie komplett von den wesentlich besseren ersetzt werden. HEVC wird auch verschwinden da er von AV1 ersetzt werden wird der wiederum wesentlich effizienter wird. Nur dauert sowas sehr lange und die uralten Codecs können weiterhin abgespielt werden da heutige Hardware verglichen mit damaliger derart schnell ist dass mans auch ohne konkrete Unterstützung im general-purpose Teil der CPU emulieren kann (niemand braucht heute mehr einen DivX-Beschleuniger da jede modernere CPU das nebenher emulieren kann).

Nur ist die Frage ob wir so schnell einen 18 kerner mit ht auf 5 ghz sehen werden ,wo man mit Luftkühler noch kühlen kann.
Dauert noch ungefähr bis Mai. Dann gibts nen Ryzen 3800(X) mit nach aktuellem Stand 16 Kernen und ~5 GHz Boost bei ~125W. Den kannste sehr wahrscheinlich bei 200-250W dann auch allcore bei 5 GHz betreiben. Threadripper mit 32 Kernen und ähnlichen Taktraten folgt dann im Herbst - 32 Kerne werden zwar nicht mit Luft bei 5 GHz kühlbar sein aber 32x4GHz ist garantiert mit 200-250W machbar.
 
Zurück