AMD Ryzen: Zeppelin-Die im Vergleich zu Intel

Wie sieht es eigentlich mit lernfähigen neuronalen Netzen aus?
Diese sollen ja in der Lage sein eigenständig Code zu schreiben und sich sogar selbständig verbessern können.
Da gut implementierte Mehrkernoptimierung ja scheinbar möglich ist, nur irgendwann verdammt komplex und aufwendig wird,
könnten lernende Neuronale Netze eigenen Code schreiben der vielleicht von einem Menschen nicht mehr nachvollziehbar ist aber dennoch stark Mehrkernoptimiert wurde.

Wahrscheinlich wird es dann eine Schnittstelle geben, in der es möglich sein wird Neuronalen Netzen Programmcode einfach "vorzuwerfen".
Diese werden sich dann mit dem Code auseinandersetzen, die Funktionen analysieren und diese möglichst Parallelisieren.
Vielleicht könnte dieser Prozess mit Quantencomputertechnik weiter beschleunigt werden.
Das ganze ist natürlich noch alles Zukunftsmusik, aber ich finde das ganze sicherlich nicht abwegig.
Da das ganze auf gefährlichem Halbwissen basiert, möchte ich noch einmal darauf hinweisen, dass dieser Beitrag reine Spekulation ist.

@Rollora: Da du ja in diesem Bereich arbeitest...
Wäre so etwas in naher Zukunft denkbar ? zwischen (2028-2050)
 
@Rollora: Schlecht geschlafen? So laut kenn ich dich garnicht gegenüber den Neuen. ;)
Dachte mein letzter Satz kam eh entschuldigend rüber ;)

Ja: Seit 1 Woch kaum geschlafen, krank und trotzdem arbeiten is halt keine gute Kombination.
Ich werd mich wieder benehmen, versprechs. Geh heut mal früher schlafen und mal schauen, vielleicht kann ich sogar schlafen
Ich merke schon du bist hier der richtig gute Kenner und Profi.Vielleicht kann ich ja von dir noch was lernen.
Übrigens mit Videos umwandeln hatte ich ja auch ein thread eröffnet gehabt.Und man stellte fest das selbst Videoumwandeln das limit selbst wenn man alles auf maximum stellt ref frames,threads 128 usw das selbst nur maximal ein 64 kerner ausgelastet wird.Ich hatte da auch ne webseite erhalten gehabt mit 128 kerne wo nur 50 % maximal ausgelastet wird.Da ist also auch irgendwann das ende erreicht.
Mich wirds interessieren mit wieivelen kernen du da hantierst.Muss also wohl sehr viele kerne sein..
Du kannst wohl nicht lesen. Ich hab' doch geschrieben, dass man beim Video Editing als eine der wenigen Anwendungen viele Kerne braucht...
Und na gearbeitet habe ich mit sowas hier, wobei die meisten unserer Computer leider nicht hier stehen (etwa ein PS3 Cluster) Research Group Scientific Computing

Und noch was auch wenn bluray rippen allgemien eher nicht so gern gesehen wird,aber ich besitze ja das original und möchte für mich ne eigenkopie machen,da kann ja keiner was sagen oder machen.Ich habe da make mkv benutzt.Aber bei einigen stellen ruckelte das Bluray video.Es befindet sich als mkv.Der BLuray laufwerk schafft nur maximal 22 x geschwindigkeit.Ist also ein eher lames Laufwerk.Mir hat einer gesagt gehabt das es an zuwenig ram liegt.Kann ich mir nicht vorstellen das 8 gb Arbeitsspeicher echt zu wenig ist.Warum sollte beim abspielen denn soviel arbeitsspeicher benötigt werden.Ich habe hierfür den vlc playler benützt.Da dieses Video 12 gb bei 1 Stunde und 45 minuten groß ist scheint da irgendwas im argen zu sein.Fände also toll wenn ich hilfe bekommen würde.Mich nervt nur das die hersteller nur 1080i verwenden.Warum müssen es immer nur halbilder sein.Klar ist das toll das es kein deinterlacing hat aber so macht man hier keinem einen gefallen.Kein wunder das sich bluray so schlecht verkauft.Die Hersteller machen echt nur murx.Am besten wäre es wenn bluray ausstirbt damit so mist nimmer passiert.

Damit kenne ich mich leider nicht aus, weil ich keine BDs und DVDs mehr rippe (wenn ich was mit videos mache dann mit dem eigenen, unkomprimierten Material. Zur Komprimierung verwende ich dann manchmal Handbrake inkl QuickSync für nicht ganz so wichtige Sachen, weils 10x schneller geht als der 8 Kerner (Intel) in der Arbeit.
Ich habe nur 2 BD Videos auf der festplatte, die sind aber beide knappe 50 GB. Ruckeln hab' ich bislang nicht feststellen können. Kann dir also nich wirklich sagen woran es liegt :(
@Rollora: Da du ja in diesem Bereich arbeitest...
Wäre so etwas in naher Zukunft denkbar ? zwischen (2028-2050)
Pauschal gesagt: ja.
KI gestütztes Programmieren und automatisches weiterentwickeln solcher Programme ist sicher etwas, das in Zukunft wichtiger wird. Schon heute wünscht man sich intelligentere Tools, aber auch intelligentere Sicherheitsfeatures (also so etwas wie selbstlernende Antivierenprogramme usw).
Ob das dann die Hardwaredaten selbstständig analysiert und ausliest, den Code anders anordnet... naja warum nicht. Aber: einen Zeitrahmen kann ich dir dafür beim besten Willen nicht geben. 10 Jahre scheint noch etwas früh, 30 wirkt schon wieder sehr lang und so weit kann leider keiner nach vorne sehen.
 
Zuletzt bearbeitet:
Für AMD wird der CPU hoffentlich ein Verkaufsschlager aber ich persönlich brauche auch für die Zukunft genügend Lanes.
Gruss
 
Wie sieht es eigentlich mit lernfähigen neuronalen Netzen aus?
Neuronale Netze sind Approximatoren. Wenn man die genaue Rechenvorschrift kennt (also z.B. bei einer Physik Simulation) machen die eigentlich keinen Sinn. Direkt werden sie deshalb nicht das Programm ausmachen. Bei der Code-Optimierung könnten sie aber helfen. Automatische Mehrkern-Optimierung würde allerdings erst einmal einen Anfang mit statischer automatischer Parallelisierung erfordern. Selbst das ist aber quasi noch gar nicht existent.

Dafür hat AMD aber laut eigener Aussage direkt im Prozessor ein kleines NN welches die Sprungvorhersage an den Anwender anpassen soll. Da wäre auch mal ein Test interessant welcher eine Anwendung im Dauerloop laufen lässt. Eigentlich müsste die mit der Zeit minimal schneller werden.
 
Zuletzt bearbeitet:
ich denke ein großer teil des vorsprungs intel vs amd kommt daher das intel viel noch händisch optimiert was amd automatisiert hat. das hat vorteile bei der packdichte aber eben nachteile bei der latenz.
 
Intel leistet sich auch einfach x monolithische Designs ohne bremsenden Interconnect (afaik 2-Kerner, 4-Kerner, 6-8Kerner und 10-16 Kerner) während AMD versucht alles aus einem Coredesign und am besten noch aus einer einzigen Maske zu bauen.

"Händische Optimierung" kann man auf x Ebenen ansetzen. Intel könnte (und wird) z.B. auch seine Routing Libs selbst optimieren.
 
In diesem Zusammenhang vielleicht nochmals die Frage, wie eigentlich die 4C entstehen? Mit infinity fabric über 3/1 bzw 2/2C oder nur reine 4/0 (also ein intaktes CCX)? Erkennbarkeit? Zu erwartende Unterschiede?
 
Da hat sich AMD schlicht noch nicht zu geäußert. Wünschenswert wäre eine eigene Quadcore Maske mit einem einzelnen CCX. Was kommt ist aber noch nicht klar.
 
Wie sieht es eigentlich mit lernfähigen neuronalen Netzen aus?
Diese sollen ja in der Lage sein eigenständig Code zu schreiben und sich sogar selbständig verbessern können.
Da gut implementierte Mehrkernoptimierung ja scheinbar möglich ist, nur irgendwann verdammt komplex und aufwendig wird,
könnten lernende Neuronale Netze eigenen Code schreiben der vielleicht von einem Menschen nicht mehr nachvollziehbar ist aber dennoch stark Mehrkernoptimiert wurde.

Wahrscheinlich wird es dann eine Schnittstelle geben, in der es möglich sein wird Neuronalen Netzen Programmcode einfach "vorzuwerfen".
Diese werden sich dann mit dem Code auseinandersetzen, die Funktionen analysieren und diese möglichst Parallelisieren.
Vielleicht könnte dieser Prozess mit Quantencomputertechnik weiter beschleunigt werden.
Das ganze ist natürlich noch alles Zukunftsmusik, aber ich finde das ganze sicherlich nicht abwegig.
Da das ganze auf gefährlichem Halbwissen basiert, möchte ich noch einmal darauf hinweisen, dass dieser Beitrag reine Spekulation ist...

Science-Fiction Humbug ist das. Neuronale Netze, lerndende Maschinen. Selbst wenn es sowas gäbe, wer will das schon haben? Und wozu? Spielt der Computer dann die Spiele selber und wir gucken bloß noch zu, so wie bei den "let´s play" Kindern auf youtube?
 
Wenn ich dicht bin, pack ich die hohen Taktraten auch nimmer so gut. Oder noch besser. Substanzabhängig.

Ja das kenne ich von früher wen man mit turbo boost versucht hat parallel mehrere Aufgabenstellungen zu bedenken und das Ergebnis stets eine kernel Panik verursachte. Heute dämpfe ich das verlangen nach Geschwindigkeit, in der Ruhe liegt die Kraft.
 
Zurück