ich würde gerne wissen was aktuelle CPU´s für Geschwindigkeiten haben
Wenn Du die Rechengeschwindigkeit meinst, wird Dir das hier weiterhelfen:
https://de.wikipedia.org/wiki/Floating_Point_Operations_Per_Second
So erreichen aktuelle Grafikkarten, die als Vektorprozessoren arbeiten, Rechenleistungen bis zu 5,63 TeraFLOPS
Du findest dort eine Tabelle mit vergleichenden Daten. In welche Klasse bist Du und um welches Fach handelt es sich?
Hier noch ein paar schöne Bildchens:
bis 2008:
http://winfwiki.wi-fom.de/images/th...pu_gpu.jpg/600px-Gflops_vergleich_cpu_gpu.jpg
bis 2010:
https://www.feko.info/about-us/News/gpu_single_precision_performance
2007-2014:
http://www.karlrupp.net/wp-content/uploads/2013/06/gflops-sp.png
Vergleichen würde ich das mit der Leistung von Supercomputern:
Google-Ergebnis für https://upload.wikimedia.org/wikipedia/commons/thumb/8/81/Supercomputers-history.svg/350px-Supercomputers-history.svg.png
Eine einzige schnöde Grafikkarte hat heute dieselbe Leistung in GFLOP, wie es 1995 die fünfhundert leistungsfähigsten Supercomputer zusammen hatten.
Ich habe schon sehr viel gelesen und mich informiert bin aber aktuell etwas verwirrt deswegen wollte ich mir hier Hilfe holen. Ich habe gelesen das der CPU Takt angibt wie viele Schwingungen pro Sekunde entstehen und somit wie viele Operationen ausgeführt werden können. Aber ich habe auch gelesen das Intel CPUs besser aufgebaut sind und trotz geringerer Taktzahlen mehr Leistung erbringen durch ihre intelligente Architektur welche ihn dieses ermöglicht ist das soweit richtig oder habe ich dort etwas falsch verstanden?
Ein Kern einer CPU ist ein Rechenwerk, welcher in einem Takt sehr viele Berechnungen machen kann. Sie sind optimiert auf bestimmte Befehlssätze. Eine einfache Addition von zwei Registern ist ein viel geringerer Aufwand, als eine Multiplikation oder gar das ziehen einer Wurzel. Darüberhinaus ist die Genauigkeit interessant, mit wieviel Stellen gerechnet wird. ob z.B. mit einee 32bit lange Information oder eine 64bit lange berechnet wird, ist ein großer Unterschied.
64bit große Informationen werden als double precision bezeichnet, 32bit lange als single precision. Die Leistungsfähigkeit sackt dann sofort zusammen:
https://www.feko.info/about-us/News/gpu_double_precision_performance
Fragen:
- Wieviel Zeit hast Du?
- Wie sollst Du vortragen, frei, mit Zetteln, Beamer oder als Text abgeben?
- Wann musst Du fertig sein
Bau Dir zuerst eine grobe Gliederung auf. Mach Dir Gedanken darüber, was Du berichten sollst und was nicht. Und überlege Dir, was interessant ist. Dann fülle es mit Leben
z.B. kurzer historischer Abriss:
antike:
https://de.wikipedia.org/wiki/Mechanismus_von_Antikythera
1940: Analog- Rechner
https://tredition.de/autoren/thomas...oten-des-zweiten-weltkrieges-paperback-45953/
ab 1941 Konrad Kuse Z3, der erste digitale Rechner :
https://de.wikipedia.org/wiki/Konrad_Zuse
1969: der erste "kompakt rechner" Computer in Mondlande Fähren:
https://de.wikipedia.org/wiki/Apollo_Guidance_Computer
1978: 8086, die Mutter aller heutigen Rechner
https://de.wikipedia.org/wiki/Intel_8086
1982: C64 der erste Großserien Homecomputer
https://de.wikipedia.org/wiki/Commodore_64
1982: 80286 Basis für Windows Recher
und dann explodiert die Leistung mit 386, 486, Pentium I bis IV, Core i3-i7
Eingehen musst Du auf das Mooresche Gesetz (Verdopplung der Geschwindigkeit alle zwei Jahre)
Dazu dann Herstellverfahren, also Strukturbreite, wir sind heute bei 14nm, vergleiche das mal mit der Wellenlänge von Licht.
=> Viel Spaß