Rechenfehler bei Intel und AMD

Compuponder

Schraubenverwechsler(in)
Liebe Community,

ich hab da mal eine Frage zu Intel und AMD, zu der ich in den weiten des Internets leider nichts finden kann. Mir ist klar, dass das ganze eine Art Glaubenskrieg ist, ich bitte dennoch um sachdienliche Antworten. Ich habe keine vorgegebene Präferenz für eine der beiden Marken. Mein erster 386 war ein AMD, dann folgte ein Pentium 1, dann ein Athlon XP, ein Athlon 64, ein Core2Duo und schließlich ist nun schon seit einigen Jahren ein i5 mein Rechner. Grundsätzliche finde ich es schön, dass sich nun die Frage, zu welchem Hersteller man greift, nun überhaupt wieder stellt.

Zur eigentlichen Frage: Damals, zu Zeiten von Pentiums und Athlons meinte mein Informatiklehrer an der Realschule (wir alle hatten die günstigeren und schnelleren Athlons zum zocken), dass der Grund, weshalb im professionellen Bereich (Forschung, etc.) nur Intels und keine AMDs zum Einsatz kämen, wäre, dass Intel über eine höhere "Rechengenauigkeit" verfüge. So wären Rechenfehler, die in der CPU passieren, weil Strom von einem Schaltelement in ein anderes überspringt bei AMD höher. Man würde das zum Beispiel messen können, wenn man aus einer WAV Datei eine MP3 berechnet, er sprach von Digitalisierungsfehlern. Ich habe keine Ahnung, ob diese Aussage von damals stimmt, konnte dazu im Netz nichts finden. Falls das aber jemals wahr war: Wie ist das heute? AMD fertigt ja mittlerweile in 7nm, Intel noch in 14. Irgendeine Gefahr, dass da eine Isolierung zwischen zwei Transistoren nicht ganz so gut arbeitet wie sie soll?

Komische Frage, ich weiß, aber ich freue mich über ernst gemeine Antworten.
 
Das sind keine Rechenfehler gewesen ist eher mit dem neu aufgetauchten work around zu Metalab vergleichbar.

Hier arbeiten im Hintergrund scripte und Programme die eine CPU Kontrolle durchführen und wenn zb Intel verbaut ist werden andere bzw moderne befehlssätze angewendet zb avx2 das wird von AMD und Intel unterstützt nur das Intel dies seit haswell kann und AMD erst seit Ryzen. Solche Sachen gab es früher auch schon nur kommt es heute eher ans Licht durch Internet und Co.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Man würde das zum Beispiel messen können, wenn man aus einer WAV Datei eine MP3 berechnet, er sprach von Digitalisierungsfehlern..

Das war Quark. Digitalisierungsfehler enstehen, wenn etwas digitalisiert wird, z.B, ein analoges Musiksignal eingelesen und als WAV gespeichert wird. Das liegt dann aber am AnalogDigitalConverter ADC, nicht am Prozessor. In Deinem Bespiel rechnet der Prozessor Daten um, die bereits digital vorlagen. Ich denke nicht, daß ein und derselbe Codec unter verschiedenen Plattformen verschiedene Ergebnisse liefert.
 
Zur eigentlichen Frage: Damals, zu Zeiten von Pentiums und Athlons meinte mein Informatiklehrer an der Realschule (wir alle hatten die günstigeren und schnelleren Athlons zum zocken), dass der Grund, weshalb im professionellen Bereich (Forschung, etc.) nur Intels und keine AMDs zum Einsatz kämen, wäre, dass Intel über eine höhere "Rechengenauigkeit" verfüge.
Das hier hatte Dein Informatiklehrer damals wohl nicht mitbekommen oder auch verdrängt. :D Pentium-FDIV-Bug – Wikipedia
 
Nein, da hat er mist erzählt.

Es lag eher daran das Intel die Firmen geschmiert hat! Wofür die auch vor der EU mit 1,06Mrd. € bestraft wurden.

Andere Gründe hatte es nie.

Inzwischen ist es eher anders, es denken inzwischen viele Firmen und Betreiber von Großrechner darüber nach nicht auf Epyc zu gehen. Schließlich bieten die mehr für weniger Geld.
 
Da ist sehr sehr viel Durcheinander^^

Ein paar Dinge:

1.) Rechengenauigkeit hat nichts mit Rechenfehlern zu tun. Die Genauigkeit wird defininiert ob du Operationen beispielsweise mit FP16, FP32 oder FP64 ausführst (Menge der Nachkommastellen bei Berechnungen, das nennt sich dann half, single oder double precision). Das können alle diese Chips, nur ggf. je nach Architektur schneller oder langsamer.

2.) Jede CPU, egal ob AMD oder Intel, hat HUNDERTE an Bugs. Diese sind in Erratalisten von den Herstellern (soweit bekannt) auch angegeben und werden in wissenschaftlichen Umgebungen gezielt umgangen. Bekannte Errata der letzten Zeit sind beispielsweise Meltdown und Spectre, berühmtere Rechenfehler-Errata waren der genannte Pentium FDIV-Bug oder bei AMD der TLB-Bug des Phenom.

3.) Wissenschaftliche Hardware nutzt zusätzliche Sicherungsfunktionen gegen Fehler die bei "normaler" Hardware (unabhängig vom Hersteller) nicht ganz ausgeschlossen ist selbst wenn sie 100% funktioniert wie sie soll. Dazu zählt beispielsweise ECC-Speicher (Also Prüfsummen).

4.) "Strom überspringt Schaltelemente" gibt in zwei Arten: Kurzschluss und Leckstrom. Kurzschlüsse führen mindestens zu falschen Ergebnissen, meist aber zum Totalabsturz. Leckströme tun das (sofern sie nicht zu groß werden) nicht und die hat jeder Siliziumchip der Welt. Auch hier keinerlei Unterschied zwischen herstellern.

Alles in allem: Was du da erzählt bekommen (oder verstanden) hast ist grober Unsinn. Es gab und gibt sowohl von Intel als auch von AMD (und NVidia und IBM und...) Hardware die für wissenschaftliche Zwecke bzw. maximale Stabilität optimiert ist. Was da besser geeignet ist hängt vom Workload und den Kosten ab aber hat definitiv nichts damit zu tun dass ein Hersteller irgendwie "bessere Transistoren" oder ähnliches hätte (weder heute noch damals) - das ist einfach ein urbanes Märchen.
 
Dann stelle ich mal die These auf, (Kann mich da irren. Also nicht drauf aufhängen)

"Das die Technologie mit Strom durch leiterbahnen zu jagen in den Kinder schuhen wahr und heut zu Tage deutliche höhre takte und stabiler hin bekommt wegen den 0 -->1 und den umstand dass zu viel strom oder zu wenig entweder 0 oder 1 ergeben hat."

Aber vor weg ich stelle das auf was ich von damals noch weis und nicht unbedingt nur verstanden habe.

These,

"Du kannst wav nicht mit mp3 vergleichen dass sind unterschiede wie die cpus um die jahrtausent wende und heutige cpus egal von wehn."

Auch hier gilt, dass ist eine These die ich mal aufstelle ob sie stimmt oder nicht ist dabei egal. Die aussage soll nur aussagen dass es an sich gleiche produkt handelt blos deutlich besser und alles stamt von den cpus ab von 2000.
 
Dann stelle ich mal die These auf, (Kann mich da irren. Also nicht drauf aufhängen)

"Das die Technologie mit Strom durch leiterbahnen zu jagen in den Kinder schuhen wahr und heut zu Tage deutliche höhre takte und stabiler hin bekommt wegen den 0 -->1 und den umstand dass zu viel strom oder zu wenig entweder 0 oder 1 ergeben hat."

Stromflüsse in CPUs haben nichts mit 0 oder 1 zu tun, die Nullen und Einsen entstehen durch bestimmte Zustände/Schaltpositionen von Transistoren. Stromflüsse die entstehen um diese zu verändern sind nur notwendiges Übel. ;)
Vergleiche es mit Speicher auf Festplatten oder USB-Sticks/SSDs: Da sind auch Milliarden von Nullen und Einsen drauf (Zustände), es fließt aber keinerlei Strom wenn der Stick in der Schublade liegt. Stromflüsse sind nur dann nötig, wenn Zustände VERÄNDERT (oder je nach Speichertyp aufrechterhalten) werden sollen.

Dabei ist die Höhe des Stromes egal so lange sie sich zwischen "genug das was passiert" und "nicht so viel dass was stirbt" bewegt. Dass heute viel höhere Frequenzen möglich sind liegt dabei NICHT daran dass man irgendwas besser im Griff hätte bzgl. Stromflüsse sondern daran, dass die Strukturen sehr sehr viel kleiner geworden sind und damit die (mechanisch würde man sagen) Trägheit der Transistoren stark abgenommen hat und man sie mit kleineren Strömen schneller schalten kann.
Oder anders gesagt auch vor 20 Jahren konnte man schon CPUs mit vielen GHz ansteuern - nur waren die Transistoren darin so träge dass sie so schnell nicht ihre Zustände wechseln konnten. Frequenzen und Stromflüsse hat man seit Jahrzehnten bis in den Terahertz-Bereich locker im Griff (beispielsweise gab es schon in den 60er Jahren Satellitenfernsehen mit Frequenzen von mehreren Gigahertz) - nur funktioniert eine CPU mit solchen Taktvorgaben schlichtweg nicht.
 
Damals ist aber trotzdem viel über Mundpropaganda verbreitet worden. So ist mir aus dieser Zeit auch bekannt das AMD für Gaming PCs empfohlen wurde und Intel eher wenn es sich um aufwendige Rechenaufgaben gehandelt hat. Das Internet war damals auch noch nicht so fortgeschritten wie heute und so hat man jenes Glauben geschenkt was man berichtet bekommen hat.

Hat sich aber nicht lange gehalten, der Hauptgrund bei AMD zu bleiben war am ende immer der Preis.
 
Damals ist aber trotzdem viel über Mundpropaganda verbreitet worden.

Stimmt... aber ich weiß gar nicht ob das besser oder noch schlimmer geworden ist. Nur die Wege über die der Bullshit verbreitet wird sind andere. Vor 20 Jahren ohne verbreitetes Internet wurde auf dem Schulhof (oder wie man hier sieht sogar von Lehrern) Schwachsinn erzählt, heute wirds im Internet gepostet oder gleich ein Video gemacht. Das schlimme ist, dass von der Masse an Informationen zu dem Themengebiet damals wie heute mindestens 90% völliger Unsinn sind/waren.

Ich kann den Leuten nicht mal einen Vorwurf machen - wenn man keine Ahnung hat und schon den richtigen Schritt macht und sich informieren möchte tippt der Unkundige "Ryzen oder Core i7" oder noch schlimmer "AMD oder Intel" bei Google ein und wird von einer Lawine an Bullshit erschlagen. Hier die fundierten Informationen vom Unsinn zu trennen selbst wenn man "sinnvoll" sucht und etwa konkret "9900KS oder 3700X" eingibt (was bereits Hintergrundwissen erfordert dass diese CPUs aktuell und im ähnlichen Leistungssegment sind) ist für einen Laien quasi unmöglich. :ka:

Wenns dann etwas detaillierter werden soll WARUM manche Dinge besser/schlechter/möglich/unmöglich usw. sind hat man nur dann noch eine Chance wenn man wirklich interessiert ist und einiges an Zeit in Anspruch nimmt um sich umfassend zu informieren. Diese Leute gibts ja vereinzelt (sieht man beispielsweise an den paar Hundert Hits meiner Blogeinträge die in die Richtung gehen manche Thematiken mal ausführlicher zu erklären) aber die breite Masse glaubt halt lieber "Intel ist voll Workstation und so" - ist halt einfacher.
 
Zurück