Compuponder
Schraubenverwechsler(in)
Liebe Community,
ich hab da mal eine Frage zu Intel und AMD, zu der ich in den weiten des Internets leider nichts finden kann. Mir ist klar, dass das ganze eine Art Glaubenskrieg ist, ich bitte dennoch um sachdienliche Antworten. Ich habe keine vorgegebene Präferenz für eine der beiden Marken. Mein erster 386 war ein AMD, dann folgte ein Pentium 1, dann ein Athlon XP, ein Athlon 64, ein Core2Duo und schließlich ist nun schon seit einigen Jahren ein i5 mein Rechner. Grundsätzliche finde ich es schön, dass sich nun die Frage, zu welchem Hersteller man greift, nun überhaupt wieder stellt.
Zur eigentlichen Frage: Damals, zu Zeiten von Pentiums und Athlons meinte mein Informatiklehrer an der Realschule (wir alle hatten die günstigeren und schnelleren Athlons zum zocken), dass der Grund, weshalb im professionellen Bereich (Forschung, etc.) nur Intels und keine AMDs zum Einsatz kämen, wäre, dass Intel über eine höhere "Rechengenauigkeit" verfüge. So wären Rechenfehler, die in der CPU passieren, weil Strom von einem Schaltelement in ein anderes überspringt bei AMD höher. Man würde das zum Beispiel messen können, wenn man aus einer WAV Datei eine MP3 berechnet, er sprach von Digitalisierungsfehlern. Ich habe keine Ahnung, ob diese Aussage von damals stimmt, konnte dazu im Netz nichts finden. Falls das aber jemals wahr war: Wie ist das heute? AMD fertigt ja mittlerweile in 7nm, Intel noch in 14. Irgendeine Gefahr, dass da eine Isolierung zwischen zwei Transistoren nicht ganz so gut arbeitet wie sie soll?
Komische Frage, ich weiß, aber ich freue mich über ernst gemeine Antworten.
ich hab da mal eine Frage zu Intel und AMD, zu der ich in den weiten des Internets leider nichts finden kann. Mir ist klar, dass das ganze eine Art Glaubenskrieg ist, ich bitte dennoch um sachdienliche Antworten. Ich habe keine vorgegebene Präferenz für eine der beiden Marken. Mein erster 386 war ein AMD, dann folgte ein Pentium 1, dann ein Athlon XP, ein Athlon 64, ein Core2Duo und schließlich ist nun schon seit einigen Jahren ein i5 mein Rechner. Grundsätzliche finde ich es schön, dass sich nun die Frage, zu welchem Hersteller man greift, nun überhaupt wieder stellt.
Zur eigentlichen Frage: Damals, zu Zeiten von Pentiums und Athlons meinte mein Informatiklehrer an der Realschule (wir alle hatten die günstigeren und schnelleren Athlons zum zocken), dass der Grund, weshalb im professionellen Bereich (Forschung, etc.) nur Intels und keine AMDs zum Einsatz kämen, wäre, dass Intel über eine höhere "Rechengenauigkeit" verfüge. So wären Rechenfehler, die in der CPU passieren, weil Strom von einem Schaltelement in ein anderes überspringt bei AMD höher. Man würde das zum Beispiel messen können, wenn man aus einer WAV Datei eine MP3 berechnet, er sprach von Digitalisierungsfehlern. Ich habe keine Ahnung, ob diese Aussage von damals stimmt, konnte dazu im Netz nichts finden. Falls das aber jemals wahr war: Wie ist das heute? AMD fertigt ja mittlerweile in 7nm, Intel noch in 14. Irgendeine Gefahr, dass da eine Isolierung zwischen zwei Transistoren nicht ganz so gut arbeitet wie sie soll?
Komische Frage, ich weiß, aber ich freue mich über ernst gemeine Antworten.