Publié le: 07/06/2021 @ 20:02:01: Par Nic007 Dans "Programmation"
ProgrammationLes processeurs ne deviennent pas seulement plus rapides et plus économiques, ils deviennent également de moins en moins fiables. C'est le résultat des statistiques des grands centres de données de Google et Facebook, dans lesquels d'énormes quantités de cœurs de processeur produisent des données fiables. "Notre aventure a commencé lorsque des équipes attentives se sont plaintes de plus en plus que les données étaient corrompues à plusieurs reprises par les machines", a rapporté le développeur de Google Peter Hochschild lors de la conférence Hot Topics in Operating Systems (HotOS). La raison principale était que les systèmes en question exécutaient des applications dans lesquelles le code pouvait être considéré comme particulièrement stable et corrigé des erreurs. Les messages d'erreur sont venus ici de différents côtés et avec les diagnostics conventionnels, aucun bogue n'a pu être trouvé non plus.

Des investigations approfondies auraient alors permis de se rendre compte que le problème est plus susceptible de se trouver dans le matériel. Et ce n'était pas complètement absurde de toute façon, puisqu'il est généralement connu que les CPU ne fonctionnent pas correctement non plus. Dans le passé, il y a eu des rapports de bugs spectaculaires dans les architectures, mais cela peut aussi simplement conduire à des calculs incorrects si un circuit se comporte un peu différemment en raison de conditions environnementales défavorables. Un certain ensemble de base de calculs incorrects est donc pris en compte et, dans les applications particulièrement critiques, également intercepté par des tests supplémentaires.

Le fait que des résultats incorrects se produisent plus fréquemment que prévu sur la base des projections - et que les bogues se produisent néanmoins très sporadiquement, parfois longtemps après l'installation et non dans certains assemblages, mais plutôt dans des cœurs individuels, fournit beaucoup de conjectures. Les développeurs de Google qui recherchaient les causes du problème ont finalement trouvé des expériences très similaires avec leurs collègues de Facebook. En fin de compte, il a été conclu qu'il s'agissait de bugs résultant de conceptions de plus en plus petites et complexes et qui ne peuvent plus être détectées avec des tests conventionnels dans le processus de fabrication. En fin de compte, cela rend difficile le développement de contre-mesures. Et de telles erreurs dans les calculs peuvent causer de sérieux problèmes - pas seulement lorsque les données doivent être évaluées. Par exemple, s'ils se produisent pendant le cryptage, les informations peuvent être irrémédiablement perdues. Par conséquent, les entreprises souhaitent désormais mener des recherches plus approfondies sur le problème.
Poster un commentaire
Vous ne pouvez plus poster de commentaire sur cette actualité car elle a été clôturée. Voulez-vous continuer cette discussion sur le forum?

Informaticien.be - © 2002-2024 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?