
Mais qui est BERT? BERT, Représentations de codeur bidirectionnel nommées par Transformers , est une technique basée sur les réseaux de neurones appliquée à la gestion du langage naturel. L'idée est d'analyser une phrase dans son ensemble, au lieu de prendre chaque élément de son propre chef. De cette façon, il est possible d'extraire les demandes réelles des utilisateurs, en analysant également le contexte. Pour vous donner une idée, au moins une recherche sur dix obtiendra de meilleurs résultats grâce au BERT . Malheureusement, pour l'instant, le français n'est pas pris en compte. BERT sera appliqué uniquement à la recherche en anglais américain, pour ensuite s'étendre dans d'autres langues au fil du temps.
