BERT
Modele de comprehension du langage de Google, utilise massivement dans la recherche et la classification de texte.
BERT (Bidirectional Encoder Representations from Transformers) est un modele de langage developpe par Google en 2018. Contrairement a GPT qui lit le texte de gauche a droite, BERT lit dans les deux sens simultanement.
BERT excelle dans :
- • La comprehension de texte : questions-reponses, classification
- • La recherche d'information : Google utilise BERT dans son moteur de recherche
- • L'analyse de sentiments : positif/negatif/neutre
- • La reconnaissance d'entites : identifier noms, lieux, dates dans un texte
BERT n'est pas concu pour generer du texte (contrairement a GPT) mais pour le comprendre. Il a revolutionne le SEO en 2019 en permettant a Google de mieux comprendre l'intention derriere les requetes de recherche.