= les modèles sont classés par ordre de rapport capacités/coût/rapidité
De A à D: Ada, Babbage, Curie, Da Vinci
Un modèle de famille A sera moins performant dans sa génération qu'un modèle de famille D, mais son execution coutera moins cher et sera plus rapide
Recommandation:
Démarrer avec un modèle de famille D pour vérifier le use case
Affiner vers C, B puis A au besoin en fonction des résultats
Da Vinci (GPT) use case: Complex intent, cause and effect, summarization for audience
Da Vinci (Codex) use case: For applications requiring deep understanding of the content
Curie use case: Language translation, complex classification, text sentiment, summarization
Cushman (Codex) use case: for many code generation tasks
Babbage use case: Moderate classification, semantic search classification
Ada use case: Parsing text, simple classification, address correction, keywords
Embedding Model:
= une technique d'apprentissage
Représente les données sous forme de vecteurs de valeurs numériques (nombre réel)
= créé une abstraction des mots en tant que tels
= permet de s'affranchir des cas où les mots/contextes sont similaires mais mal orthographiés/prononcés
Ce format est plus facilement utilisable par un modèle d'apprentissage
Le vecteur est utilisé pour prédire la séquence suivante
Bénéfice:
aide à améliorer la génération de texte en permettant au modèle de comprendre les mots et leur signification de manière plus approfondie
peut conduire à des prédictions de mots plus précises et à des phrases plus cohérentes et naturelles
peut aider à résoudre des problèmes de synonymie et de polysémie
Fine-tuning:
spécialise un modèle entrainé sur une tâche générale pour une tâche spécifique
cela permet d'entrainer un modèle sans partir de zéro, en s'appuyant sur l'existant
obtention de bonnes performances même avec une quantité de données limitée pour la tâche spécifique
l'idée est qu'il effectue sa tâche spécifique en conservant les connaissances préalablements apprises
Choix Embedding Model vs Fine-tuning:
Dispo des données: si des données spécifiques sont dispo. alors privilégier le FT qui donnera des résultats plus précis
Capacité de calcul: Le FT nécéssite plus de ressource car besoin de re entrainer une grande partie du modèle. les EM utilisent le modèle tel quel.
Controle de l'apprentissage: Le FT offre un contrôle plus granulaire sur le processus d'apprentissage (possibilité d'ajuster les paramètres) ce que ne permet pas les EM.
Restreindre les réponses de GPT:
Via Fine tuning: le modèle sera spécialisé et adapté à votre contexte, ce qui peut aider à générer des réponses plus cohérentes et pertinentes
Via entrée conditionnées: lors de la définition du contexte, inclure des phrases préliminaires ou indications explicites pour que le modèle focus sur un sujet/aspect
Via contraintes explicites: technique de pénalisation/décodage contraint pour restreindre la longueur des réponses, interdire des mots ou concepts etc...
Via post traitement de la réponse: afin de filtrer, réorganiser/reformuler la sortie du modèle pour répondre aux exigences
Structure de données dans laquelle les données sont organisées sous forme de vecteurs ou de tableaux multidimensionnels
Il s'agit jsute d'un type de données, cela ne concerne pas le runtime en tant que tel de la base
Couramment utilisées dans des domaines tels que l'apprentissage automatique, la vision par ordinateur, le traitement du langage naturel etc.
Les bases types Documents ou Graph sont adaptées pour stocker des données de type vecteur.
LLM et embeddings :
Lorsqu'un modèle de langage (LLM) expose une API d'embedding, vous fournissez des données textuelles en entrée, et l'API génère des embeddings (vecteurs) pour ces données.