Informations Diverses
Nathanaël Fijalkow
( CNRS, LABRI )Amphi, Au Labri
November 20, 2024 at 12:45 PM
Dans une première partie, nous discuterons du mécanisme d'attention qui est au cœur des Transformers (l'architecture la plus classique pour les LLMs). Ensuite, nous discuterons des différentes techniques pour enrichir des LLMs avec des connaissances extérieures : Retrieval augmented generation (RAG) et Agents.