logo IMB
Back

Informations Diverses

Large Language Models : comment et pourquoi ?

Nathanaël Fijalkow

( CNRS, LABRI )

Amphi, Au Labri

November 20, 2024 at 12:45 PM

Dans une première partie, nous discuterons du mécanisme d'attention qui est au cœur des Transformers (l'architecture la plus classique pour les LLMs). Ensuite, nous discuterons des différentes techniques pour enrichir des LLMs avec des connaissances extérieures : Retrieval augmented generation (RAG) et Agents.