Recherche avancée
Toutes les thèses
Thèses de doctorat
Thèses d'exercice (médecine, santé, pharmacie)
Toutes les thèses > Par auteur
Nouveautés
Par date
Par auteur
Toutes les thèses -> Auteurs
Auteurs
>
F
>
Fabre Betty
Niveau supérieur
1
ressource a été trouvée.
|<
<< Page précédente
1
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page
Tri :
Date
Titre
Auteur
Search-based and supervised text generation
Informatique / 16-09-2022
Fabre Betty
Voir le résumé
Voir le résumé
Les modèles supervisés encodeurs-décodeurs nécessitent de grands datasets alignés pour être entraînés. Les données nécessaires ne sont pas encore disponibles pour plusieurs tâches telles que la verbalisation de triplets RDF ou la génération de paraphrases. D'abord, nous avons exploré la tâche de verbalisation de triplets RDF. Nous avons entraîné des modèles Transformers sur une nouvelle version des données WebNLG et avons étudié plusieurs stratégies de pré-entraînement pour surmonter la petite taille du corpus. Ensuite, nous avons étudié la tâche de génération de paraphrases. Nous avons entraîné des modèles Transformers sur des corpus alignés afin de les comparer directement avec les modèles de la littérature. Une contribution importante de la thèse a été de proposer un cadre expérimental uniforme pour comparer les modèles encodeurs-décodeurs pour la génération de paraphrases. Nous avons également suivi la voie des méthodes alternatives basées recherche pour générer des paraphrases. Pour ce faire, nous avons transformé la tâche de génération de paraphrases en un problème de recherche dans un arbre. Nous avons ensuite développé deux stratégies de recherche: MCPG et PTS et un module de score des paraphrases qui exploite le BERT score, GPT2 et la distance de Levenshtein. Enfin, nous avons mené des expériences de distillation avec le modèle Transformer.
|<
<< Page précédente
1
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page
© 2016
|
MENTIONS LEGALES
|
PLUS D'INFORMATION