mardi 26 novembre 2024

Heures événement (+)
09:30 - 10:00 Accueil  
10:00 - 10:30 Assemblée générale du Consortium-HN ARIANE - Présentation du bilan 2024 et des principaux livrables du consortium  
10:30 - 12:00 Assemblée générale du Consortium-HN ARIANE_Présentations des travaux des groupes de travail - Axe 1, Axe 2 et Axe 3. Les présentations seront suivies de questions et d'échanges  
12:00 - 13:30 Déjeuner  
13:30 - 14:00 Intervention du Conseil scientifique du Consortium-HN ARIANE - Bruno Baudoin (Masa+); Sarra Elayari (CORLI2); Ludovic Moncla (INSA, Lyon) ; Matteo Romanello (U. Zurich)  
14:00 - 14:30 Questions, discussion  
14:30 - 15:30 Assemblée générale du Consortium-HN ARIANE - Perspectives 2025  
15:30 - 15:45 Pause café  
15:45 - 16:00 Ouverture du colloque - Coordinatrices du Consortium-HN ARIANE : Ioana Galleron (U.Sorbonne Nouvelle) ; Sabine Loudcher (U.Lyon 2), Fatiha Idmhand (U.Poitiers)  
16:00 - 17:00 Conférence - Pierre DEPAZ (Berlin)  
17:00 - 17:30 Annoter - "Annoter aux côtés d'un grand modèle de langage : le rôle d'un modèle dans la reconnaissance d'entités nommées dans des romans" (+)  
17:00 - 17:30 › Annoter aux côtés d'un grand modèle de langage : le rôle d'un modèle dans la reconnaissance d'entités nommées dans des romans - Perrine MAUREL, Sorbonne Université, Observatoire des Textes, des Idées et des Corpus  
17:30 - 18:30 Table ronde "Faire sa thèse à l'ère de ChatGpt" - Modération : Ioana Galleron (U.Sorbonne Nouvelle). Participants : Setareh Barouni Pour (Doctorante en traduction, Université Sorbonne Nouvelle), Mathilde Le Meur (Doctorante en Linguistique, Université de Grenoble), Andrés Echavarria (Doctorant en Humanités numériques, Université de Montpellier), Maya Larbi (Doctorante en Informatique, Université du Luxembourg) et Anaïs Chambat (Doctorante en Sciences du langage, CY Cergy Paris Université)  

mercredi 27 novembre 2024

Heures événement (+)
09:15 - 09:40 Accueil  
09:40 - 10:00 Ouverture - Ouverture  
10:00 - 10:30 Analyser - "Les défis et opportunités des grands modèles de langage (LLMs) pour l'analyse des émotions" (+)  
10:00 - 10:30 › Défis et opportunités des grands modèles de langage (LLMs) pour l'analyse des émotions : une étude des commentaires sur la sorcellerie dans la presse mauricienne et les réseaux sociaux - Neelam Fatmah PIRBHAI, Centre des Humanités Numériques, Université des Mascareignes  
10:30 - 11:00 Analyser - "Automatic Metaphor Detection in Political Speeches: A Case Study with Conversational AI Agent and a BERT-based Model" (+)  
10:30 - 11:00 › Automatic Metaphor Detection in Political Speeches: A Case Study with Conversational AI Agent and a BERT-based Model - Olga Shablykina, Institut des Sciences du Digital, Management et Cognition  
11:00 - 11:30 Analyser - "Extraction de mots clés à partir d'articles scientifiques: comparaison entre modèles traditionnels et modèles de langue" (+)  
11:00 - 11:30 › Extraction de mots clés à partir d'articles scientifiques: comparaison entre modèles traditionnels et modèles de langue - Nacef Benmansour, Motasem Alrahabi, Sorbonne Université  
11:30 - 12:00 Questions, discussion  
12:00 - 13:30 Déjeuner  
13:30 - 14:00 Annoter - › Vers une classification automatique de didascalies en français avec des grands modèles de langue - Pablo Ruiz Fabo, LiLPa - Linguistique, Langues, Parole (UR 1339) (+)  
13:30 - 14:00 › Vers une classification automatique de didascalies en français avec des grands modèles de langue - Pablo Ruiz Fabo, LiLPa - Linguistique, Langues, Parole (UR 1339)  
14:00 - 14:30 Analyser - " Les LLMs sont-ils de bons lecteurs ? Des agents conversationnels collaboratifs pour lʼinterprétation de polars" (+)  
14:00 - 14:30 › Les LLMs sont-ils de bons lecteurs ? Des agents conversationnels collaboratifs pour lʼinterprétation de polars - Julien Schuh, Centre des Sciences des Littératures en Langue Française, Maison des Sciences de l'Homme Mondes - Adam Faci, Centre National de la Recherche Scientifique  
14:30 - 14:55 Questions, discussion  
14:55 - 15:15 Pause café  
15:15 - 16:15 Conférence - Geoffrey Rockwell (University of Alberta) : "How Safe is AI Safety?"  
16:15 - 16:45 Annoter - “Evaluation of Large Language Models for Named Entity Recognition” -- "Évaluation des Grands Modèles de Langage pour la Reconnaissance d'Entités Nommées" (+)  
16:15 - 16:45 › Évaluation des Grands Modèles de Langage pour la Reconnaissance d'Entités Nommées - Ludovic Moncla, Laboratoire d'Informatique en Image et Systèmes d'information  
16:45 - 17:15 Analyser - "Scientific rationality, human fuzziness, and trendy corporate logics" -- "Monde scientifique, modes inductives, modèles épistémologiques" (+)  
16:45 - 17:15 › Scientific rationality, human fuzziness, and trendy corporate logics - Marcello Vitali-Rosati, Université de Montréal  
17:15 - 17:45 Questions, discussion