Accueil Corpus parallèle Lecture active Données Informations Aide
English 日本語
Le projet Jibiki.fr

Dictionnaire japonais-français

Consultation

Consultation avancée

Les buts du projet Jibiki.fr sont de construire de manière collaborative un dictionnaire français-japonais de qualité et à large couverture ainsi qu'un corpus bilingue aligné. Les données initiales proviennent de plusieurs sources dont les dictionnaires japonais→français Cesselin, français→japonais Raguet-Martin, le japonais→anglais JMdict ainsi que les liens de Wikipedia. Le volume japonais→français contient actuellement plus de 154 000 articles et le volume français→japonais contient plus de 62 000 articles. Les données produites sont téléchargeables publiquement et gratuitement.

Déménagement du serveur !

Le Laboratoire d’Informatique de Grenoble passe en Zone à Régime Restrictif. Notre serveur n’étant plus le bienvenu, il a fallu le déplacer. Il est maintenant hébergé par l’Université Savoie Mont-Blanc.

Offre de thèse : informatique et apprentissage des langues

Voici une offre de thèse qui s’appuie sur la base lexicale jibiki et que je codirigerai avec Mathieu Loiseau. Si vous êtes intéressé ou si vous connaissez quelqu’un qui le serait, n’hésitez pas à diffuser !

Contexte scientifique

L’acquisition du lexique est au cœur de l’apprentissage d’une langue étrangère (Schmitt 2008, 329), cependant les volumes horaires alloués à la formation en langue, que ce soit dans le secondaire où chez les non-spécialistes dans le supérieur, ne permettent pas toujours d’intégrer un apprentissage lexical explicite. Outre les conséquences de l’approche communicative (Hilton 2002), le temps en classe est dédié à l’interaction, faisant du travail lexical une tâche à mener en autonomie pour les étudiants (Freund 2016). Or, il s’agit d’une tâche fastidieuse et complexe, qui demande à l’apprenant d’intégrer des informations relevant de différents niveaux conceptuels (forme, sens et combinatoire) selon plusieurs modalités (production/réception, oral/écrit) (Tremblay et Anctil 2020). La motivation n’est pas un simple facteur de cette tâche, elle fait partie intégrante du cycle d’apprentissage du lexique (Tseng et Schmitt 2008, 383).
Avec cette problématique, le projet Lex:gaMe propose de mettre à disposition des enseignants et des étudiants du centre de langue de l’université Lyon 2 un ensemble d’outils : deux jeux faisant appel à des niveaux d’information lexicale distincte, ainsi qu’une base lexicale personnalisable (Lex:M). Lex:gaMe vise, entre autres, à estimer les apports des deux jeux proposés, aussi bien en termes de motivations que d’acquisition lexicales.
La pierre angulaire du projet est la base lexicale Lex:M (Mangeot et al. 2016) qui outre ses possibilités intrinsèques (dictionnaire de référence, gestion d’un lexique personnel pour chaque étudiant, cf. vocabulary notebook (Nation 2013, 140)), aura la charge de faire le lien avec l’activité de l’apprenant dans les jeux. Sur la base de ce lexique, le premier enjeu sera que Lex:M offre un retour réflexif à chaque étudiant sur son activité et les connaissances lexicales consultées. Le deuxième enjeu sera d’aider à maintenir sa motivation à travers les liens effectués avec d’autres activités (ex : création de parties de MagicWord à partir de mots sélectionnés dans Lex:M).
La thèse proposée ici vise à définir les modalités de ce retour réflexif et des interactions entre Lex:M et les jeux du projet (https://magicword.lezinter.net / https://gameofwords.lezinter.net).

Objectifs de la thèse :

Suite à une analyse de l’existant et une revue de la littérature, mener un travail de conception centrée utilisateur (Norman 2013) pour
1. spécifier l’API de Lex:M
2. définir les éléments de réflexivité et les ressorts motivationnels à intégrer à Lex:M
3. Analyser l’activité des utilisateurs en vue de la reconception/validation des affordances mises en place

Contexte de travail

La thèse se déroulera au sein de l’équipe SICAL du LIRIS dans le cadre du projet Lex:gaMe du LabEx ASLAN. La personne recrutée sera hébergée dans le bâtiment Blaise Pascal de la Doua. Elle sera amenée à collaborer avec des chercheur⋅es et enseignant⋅es de l’équipe SICAL, du laboratoire ICAR, du centre de langues de l’Université Lyon 2 (Bron), mais également des partenaires hors-site (Univ. Grenoble Alpes, UNAM, Carnegie-Mellon University).
Un contrat Post-doc sera également recruté lors de la phase de collecte et d’analyse des besoins.
Un marché sera passé avec une entreprise qui réalisera l’API spécifiée par la personne retenue pour cette thèse.

Compétences attendues

Les candidat⋅es devront attester de compétences en modélisation, qu’elle soit orientée vers des problématiques linguistiques, informatiques ou éducatives. La pratique ou un intérêt fort pour l’interdisciplinarité est primordial dans ce travail.
Cette interdisciplinarité s’exprimera par la connaissance et/ou l’apprentissage en cours d’une ou plusieurs langues étrangères attestant d’une appétence pour les langues et des connaissances en informatique : méthodologie, développement Web (ex : PHP, Symfony, JS, HTML+CSS), ou non (ex : Python, Perl, Java), représentation de données (ex : MariaDB, XML).
Des compétences ou expériences en conduite d’expérimentations seront également appréciées.

Pour plus d’informations, voir : https://bit.ly/3A0yHfj

Intégration du dictionnaire français-japonais Raguet-Martin

Depuis le début du projet jibiki.fr en 2014, j’avais dans mes cartons les données du dictionnaire français-japonais conçu par les missionnaires Émile Raguet et Jean-Marie Martin.

Les Missions Étrangères de Paris et le tout nouvel Institut de Recherche France-Asie m’ont aimablement donné l’autorisation d’utiliser ces données. Le résultat est intéressant. Le dictionnaire Raguet-Martin contient environ 50 000 articles et 80 000 sens. Je l’ai complété par 12 000 liens de traduction de Wikipedia.

Le projet Jibiki.fr tient enfin sur ses deux jambes !

Le volume est disponible à la consultation et à l’édition. N’hésitez pas à me contacter pour m’en dire des nouvelles !

Ajout d’un glossaire de linguistique

Suite à une nouvelle discussion avec Alexis, nous avons importé le glossaire de linguistique publié par Raoul Blin en 2013. Au total, ce sont 1318 nouveaux articles qui viennent grossir les rangs du dictionnaire ! Les articles restants étaient déjà présents dans le Cesselin.

Nous envisageons d’importer d’autres lexiques alors si vous en avez dans votre besace, contactez-nous !

Validations groupées à l’aide du Daijirin

Ces derniers temps, nous nous sommes attaqués à cette fameuse liste des vedettes non validées. Nous avons extrait toutes ces vedettes puis nous avons consulté le Daijirin en utilisant le hiragana. Ensuite, Mutsuko a comparé les 7 059 vedettes trouvées dans le Daijirin avec celles du Cesselin. Elle a pu en valider 1439. Il reste encore 11 151 vedettes à valider. Hardi petit !