Analyse des corpus de revues dans le cadre du projet Revue 2.0

En collaboration avec le HN Lab (Huma-Num), partenaire de Revue2.0, un chantier d’analyse et de traitement sur les corpus de deux revues partenaires de Revue2.0 a été lancé. Intermédialités et Études françaises, toutes les deux diffusées par Érudit, ont mis à disposition leurs articles pour extraire des mots-clés, notions et concepts permettant de donner toute la visibilité nécessaire à leur riche corpus.

Voir l’actualité du HN Lab.

L’objectif de cette expérimentation est d’offrir aux revues une vision inédite de leur champ sémantique et conceptuel depuis leur création. Comment les revues se positionnent-elles dans leur discipline ? Qu’ont-elles apporté sur le plan théorique ? Quels concepts ont-elles contribué à faire émerger ? Ce sont ces questions que nous allons explorer avec l’aide du prestataire DSI Global Services, en confrontant diverses méthodes de deep et de machine learning.
Outre une meilleure connaissance pour les revues de leur corpus et de leur positionnement scientifique, l’expérimentation permettra de faire émerger une méthodologie générique d’analyse de corpus scientifique que le HN Lab mettra à disposition sous forme de carnets Jupyter. Ce sera aussi l’occasion de doter la TGIR Huma-Num de chaînes d’analyse et de traitement pour améliorer l’enrichissement des sources par l’agrégateur ISIDORE. Une évaluation comparative est notamment prévue en vue d’ajuster l’alignement des sources sur les référentiels ISIDORE (250 000 concepts).