<data>
<row _id="1"><answer_index>AAU--0</answer_index><lab>AAU</lab><equipe_de_recherche>Centre de recherche sur l’espace sonore &amp; l’environnement urbain, laboratoire Ambiances Architectures Urbanités Collaborations : - UMR AAU – UMR PACTE</equipe_de_recherche><presentation_du_projet>Le XXX est l une des deux équipes de l UMR Ambiances, Architectures, Urbanités. Cette équipe de recherche, fondée en 1979, œuvre dans le champ de la recherche architecturale, urbaine et paysagère. Elle est hébergée au sein de l École Nationale Supérieure d Architecture de Grenoble. Les travaux du laboratoire questionnent aujourd hui les enjeux sociaux, écologiques, esthétiques, numériques, politiques et éthiques des ambiances. La gestion des données a commencé avec la gestion des enregistrements sonores de terrain nombreux au sein du laboratoire et, en particulier de l équipe XXX dont une des spécificités est précisément d aborder la question de la perception sensible des territoires habités et de leur fabrique par le biais du sonore. Depuis 10 ans l équipe a mis en œuvre une gestion systématique des données sonores : nommage, description, valorisation sur des outils internes. Le portage de deux projets ANR, Sensibilia. Des approches sensibles pour penser les transformations des milieux de vie et PROSECO Production sensible des projets urbains contemporains. De la conception à l expérience : enjeux environnementaux et politique du sensible a permis d avancer entre 2019 et 2021 sur la formalisation de documents communs grâce à l obtention d un financement CNRS d une année d apprentissage en lien avec l ENSSIB. A l issue de ce travail, nous avons pu construire et proposer aux chercheurs de l équipe un guide pratique de gestion des données et un plan de gestion de données commenté. Nous souhaitons aujourd hui poursuivre cet investissement pour mettre en œuvre une politique de gestion de données appliquée à tout le laboratoire et investir les entrepôts normalisés pour conserver et valoriser les données. Le projet que nous souhaitons mener a un double objectif : -La clarification des entrepôts de données à utiliser en fonction des types de données de plus en plus hétérogènes (Nakala, lien avec Research Data Gouv, Zenodo , Médihal) -La définition de procédures pour décrire les données dans ces entrepôts une fois sélectionnées par les équipes de recherche.Nous avons besoin de relais in situ pour avoir un impact sur les différents groupes de recherche déployant le projet scientifique du laboratoire et qui en sont souvent à différents stades de production des données : s approprier des plateformes, les tester avec des jeux de données, mettre à jour les plans de gestion de données au fil des projets, en créer de rétrospectifs pour les chantiers terminés ou n ayant pas eu l obligation d en produire. C est dans cette perspective que nous sollicitons une demande de soutien.</presentation_du_projet><objets_de_la_demande>La demande concerne les points suivants : -Curation des données : sélection des données produites en fin de projet , -Production de métadonnées : pour les différents types de données en fonction des plateformes, -Diffusion et édition des données : accompagnement des équipes projets dans l organisation des données produites pour les préparer à l édition, -Formation sur les plateformes à destination des ITA de l équipe : Nakala, Research Data Gouv, Médihal, -Accompagnement juridique pour la collecte de données personnelles : capitaliser les exemples situations et formaliser des fiches d aide.</objets_de_la_demande><contexte_scientifique>Le laboratoire [pseudonymisé] est pluridisciplinaire : ses thématiques et méthodes empruntent à la sociologie urbaine, à l éthnographie, à l architecture, à l art et à la géographie. Les méthodologies in situ amènent à la collecte de données de terrain comme : -des enregistrements sonores d environnement -des enregistrements vidéos de terrain -des entretiens en intérieur ou marchant : enregistrement et transcription -des focus groupe : enregistrement et transcription -des notes de terrain -des photographies Les données sont par ailleurs éditorialisées et les chercheurs sont plus enclin à partager les données une fois mise en forme : -itinéraire croisant photo et verbatim -carte aux formats très divers : relevé, dessin, verbatim -recours aux dessins ou aux récits pour contourner les problèmes d anonymisation (enfant) </contexte_scientifique><description_precise_des_besoins_identifies>L équipe XXX bénéficie du soutien de 3 ITA ayant des compétences pour traiter les enregistrements sonores, les documenter et les mettre en ligne. L ingénieur dont nous souhaiterions avoir l appui pourrait bénéficier de cet environnement pour déployer les missions suivantes : Missions : -Mise en place de procédures appropriables par le laboratoire : curation, description, valorisation de tous les types de données, -Suivi et sensibilisation des équipes projets.Les résultats concrets attendus : oEn priorité, accompagner les chantiers des 2 ANR citées dans le nommage et le tri des données à conserver . oDeux autres projets finalisés sont propices à la conservation de leurs données : Les ondes de l eau : une partie des données déjà exposées sur Nakala Tri de toutes les données en cours : l équipe projet a besoin de soutien Esquissons : logiciel d esquisse sonore (Prix de la thèse UGA 2022) Tri des versions logicielles, partage sur HAL/Software Heritage oMettre à jour les plans de gestion de données des deux ANR en cours oPoursuivre l actualisation de notre plan de gestion de données commenté générique pour capitaliser les exemples propres à notre discipline oDécrire les enquêtes non partageables dans les entrepôts de données les plus appropriés oPartager les données d enquêtes sur les entrepôts appropriés : Médihal, Nakala </description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences : Le profil de compétences attendu se rapproche des métiers de data librarian : Connaissance de l actualité du mouvement de la science ouverte et de ses enjeux. Connaissance de l'environnement de la recherche, des appels à projets (Europe, ANR...) Connaissance des plans de gestion des données et du cycle de vie des données Connaissance des technologies, des formats et normes adaptés à la gestion, au signalement et à l'archivage des données de la recherche : principes FAIR, métadonnées, protocole de nommage, identifiants pérennes, entrepôts de données Une connaissance des méthodes de recherche en [pseudonymisé] serait un plus.</competences_techniques_necessaires></row>
<row _id="2"><answer_index>AECC--1</answer_index><lab>AECC</lab><equipe_de_recherche>Le projet de LabEx réunit 13 laboratoires, majoritairement rattachés aux pôles [pseudonymisé] et PSS : AE&amp;CC [pseudonymisé] MHA CERAG GIPSA-lab ISTerre LARHRA LaRAC LIDILEM LITT&amp;ArTS [pseudonymisé] PACTE 3SR</equipe_de_recherche><presentation_du_projet>Le projet de LabEx [pseudonymisé] a été déposé le 3 février 2023 et est actuellement cours d évaluation. Il consiste en un élargissement significatif du périmètre du LabEx actuel en architecture (AE&amp;CC), traduit par l implication de 13 laboratoires (et 160 permanents minimum) de l UGA dans la configuration future, contre 1 dans la configuration actuelle. Parmi les 13 équipes impliquées, une grande majorité sont rattachés aux pôles de recherche SHS et PSS. De ce fait, et même si par nature, la discipline architecturale se place à la croisée des SHS et des sciences de l ingénieur, le LabEx [pseudonymisé] reflète la volonté d impliquer très fortement les SHS à l UGA dans la recherche en architecture. Le projet est fondé sur une intégration des principes édictés dans la charte sciences ouvertes votée par le CAC UGA. D importants besoins en matière de collecte, de gestion, de curation et de diffusion des données ont donc été identifiés. Cette note, non exhaustive, propose une synthèse des principaux besoins.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Un site internet dédié au LabEx intégrant vidéos, documentaires, podcasts, photos. Maintenance et mise à jour d un site web sur la durée du projet et au-delà. Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Transcriptions d entretiens menés dans le cadre des recherches / mise à disposition en complément des enregistrements audiovisuels. Encodage des entretiens (NVIVO) Anonymisation des entretiens Curation des données Mise en conformité de toutes les données issues des recherches financées par le LabEx avec les principes FAIR Création de documentation et de métadonnées complètes visant à contextualiser les données Vérification des fichiers Optimisation des données prévision de leur réutilisation et de leur préservation à long terme Production de documentations complémentaires à destination des utilisateurs des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Exploitation de corpus de textes dans le cadre de recherche en analyse de discours sur l architecture Construction de bases de données Construction d une base de données iconographique (en particulier de plans, croquis etc.) pour rendre disponibles tous les matériaux produits dans le cadre des recherche financées par le LabEx Construction d une photothèque pour rendre disponibles toutes les photos prises dans le cadre des recherche financées par le LabEx (licences creative commons) Construction d une banque de données audio, pour rendre disponibles tous les enregistrements d entretiens menés dans le cadre des recherches financés par le LabEx, dont d autres chercheurs pourront également se saisir. Outils de visualisation Réalisation de cartes (SIG) dans une démarche science ouverte (mise en ligne des données avec un système d'interrogation de ces données) Diffusion et édition des données Un accompagnement est souhaité pour le versement de toute ou partie des données produites dans le cadre du LabEx sur la platerforme Recherche.data (portail UGA) Accompagnement juridique (RGPD, PI) Accompagnement tout au long des premières années du LabEx aux questions de PI. Formation Autre : Précisez</objets_de_la_demande><contexte_scientifique>Le projet scientifique du LabEx pourra être transmis suite à l évaluation, en complément de la présente fiche navette. </contexte_scientifique><description_precise_des_besoins_identifies>La description précise des besoins pourra être définie avec les services de l UGA, sur la base du projet scientifique du LabEx et des différents workpackages, tâches et sous-tâches concernées pour les deux premières années du projet. </description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences en géomatique pour les bases de données Maîtrise de la langue anglaise </competences_techniques_necessaires></row>
<row _id="3"><answer_index>AECC--2</answer_index><lab>AECC</lab><equipe_de_recherche>-CRAterre-AE&amp;CC ENSAG -Chaire UNESCO Architecture de terre, Développement durable et Cultures Constructives.</equipe_de_recherche><presentation_du_projet>Lancée en 2014, la cartographie [pseudonymisé] a pour objectif de localiser les architectures (patrimoniales et contemporaines), les chantiers, les activités (expositions, séminaires, formations, conférences) et les acteurs liés à la construction en terre crue. La maintenance de cette cartographie est devenue, au fil des années, difficile à assurer car les personnes ayant développé l application sont désormais injoignables. En cela, nous n avons plus accès à l interface administrateur et il ne nous est plus possible d assurer des développements sur cet outil. Aujourd’hui, nous souhaiterions donc renouveler cette application dont nous avons la conviction de l utilité. Pour cela, il serait nécessaire d effectuer un scrapping des données présentes sur l outil actuel, de trouver un système de cartographie pouvant être lié à une base de données exportable et d y importer les données déjà présentes sur [pseudonymisé]. Cette nouvelle base de données pourrait être enrichie par les données récoltées dans le cadre des thèses en cours, les travaux effectués par les étudiants du DSA architecture de terre de l ENSAGet par les membres de la Chaire UNESCO Architecture de terre, Développement durable et Cultures Constructives.</presentation_du_projet><objets_de_la_demande>-Scrapping de données présentes sur https://cartoterra.net/ ; -Construction d une base de données ; -Nettoyage et enrichissement des données récupérées ; -Ajout de nouvelles données depuis le fonds photographique du CRAterre et des données collectées dans le cadre des thèses en cours (notamment la thèse de XXX Vers une filière terre écoresponsable capable de répondre aux enjeux des transitions du XXIe siècle à l'échelle du territoire délimité par les métropoles de Grenoble, Lyon et Valence et d Emmanuel Milles Si présent, si méconnu : le pisé dans le bâti ancien de l'agglomération lyonnaise. Un patrimoine urbain à valoriser et à pérenniser ? ; -Sélection d une application de cartographie interactive permettant la visualisation des résultats sous forme de liste et l export des données ; -Import de données de la base de données dans le logiciel de cartographie sélectionné.</objets_de_la_demande><contexte_scientifique>Dans notre monde en mutation, beaucoup se demandent ce que chacun peut faire pour contribuer à une transition vers plus de résilience et d'écologie. Les architectures de terre sont souvent considérées comme une partie importante des réponses possibles pour abriter les 3 milliards supplémentaires qui habiteront la Terre en 2050. Les avancées et les activités autour de la construction en terre se développent dans le monde entier, mais avec peu de coordination et de valorisation. En cela, [pseudonymisé] souhaite faire connaître au plus grand nombre les potentiels de la construction en terre crue et incité la création de réseaux de professionnels autour de la terre crue. Par ailleurs, cet outil a pour objectif de diffuser et valoriser les données collectées par l équipe XXX. </contexte_scientifique><description_precise_des_besoins_identifies>Ne disposant pas des compétences nécessaires en interne, nous souhaitons faire appel à l ingénieur afin de réaliser les étapes suivantes : -Scrapping de données -Conseil sur le choix d un système de cartographie interactive ou le développement d un logiciel de cartographie interactive -Réalisation de l import de données dans le logiciel de cartographie sélectionné.</description_precise_des_besoins_identifies><competences_techniques_necessaires>-Conception de base de données ; -Interopérabilité des données ; -Scrapping de données ; -Développement d application de cartographie.</competences_techniques_necessaires></row>
<row _id="4"><answer_index>AECC--3</answer_index><lab>AECC</lab><equipe_de_recherche>AE&amp;CC et potentiellement PACTE</equipe_de_recherche><presentation_du_projet>L équipe XXX développe depuis plusieurs années dans le cadre de son axe de recherche Habitat des outils d aide à la décision en collaboration avec des acteurs du monde de la recherche et de la société civile à l international (VTT, université de Cambridge, EcoSur, Yaam Solidarité, ASF Népal, KENSUP, etc.) ainsi qu au niveau national (GRDR, PACTE, etc.). Dans le cadre d un partenariat avec UN-Habitat, des réseaux Global Network for Sustainable Housing et One Planet network deux outils ont notamment été développés : [pseudonymisé] ([pseudonymisé]) et [pseudonymisé] ([pseudonymisé]). L objectif du premier outil est de permettre l autoévaluation de la qualité des projets d habitat durable selon 12 critères-indicateurs répartis autour des 4 piliers du développement durable (environnemental, social, économique et culturel) à travers 88 questions couvrant les différentes échelles spatiales (territorial, voisinage et ménage) et d implication (processus) du projet. Le second outil concerne la mesure de l impact économique et environnemental dans le domaine de la construction afin de fournir aux donneurs d ordre et décideurs des éléments concrets pour prendre des décisions entre divers options techniques . Ces deux outils contribuent aux objectifs de développement durable (notamment 9, 11, 12 et 13) dans le domaine de l architecture et de la construction à travers l analyse de données et leur mise en relation à travers des algorithmes. Au-delà de cette usage de données qualitative et quantitative, cette collecte et analyse si elle était construite de telle manière à pouvoir être en ligne et user-friendly permettrait de bâtir des référentiels et de mieux mesurer l évolution des approches dans le domaine de l habitat et de la construction durable. Si cela a été tenté pour [pseudonymisé], le succès a été mitigé compte-tenu d une mise en forme pas suffisamment utile pour l utilisateur, nous sommes convaincu que ces deux outils pourrait constituer des référentiels utiles aux chercheurs et aux acteurs de la construction durable et contribuer à l adaptation au changement climatique.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.)Curation des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation Autre : état des lieux et formulation des besoins pouvant couvrir tout ou partie des sujets ci-dessus (cf. ceux surligné en jaune) à hiérarchiser et prioriser </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>La mission de l IE consisterait à travailler avec les équipes chargées de [pseudonymisé] et [pseudonymisé] pour améliorer les outils existants ou éventuellement en développer de nouveaux et de les rendre accessibles en ligne.</description_precise_des_besoins_identifies><competences_techniques_necessaires>-Analyse des besoins et mise en relation avec solutions techniques</competences_techniques_necessaires></row>
<row _id="5"><answer_index>CRJ--4</answer_index><lab>CRJ</lab><equipe_de_recherche>Centre de recherches juridiques (CRJ), Centre d études sur la Sécurité Internationale et les Coopérations Européennes (CESICE), Laboratoire Jean Kutzmaan (LJK), Laboratoire d informatique de Grenoble (LIG), PACTE</equipe_de_recherche><presentation_du_projet>Le présent dépôt a pour objet de venir compléter sur le plan du support informatique un projet de recherche IRDEX/UGA accordé en septembre 2022. Le projet interdisciplinaire [pseudonymisé] ([pseudonymisé]), porté par le Centre de recherches juridiques (CRJ), le Laboratoire Jean Kuntzmann (LJK), le laboratoire d informatique de Grenoble (LIG), avec le soutien de PACTE et de la chaire de société algorithmique du MIAI (Multidisciplinary Institute in Artificial intelligence), a pour objet d utiliser des méthodes de mathématiques appliquées et d ‘IA à un objet juridique pour lequel elles n ont jamais été utilisées et présentent un intérêt particulier, le contentieux des élections politiques. L hypothèse peut être retenue que la justice algorithmique pourrait s avérer particulièrement pertinente en contentieux électoral, en tant qu elle pourrait améliorer la compréhension de sa rationalité. Le point focal de la problématique est l analyse de la sincérité du scrutin, c est-à-dire notamment la question de savoir si des irrégularités ont pu avoir un effet sur le résultat de l élection, et en pratique l un des principaux critères utilisés pour le déterminer est l écart de voix entre les candidats ou les listes. Si le contentieux des élections politiques ne veut pas reposer sur la seule intuition, il faudrait qu il existe une détermination scientifique de l écart de voix utile , en fonction des irrégularités constatées. Pourtant, étonnamment, les travaux qui ont cherché à systématiser la question sont peu nombreux et aboutissent à des résultats contradictoires. Ils ont cependant en commun d être fondés sur des approches classiques et empiriques des élections. Que donnerait ici l utilisation de techniques plus sophistiquées ? Pour répondre à cette question, le projet [pseudonymisé] a vocation à utiliser des méthodes de mathématiques appliquées et d intelligence artificielle au contentieux électoral. Il s agit, grâce à ces nouvelles techniques, d améliorer nos connaissances et de proposer un système de soutien à la décision au juge. Ce projet a débuté en septembre 2022 et produit déjà des résultats qu il s agit de consolider. Une partie de la base de données, au niveau du Conseil constitutionnel et des élections législatives et sénatoriales, a déjà été constituée ; il reste à construire, ce qui sera beaucoup plus difficile pour des raisons à la fois informatiques et juridiques, la base de données de la justice administrative. Aussi, des tests d algorithmes d apprentissage sont en cours pour le traitement automatique du langage. Sur le plan de la production, deux articles ont été diffusés : une contribution de présentation au congrès de l Association française de droit constitutionnel et un article publié dans la revue AJDA (actualité juridique du droit administratif) en juillet 2023. Il est envisagé la préparation d un data paper et la mise en ligne des données, et à terme la mise en openData, pour mettre en valeur la base de données qui a été constituée par le projet [pseudonymisé]. Des problématiques RGPD se posent. Afin de poursuivre ces efforts, le projet [pseudonymisé] va rechercher le soutien d autres sources de financement de la recherche, notamment de la part de l IERDJ ( Institut des Études et de la Recherche sur le Droit et la Justice ) et de l ANR, dépôts pour lesquels le soutien du GATES pourrait être très positif. Le projet [pseudonymisé] est prévu sur la période 2022-2025 mais l ampleur du travail est telle qu il faudra sans doute prévoir plusieurs années supplémentaires (via l IERDJ et l ANR) pour réaliser les objectifs poursuivis. Réunissant des juristes (dont une allocation doctorale et des personnalités extérieures à l UGA), des statisticiens, des informaticiens et une sociologue, le projet repose pour l instant pour son aspect logiciel sur la participation d étudiants stagiaires en informatique, au niveau M1 comme au niveau M2, qui ont exécuté des tâches informatiques essentiellement de mars à juillet 2023. Si cette aide est utile, il n en reste pas moins que le recours à des stagiaires pour effectuer un nombre de tâches informatiques est une source de fragilité sur le long terme. La méthodologie suivie par le projet [pseudonymisé] suppose un soutient en informatique à de nombreux points de vue : constitution de la base de données, construction d applications internes ou mise à disposition et adaptation de logiciels existants afin d annoter les décisions de justice du point de vue juridique, création d une interface de consultation des résultats, mise en ligne au public et en open data à terme de la base de données, mise en œuvre d algorithmes de traitement automatique du langage et d apprentissage, mécanismes statistiques, utilisation d algorithmes de classification et de décision pour l aide à la décision, etc.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) : Le projet est actuellement hébergé sur la machine Winter [pseudonymisé].u-uga.fr. Le soutien d une personne spécialiste système serait bénéfique pour les installations et configurations à faire sur cette machine. Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) et construction de base de données : Pour la constitution de la base de données, une partie du travail a été effectuée concernant le Conseil constitutionnel et les élections législatives et sénatoriales depuis 1958 : récupération des données sur open.data.gouv.fr (décisions et résultats) et mise en place d une base de données croisées. Le plus difficile reste à faire concernant la justice administrative et toutes les élections locales pour lesquelles la récupération sera beaucoup plus complexe. Enrichissement des données (annotations, etc) : Le projet suppose d enrichir les données disponibles par de nombreuses classifications strictement juridiques. Pour pouvoir réaliser cette saisie de données, nous avons développé une application web (objet d un des stages). Nous avons besoin de stabiliser ce code et d y ajouter des évolutions. Exploitation des données (fouille de texte, intelligence artificielle) : En premier lieu, les données font l objet d une importante exploration en termes d apprentissage et d analyse automatique du langage dans l optique d un accroissement et d une complexification desd onnées analysées, indispensable notamment en vue de l exploration de la jurisprudence administrative pour les élections locales. En deuxième lieu, le projet [pseudonymisé] projette une mise en ligne et à terme en Open Data de la base de données croisées du contentieux électoral et des résultats des élections : de ce point de vue un certain nombre de problématiques RGPD se posent et le soutien de juristes de la cellule DATA serait le bienvenu. Par ailleurs il existe des besoins en termes de publications de données sur le Web (un peu de Web design). En troisième lieu les données feront l objet d analyses statistiques et en termes d intelligence artificielle (arbres de classification, arbres de décision, utilisation du logiciel Treensight développé par XXX au sein du LIG), pour l élaboration d outils de soutien à la décision. De ce point de vue il y aura sans doute des besoins en développement.</objets_de_la_demande><contexte_scientifique>Le projet [pseudonymisé] s inscrit dans le développement au sein de la discipline juridique en général et au CRJ en particulier autour de réflexions autour de l informatisation du droit et plus spécifiquement de la justice dite prédictive , branche du courant Intelligence artificielle et droit .</contexte_scientifique><description_precise_des_besoins_identifies>Développement application web / bases de données autour de l annotation des décisions de justice : stabiliser les développements existants et ajout de nouvelles fonctionnalités Enrichissement de la base de données existante avec de nouvelles données Travail sur la détection automatique d éléments juridiques dans les décisions de justice via le traitement automatique du langage et/ou l IA Présentation des résultats : accès aux données via un site web public Développement logiciel pour le soutien/aide à la décision</description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences développement logiciel / architecture web / bases de données (Python, SQL, Javascript, Framework backend et/ou frontend) Traitement automatique du langage / Apprentissage (Python, Modèles de langage, etc.) Gestion de projet et d outils de gestion de projets (Gitlab, etc.) Connaissances de Devops utiles pour le déploiement des codes sur le serveur winter</competences_techniques_necessaires></row>
<row _id="6"><answer_index>GAEL--5</answer_index><lab>GAEL</lab><equipe_de_recherche>G.A.E.L., en collaboration avec le G2ELab</equipe_de_recherche><presentation_du_projet>Depuis quelques années, le GAEL a investi le champ de la consommation énergétique des foyers, notamment la consommation électrique. Sur la base de ses compétences en économie comportementale (portant sur la consommation alimentaire ou de produits écologiques) et en économie de l énergie (sur l intégration des énergies renouvelables dans les systèmes énergétiques), les recherches portent sur la compréhension des comportements de consommation électrique dans les foyers, avec une focalisation sur les potentiels de sobriété et de flexibilité et leurs mises en œuvre via des dispositifs de politiques publiques innovantes. Par ailleurs, avec le soutien actif du G2ELab, le développement d outils d observation directe (capteurs) ou indirecte (compteurs intelligents) permet d accroître significativement les possibilités d observation et d expérimentation pour une analyse plus fine de l impact des interventions publiques en matière de transition énergétique dans les foyers. Le projet [pseudonymisé] se propose de développer une infrastructure complète d expérimentation, à savoir de la conception d un protocole expérimental au traitement des données en passant par les dispositifs de recueil de ces dernières via les compteurs intelligents Linky et la mise en œuvre d un cadre juridique respectant le RGPD sur les données privées. Ce projet est notamment basé sur la mise en place du programme MonEcoWatt piloté par RTE afin de gérer les pics de consommation électrique (cf le contexte scientifique ci-dessous).</presentation_du_projet><objets_de_la_demande>Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Formation </objets_de_la_demande><contexte_scientifique>La transition énergétique repose en grande partie sur le développement de sources d'énergie intermittentes. Ainsi, les systèmes énergétiques en transition, notamment pour l'habitat, nécessitent des changements de comportement des individus, des ménages et des collectivités - tant en termes de sobriété que de flexibilité énergétique - qui sont induits via 1des dispositifs où l'humain est au centre des systèmes. Les intentions de recherche de ce projet portent sur une compréhension plus pertinente des comportements afin d assurer le développement de solutions et d'infrastructures techniques, d'intelligence artificielle, de politiques publiques et de systèmes de coordination les plus pertinents possibles. De nouvelles méthodes d'observation doivent être développés. En effet, les outils actuels d'observation et de prévision peuvent être complétés par des dispositifs innovants permettant de collecter des données sur de longues périodes et de manière répétée (cohortes longitudinales, panels d'usagers, systèmes d'information géographique, compteurs intelligents, capteurs et objets connectés...). Ces outils permettent une analyse continue et approfondie des mécanismes de changement des pratiques en explorant l'ensemble des dimensions impliquées dans ces processus (techniques, spatiales, économiques, sociales). Il est donc possible de développer des chaînes de collecte et de traitement des données qui mêlent les approches disciplinaires et méthodologiques dans des protocoles originaux. Ces outils visent à apporter de nouvelles connaissances dans plusieurs domaines, à savoir : i.L'analyse de la valeur croissante des attributs non énergétiques (électricité verte, énergie locale, etc.) dans le choix des fournisseurs, le développement de l'autoconsommation et des communautés énergétiques. ii.L'analyse de l'évolution de la demande énergétique résidentielle et de l'efficacité des mécanismes monétaires (ou non monétaires) qui l'influencent, en testant différents scénarios de rétroaction basés sur le concept de nudges et de tarification dynamique en temps réel. iii.Le développement de modèles de comportement des résidents, y compris la conception de systèmes de communication entre les gestionnaires et les résidents, ainsi que de logiciels de simulation basés sur l'approche multi-agents. Une évaluation de MonEcoWatt est actuellement en cours. Sur la base d une étude expérimentale antérieure portant sur la flexibilisation de la consommation électrique d un panel foyers (programme EXPESIGNO avec 150 foyers du bassin grenoblois), l objectif scientifique de ce projet est de réaliser, grâce aux foyers inscrits à [pseudonymisé], une expérimentation similaire à plus grande échelle (en nombre de foyers et au niveau spatial) basée sur des signaux de risque de blackout émis par le gestionnaire du réseau via des canaux de communication nationaux. Il s agit ici de confirmer en conditions réelles les résultats prometteurs en matière d effacement des foyers sur des périodes de pic de consommation. L originalité de cette étude est d intégrer expérimentalement sur un échantillon représentatif un dispositif d engagements de la part des foyers à réaliser des gestes de flexibilité en période indiquée rouge dans le dispositif MonEcoWatt. Notre principale hypothèse de recherche est que par rapport à un groupe de contrôle les foyers s étant engagés volontairement, sans incitations monétaires et sans être soumis à un contrôle, procèderont à des gestes d effacement sur les plages particulièrement critiques de journées marquées rouges. Description des besoins identifiés et des compétences techniques nécessaires Le premier volet de besoins porte que le financement deux formations pour une IE (XXX, CNRS GAEL). Il s agit de tout d abord de monter en compétences sur les méthodologies pour exploiter les données haute fréquence collectées par le laboratoire GAEL, en collaboration avec le G2ELab. La première formation visée est le programme de la Summer School organisée par PSE intitulée : MICROECONOMETRICS AND POLICY EVALUATION - Modern Estimation Methods and Machine Learning 1 (Paris: 12-16 juin 1 https://www.parisschoolofeconomics.eu/fr/formation/summer-school/microeconometrie/ 22023). Elle présente les développements récents dans l'analyse microéconomique de l'évaluation d'impact, avec des cours enseignés par des experts dans leurs domaines. Le cours Méthodes d'évaluation des politiques présente les principales méthodes actuellement utilisées pour l'évaluation des programmes, tandis que le cours Machine Learning pour l'évaluation des politiques présente les avancées récentes des techniques d'apprentissage automatique pour l'analyse des politiques. Coût approximatif : 1500 d inscription per diem 5 jours. Une deuxième formation est également souhaitée et porte sur le design d études en ligne basées sur les méthodes de choix discrets2 : Discrete Choice Analysis: Predicting Individual Behavior and Market Demand (EPFL, janvier 2024). Ce programme d'une semaine entreprend une étude approfondie des modèles de choix discrets et de leurs applications à partir d études de cas réelles permettant de se familiariser avec les problèmes de collecte de données, de traitement de données dès la formulation des modèles et des tests de prévisions. Coût approximatif : 4900 CHF d inscription per diem 5 jours. Le deuxième volet de besoins porte que de l ingénierie informatique en lien direct avec le recueil et le traitement de données [pseudonymisé]. En fonction des profils et compétences disponibles des ingénieurs déjà recrutés (où à recruter), plusieurs types de missions ou d activités sont envisagés : 1.- Le perfectionnement de l outil de création d enquête en ligne. Besoins : Il s agit ici de pouvoir prolonger l enquête [pseudonymisé] en ajoutant des questions complémentaires à celles existantes. Par exemple en l état l outil ne permet pas d insérer de nouvelles questions [pseudonymisé]i celles existantes. En fonction de l analyse socio-économique des résultats obtenus dans [pseudonymisé] il faudrait permettre à une partie du panel de répondre à des questions complémentaires sans qu il n y ait besoin de refaire un questionnaire en entier. Le perfectionnement de l outil doit aussi permettre de gérer plus finement le panel directement en ligne sans qu il n y ait besoin de recourir exclusivement à du traitement de données par de l analyse de données. Compétences techniques : Il s agit d un outil développé en Javascript (FrontEnd) et Php (BackEnd). Il repose sur les outils de déploiement et d intégration continue (CI/CD) de GitLab. Les différentes briques sont encapsulées dans des conteneurs Docker. 2. - Le perfectionnement du mécanisme d intégration continue de l outil de création des questionnaires [pseudonymisé] Besoins : permettre la montée en charge et le passage à l échelle. Il s agit ici d anticiper les besoins en ressources de l architecture informatique (matérielle et logicielle) qui héberge les questionnaires. Il y a en particulier un besoin pour consolider et sécuriser les mécanismes de conteneurisation et d orchestrations des conteneurs déployés sur un environnement informatique distribué. Compétences techniques : L environnement distribué est composé de 5 machines virtuelles (1 serveur de test, 1 serveur principal et 3 nœuds) qui tournent sous Linux (Debian 11). L orchestrateur de containers (Docker) envisagé pour le système est Kubernetes. 3. - L extraction, l analyse et la mise en forme des données et des résultats des enquêtes [pseudonymisé]. Besoins : Les résultats des enquêtes sont fournis sous la forme d un fichiers .xlsx dont la présentation n est pas complètement aboutie. Le fichier nécessite un gros travail de nettoyage et de réorganisation des données pour le rendre conforme au dictionnaire des variables définies au début des études. Il s agit ici de respecter la présentation des données 2 https://transp-or-academia.epfl.ch/dca 3(l ordre, le regroupement de questions fractionnées en sous questions), la dénomination des variables (les questions apparaissent telles qu elles et non en fonction de la variable qui doit les représenter) et aussi la typologie des variables (par exemple certaines réponses de type booléen apparaisse sous forme de chaîne de caractère et doivent être transformées pour que les chercheurs puissent les analysée en fonction du type attendu en début d enquête). Enfin il faudrait également automatiser la récupération des données 2 enquêtes via le système d API existant pour gérer le flux des nouveaux répondants . Compétences techniques : connaissance des outils classiques de manipulation des données. Il s agit ici de faire du requêtage de base de données SQL, d utiliser les outils usuels relatif à l analyse de données (scikit learn, pandas, numpy, gplot sous Python et/ou R/R studio) 4. - Renforcer la sécurité et le stockage des données relatives aux enquêtes [pseudonymisé] Besoins : pour répondre aux prérequis des RGPDs et/ou du secret statistique les réponses doivent être anonymisée ou regroupées. Elles sont actuellement stockées dans des bases différentes (l une contenant les données personnelles des sujets, l autre les réponses des sujets aux enquêtes). Compétences techniques : Il s agit ici d utiliser principalement l outil fail2ban (sous Linux Debian 11) pour contrôler (et tracer) l accès à ces données de façon à garantir leur intégrité et leur sécurité.</contexte_scientifique><description_precise_des_besoins_identifies xsi:nil="true" /><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="7"><answer_index>GRESEC--6</answer_index><lab>GRESEC</lab><equipe_de_recherche>Gresec Université Grenoble Alpes URE//Transitions et URFIST - Université Côte d Azur Babel Université de Toulon Datactivist, société coopérative et participative</equipe_de_recherche><presentation_du_projet>Ce projet pluridisciplinaire en sciences de l information et de la communication et en linguistique vise a améliorer la de couvrabilite des jeux de données sur l entrepôt national Recherche Data Gouv, en agissant sur la pertinence des résultats retourne s a l utilisateur qui effectue une recherche. Pour cela, nous allons mesurer, d une part, l adéquation entre la description des jeux de données et des requêtes utilisateurs ; d autre part, la satisfaction des usagers concernant la réponse a leur besoin d information. Plusieurs données vont être fournies par RDG (notices descriptives des jeux de données, les logs de connexion, les requêtes, les référentiels éventuels), d autres émaneront de questionnaires et d entretiens. Ce projet vise a proposer des pistes d'amélioration pour la de couvrabilité des jeux de donne es (description, enrichissement, expansion de requêtes et de documents ) et également a apporter des recommandations pour la formation des utilisateurs de l entrepôt (dans le cadre des Ateliers de la donnée et des URFIST) a la fois côté déposant et côté chercheur d information. Nous avons obtenu un financement partiel (40 % de l aide sollicitée) pour ce projet dans le cadre d un appel a projet du GIS Réseau des Urfist, d où la nécessité de soutiens techniques complémentaires.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, ...) Exploitation et traitement des données Enrichissement des données, éventuellement Outils de visualisation</objets_de_la_demande><contexte_scientifique>Le présent projet part du constat qu il ne suffit pas de rendre visibles les données ou d avoir prépare leur réutilisabilité pour qu elles soient effectivement trouvées et r e utilisées. Dès lors, il convient de tout mettre en œuvre afin qu elles soient aisément découvrables . La découvrabilite des données de recherche est un enjeu qui de pend a la fois de la description et de l'enrichissement (notice documentaire et métadonnées) des jeux de données et du moteur de recherche. La première peut être lacunaire et employer la terminologie propre au producteur ; le second se limite typiquement a un calcul de similarité textuelle entre la requête de l utilisateur et la description des données. La recherche de données ouvertes souffre donc d un très fort phénomène de de calage de vocabulaire entre la requête formulée du point de vue du re utilisateur et la description des données formulée du point de vue du producteur. Plusieurs approches ont e te propose es pour s attaquer a ce probl ème : l expansion de requ ête vise a modifier ou e tendre la requ ête de l utilisateur pour inclure des termes potentiellement utilise s dans la description, tandis que l expansion de document vise a modifier ou e tendre les descriptions pour inclure des termes potentiellement utilise s dans les requêtes des utilisateurs. </contexte_scientifique><description_precise_des_besoins_identifies>- proposition d un outil permettant de stocker et traiter les donn e es transmises par RDG. Les formats ne sont pas encore connus a ce jour mais il y aura des notices bibliographiques, des logs de connexion, des requêtes... - traitement de la langue : mise en e vidence des mots cl e s, regroupements, cat e gorisation, mise en relation avec d e ventuels r e fe rentiels (non connus a ce jour) - accompagnement pour la visualisation des r e sultats ( e carts et/ou similitude entre descriptions des jeux et requêtes des utilisateurs) - e ventuellement transcription (entretiens).</description_precise_des_besoins_identifies><competences_techniques_necessaires>- traitement et analyse du type de donn e es de crit ci-dessus - visualisation </competences_techniques_necessaires></row>
<row _id="8"><answer_index>ILCEA4--7</answer_index><lab>ILCEA4</lab><equipe_de_recherche>ILCEA4 / Centre de Recherches Juridiques</equipe_de_recherche><presentation_du_projet>Depuis le sommet de Rio en 1992, les négociations climatiques internationales ont mené à l adoption de plusieurs accords juridiques internationaux sur le climat. Le statut international de ces conventions et traités conduit à s interroger sur la façon dont cette législation commune est appliquée selon différents contextes nationaux, d autant que certaines ambiguïtés semblent préservées intentionnellement dans les versions finales. De plus, les différentes versions linguistiques amplifient les risques d interprétations différentes de la loi. Notre hypothèse est que ceci peut créer des obstacles à une communication fluide, voire une instrumentalisation politique de l ambiguïté terminologique. Une meilleure compréhension de la terminologie juridique sur le changement climatique semble donc essentielle. Dans ce contexte, l objectif principal de notre projet est de comprendre et d'améliorer la communication multilingue sur le changement climatique en nous concentrant plus particulièrement sur la terminologie juridique anglaise et française. Notre approche originale qui combine la linguistique de corpus, la traduction et les méthodologies de droit comparé devrait permettre d éclairer les phénomènes de variation dans la terminologie juridique, plus particulièrement dans les contextes nationaux britanniques, français et suisses. La première étape de ce projet consiste à créer un corpus bilingue anglais-français sur le changement climatique comportant des métadonnées diachroniques et diastratiques. C’est dans ce cadre que nous répondons à l appel à projet GATES sur les données de la recherche en [pseudonymisé] afin de compléter, étiqueter, rendre accessible et consultable le corpus multilingue constitué dans ce cadre. </presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation Autre : Précisez Le corpus multilingue sur le changement climatique que nous avons constitué dans le cadre du GREMUTS/ILCEA4 lors de projets précédents ou en cours (appel à projet CORLI en 2016-2018, thèse financée à partir de 2020) mériterait d être mis à jour avec des documents plus récents et complété pour parvenir à un meilleur équilibre entre sous-parties. Nous souhaitons notamment compléter la partie juridique et le corpus français. Nous souhaiterions également trouver une solution d hébergement / consultation pour ce corpus afin qu il soit accessible au-delà de notre équipe de recherche. </objets_de_la_demande><contexte_scientifique>Le corpus serait utile à toute personne s intéressant au discours sur le changement climatique dans un contexte multilingue et à sa traduction. Nous souhaitons l utiliser plus précisément pour mieux comprendre les processus de traduction de la terminologie juridique dans différents contextes. Le schéma suivant présente de façon synthétique les parties du corpus déjà constituées et celles que nous souhaitons compléter grâce au soutien GATES SHS. </contexte_scientifique><description_precise_des_besoins_identifies>L ingénieur pédagogique serait chargé premièrement de la mise à jour du corpus avec des documents complémentaires selon une méthodologie de collecte de documents prédéfinis (sites pré-identifiés par l équipe de recherche, mots clés). Il travaillerait ensuite sur la conversion des fichiers en TXT et le nettoyage textuel associé, la typologie de nommage de l ensemble des documents et la mise à jour du document qui recense les métadonnées de corpus. Nous souhaitons également recevoir une assistance concernant la diffusion de ces données et les possibles outils de consultation en libre accès que nous pourrions proposer. Un accompagnement sur les aspects juridiques de diffusion de ces données est aussi souhaitable.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Des compétences concernant la création et la gestion de corpus textuels multilingues sont nécessaires. De bonnes connaissances des deux langues principales du projet sont souhaitables. Des conseils concernant le statut RGPD des textes rassemblés et la possibilité de les rendre consultables dans le cadre d une démarche de science ouverte sont aussi attendues.</competences_techniques_necessaires></row>
<row _id="9"><answer_index>LARAC--8</answer_index><lab>LARAC</lab><equipe_de_recherche>L équipe de recherche est composée d une trentaine de chercheurs et d ingénieurs de 4 laboratoires de l Université Grenoble Alpes : le LARAC (EA 602), le LARHA (UMR 5190), le LIDILEM (EA 609), et Pacte (UMR 5194). </equipe_de_recherche><presentation_du_projet>Les enseignant.es des TD d enquête sociologique de licence et de master du département de sociologie de l Université Grenoble Alpes entreprennent à partir de ce début d année 2023 l’élaboration d’un ouvrage collectif intitulé « Sociologie de Grenoble ». Cet ouvrage est destiné à être publié dans la collection Repères des Éditions de la Découverte, qui a déjà publié plusieurs ouvrages du même type consacrés à des villes françaises (Paris, Lyon, Marseille, Bordeaux, Lille, Nantes, Rennes et Saint- Etienne) ou étrangères (Berlin, San Francisco et Jérusalem). Si la plupart de ces ouvrages s’appuient plus ou moins exclusivement sur une mobilisation de la littérature en sociologie et sciences sociales déjà consacrée à la ville, l’ouvrage que nous envisageons pour Grenoble aura pour particularité de s appuyer également sur des enquêtes originales, qui seront menées au cours des deux années à venir dans le cadre des différents TD de formation à l’enquête sociologique de la licence et des masters du département de sociologie. Les formations à la sociologie de l UGA ont en effet comme caractéristique d’être très fortement structurées autour de l’apprentissage des méthodes d enquête par la pratique dans le cadre d enseignements où les étudiant es participent à la réalisation de véritables enquêtes : par observation ethnographique en L1 ; par entretiens et par questionnaires en L2 ; par analyse de corpus de données quantitatives et de corpus documentaires en L3 ; par analyse de données du web et en articulant l’ensemble des méthodes précédentes en Master. Par exemple, dans le cadre du TD Enquête par questionnaire de la deuxième année de Licence (annuel, 44h ETD), les enseignants et les étudiants concevront, réaliseront et exploiteront ensemble une grande enquête auprès d un échantillon représentatif de plusieurs milliers d’habitants de l agglomération grenobloise, dont les résultats viendront alimenter la rédaction de l ouvrage, pour commencer. Ces enquêtes, comme du reste celles déjà réalisées dans le cadre de ces enseignements au cours des années précédentes, ont produit et vont produire des corpus de données, de documents et de ressources abondants et diversifiés portant sur Grenoble et son agglomération. Ces corpus de données et de documents seront utilisés dans le cadre de l’élaboration de l ouvrage évoqué plus haut. Mais ils ont aussi pour vocation d’être conservés de façon plus durable et surtout d’être mis à disposition d un plus large public. Ces ressources sont en effet mobilisables dans tous les enseignements de sciences humaines et sociales qui s attachent aux questions locales ou sont susceptibles de puiser leurs exemples, leurs terrains ou leurs cas dans le territoire. Et au-delà, elles peuvent intéresser un grand nombre de chercheurs, de citoyens de Grenoble et son agglomération, d’acteurs associatifs et des politiques de la ville, de data journalists donc de personnes qui peuvent en avoir un usage dans le cadre de l’enseignement, de la recherche, de l expertise et de l’action sur le territoire. Nous souhaitons par conséquent profiter de l occasion offerte par ce projet de rédaction d’un ouvrage de sociologie consacré à la ville de Grenoble pour alimenter une plateforme numérique permettant de déposer, documenter, conserver et diffuser des données et des ressources documentaires pour la recherche et l enseignement en sciences sociales portant sur Grenoble et son agglomération. Cette plateforme doit pouvoir accueillir des corpus de natures variées et en provenance de plusieurs sources : Elle est bien sûr destinée à accueillir et diffuser les corpus qui vont être produits au cours des deux années à venir dans le cadre des enquêtes menées dans les TD de sociologie pour alimenter la rédaction de Sociologie de Grenoble, et ceux qui ont déjà été produits au cours des années précédentes dans le cadre de ces mêmes TD, chaque fois qu’ils correspondent à des terrains d enquête géographiquement localisés dans l agglomération grenobloise. Mais elle doit avoir aussi pour vocation, beaucoup plus largement, de contribuer à la conservation, la documentation et la diffusion de tous les corpus de données et de documents produits dans le cadre des recherche menées dans les différents laboratoires de sciences humaines et sociales de l’UGA, chaque fois qu ils correspondent également à des terrains d enquête géographiquement localisés dans l agglomération grenobloise. Pour développer cette plateforme numérique d accès ouvert aux corpus de données et de documents issus de la recherche sur Grenoble et son agglomération, nous proposons de nous appuyer sur les développements en cours d outils de dépôt de données au sein de l’UGA. L’université est en effet partie prenante via Gricad du projet d entrepôt national, elle a créé sa propre collection sur recherche.data.gouv.fr (RDG), et elle mène actuellement une campagne pour que les laboratoires du site abondent le dispositif en créant des sous-collections. Une première possibilité envisageable est donc de développer une sous-collection dans le dataverse RDG de l UGA pour accueillir et diffuser ces corpus de données et de documents. Cette sous-collection doit permettre : 1. Aux enseignants, chercheurs et ingénieurs qui produisent des corpus de données et de documents sur Grenoble dans le cadre de leurs enseignements et de leurs recherches, de les déposer sur la plateforme. La sous-collection doit pouvoir accueillir des corpus de données et de documents de natures très variées : bases de références bibliographiques sur Grenoble, recensement des bases de données ouvertes sur la ville et l’agglomération, corpus d entretiens (vidéo, audio ou en transcriptions), corpus documentaires, iconographiques (affiches, photographies, oeuvres d’art), cartographiques, bases de données d enquêtes par questionnaire, etc. 2. De documenter ces corpus en respectant les normes et pratiques en vigueur en matière de documentation des données de la recherche. Etant donné que ces corpus auront la particularité de porter sur des territoires (Grenoble et son agglomération, et donc les communes, quartiers, voire rues et bâtiments qui les composent), une attention particulière devra être portée à la géolocalisation et la spatialisation des corpus et des données et documents qu ils contiennent. 3. De rechercher, consulter et télécharger ces corpus et leur documentation, qui devront être autant que possible mis à disposition en accès libre et gratuit, conformément aux principes de la science ouverte, et dans le respect des règles du droit de la propriété intellectuelle et du Règlement général sur la protection des données (RGPD) . Des points qui précèdent, il découle qu il conviendra d’évaluer précisément dans quelle mesure la création d une telle sous-collection dans le dataverse RDG de l’UGA permet de répondre à l ensemble des besoins spécifiques du projet, et en particulier : 1. le dépôt de corpus documentaires de nature variée (et non pas seulement de données quantitatives) ; et 2. la géolocalisation des corpus et des documents, et leur recherche par critères géographiques d’échelles variables (par adresse ou par carte, de la commune jusqu à la rue ou au numéro de rue), donc basée sur les principes de géo-catalogage et sur les standards existants dans ce domaine (directive Inspire). En fonction de ce diagnostic préalable, il conviendra d’envisager des solutions de plateformes complémentaires ou alternatives. </presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc) Développement logiciel Outils de visualisation Diffusion et édition des données Formation Autre : Précisez </objets_de_la_demande><contexte_scientifique>Dans le cadre de ce projet, l équipe porteuse du projet Sociologie de Grenoble (SOCIOGRE) a déposé en novembre dernier une candidature à l appel à p rojets [pseudonymisé] Formation Emergents 2022 , visant à obtenir un soutien de l ensemble du projet pédagogique dont la plateforme numérique envisagée est, avec l ouvrage collectif, un des deux livrables. Mais si les moyens en ressources humaines demandés dans c e cadre peuvent permettre d accompagner une partie de l ingénierie nécessaire pour constituer, documenter et déposer sur la plateforme les corpus produits dans le cadre des TD de formation à l enquête du département de sociologie, ils ne peuvent en revanch e pas suffire pour contribuer à leur alimentation par des corpus issus des TD des années précédentes et surtout des recherches menées dans les différents laboratoires de sciences sociales de l UGA au cours des années écoulées, ni a fortiori au développement des outils de dépôt et de diffusion eux -mêmes ou des fonctionnalités supplémentaires dont ils devraient être dotés (liées notamment à la dimension de spatialisation des ressources). </contexte_scientifique><description_precise_des_besoins_identifies>L objectif général, pour les quatre premiers laboratoires déjà associés à ce projet (LARAC, LARHA, LIDILEM et Pacte), est de pouvoir aider leurs chercheurs à être présents sur cette plateforme, en soutenant et en accompagnant le travail de ceux -ci et des ingénieur es en amont du dépôt (repérage des données, mise en œuvre des principes FAIR adaptés aux usages des [pseudonymisé], choix de l'entrepôt le plus adapté aux données, formation des déposants, fonctionnement des instances de modération/gouvernance ...). Ce sont ces tâches pour lesquelles un appui est primordial dans les mois qui viennent. Pour cette raison, nous manifestons par le présent document notre vif intérêt pour un soutien à ce projet dans le cadre de l axe 2 du programme GATES , qui vise à affecter des moyens humains et financiers à des initiatives de données ouvertes en sc iences humaines et sociales pour la recherche et la formation. Après une première réunion avec XXX (directeur de la CSPM H3S), XXX (directrice de l UFR [pseudonymisé]) et XXX le 5 décembre dernier, il nous a en effet semblé que notr e projet s'inscrit parfaitement dans le périmètre de cet axe 2 du programme, à l intersection exacte de ses quatre dimensions structurantes : 1. initiative de diffusion de données ouvertes ; 2. en SHS ; 3 pour la recherche ; et 4. pour la formation. Dans l e cadre de l appel à manifestation d intérêt pour l axe 2 du programme GATES, l équipe d enseignants -chercheurs du département de sociologie porteuse du projet Sociologie de Grenoble propose donc, en collaboration déjà avec les enseignants - chercheurs et les ingénieurs d au moins quatre laboratoires de sciences humaines et sociales de l UGA (LARAC, LARHA, LIDILEM et Pacte), de coordonner la candidature collective de ces laboratoires à un soutien du programme GATES pour le développement et l alimentation d u ne plateforme numérique en accès ouvert permettant de conserver, documenter et diffuser les données et sources documentaires des recherches menées en leur sein présentant une dimension spatiale importante, soit que leurs objets soit que leurs terrains soient localisés dans Grenoble et son agglomération. Ce volet spatial est important mais aussi multidimensionnel, allant de la simple géolocalisation des données à une réelle spatialisation des corpus en fonction des données acquises. Compétences techniques né cessaires Formation et expérience professionnelle en matière de collecte, la documentation et la diffusion des données d enquêtes quantitatives (enquêtes par questionnaire, base de données) et qualitatives (entretiens, corpus documentaires et iconographiques) en sciences sociales . Formation et expérience professionnelle en matière de documentation et de visualisation des données spatiales et géolocalisées. Compétences en matière de développement de platefor mes de recherche et de visualisation de corpus de données spatialisés. </description_precise_des_besoins_identifies><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="10"><answer_index>LARHRA--9</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet xsi:nil="true" /><objets_de_la_demande>Formation : sensibilisation des EC du laboratoire à la question de la collecte, de la gestion et de l’analyse des données dans leur travail de recherche, quelles que soient les formes prises par ces dernières (textes, images, etc). Tou.tes ne sont en effet pas forcément sensibles à ces questions, le terme de données pouvant faire peur. </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies xsi:nil="true" /><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="11"><answer_index>LARHRA--10</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet xsi:nil="true" /><objets_de_la_demande>gestion de sources hétérogènes, notamment orales Besoin de traitement/archivages de sources hétérogènes, notamment orales. En effet, plusieurs EC du laboratoire ont mené des recherches ou encadré des travaux de recherche d étudiant.es (de master par exemple) ayant donné lieu à la collecte de sources orales, sous des formats très différents (la plupart ne sont pas numérisées). Ces archives sont pour l instant entreposées dans des lieux divers, où elles dorment . Il conviendrait ainsi de : -Les recenser -Les retranscrire -Etablir les métadonnées -Régler la question de la protection des données personnelles -Trouver un lieu de stockage adapté - en examinant la question des conditions de mise en valeur et d accès à ces sources orales. Les besoins consisteraient donc en : Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc)Diffusion et édition des données Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Actions de formation</description_precise_des_besoins_identifies><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="12"><answer_index>LARHRA--11</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet xsi:nil="true" /><objets_de_la_demande>l'appui d'un.e ingénieur.e géomaticien.ne et d'un.e ingénieur.e en analyse de données Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation Autre : Précisez </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies xsi:nil="true" /><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="13"><answer_index>LARHRA--12</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet xsi:nil="true" /><objets_de_la_demande>accompagnement pour la rédaction de plans de gestion de données (PGD) Si plusieurs EC du laboratoire travaillent avec une approche ayant une dimension quantitative ou mobilisant des données, massives ou non, hétérogènes ou pas, pouvant présenter un caractère sensible en raison de leur nature (à caractère personnel, par exemple), elles et ils sont pour l instant livrés à eux-mêmes pour ce qui concerne l établissement possible d un plan de gestion de données. Si ces EC sont conscients de la nécessité d établir la façon dont ils obtiennent, documentent, analysent et utilisent leurs données, tant au cours de leur recherche qu une fois le projet terminé, elles et ils n ont pas forcément les compétences nécessaires pour être à même de mener cette tâche à bien. - Accompagnement juridique (RGPD, PI) - Formation </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies xsi:nil="true" /><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="14"><answer_index>LARHRA--13</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet>Il n’existe pas à proprement parler de récit officiel de l’histoire du premier Planning familial en France : au Planning, on n’écrit jamais, tout passe par l’oralité, selon les mots de sa documentaliste. Le projet [pseudonymisé] vise à reprendre le dossier de l’histoire d une structure pionnière, le Planning familial de l’Isère (l’antenne grenobloise est en effet la première qui ait vu le jour en France, le 10 juin 1961). L’approche choisie est celle de l’histoire sociale, à la croisée de l’histoire du genre et de la santé : le projet [pseudonymisé] aborde le Planning familial 38 par en bas, au ras des revendications et des pratiques, par le biais d’une campagne d entretiens réalisée auprès d une vingtaine d ancien.es militant.es. Il s’agit notamment de déplacer la focale vers les mouvements locaux, l’historiographie de l’histoire du féminisme ayant longtemps été parisiano-centrée. La période de financement du projet par l’IRDEX est terminée. Nous débutons désormais la phase de retranscription des entretiens et, à moyen terme, nous publierons une monographie aux PUG. Mais un soutien apporté durant l’année 2023 (cf besoins décrits plus bas) serait précieux. </presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) : de fichiers audio, correspondant à l enregistrement de chacun de la vingtaine d entretiens réalisés. Il faudrait que ces archives sonores soient accessibles aux chercheur.ses qui en feraient le souhait, aux militant.es du Planning familial et au grand public en général. Plusieurs lieux de stockage ? Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) : 20 entretiens à retranscrire Accompagnement juridique (RGPD, PI) : nous avions contacté le DPO de l UGA au début du projet, qui nous avait éconduites sans autre forme de procès et renvoyées vers un.e référent.e à la protection des données personnelles au sein de notre laboratoire. </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>-Retranscription -Vérifier que tout est carré du point de vue de la gestion des données personnes (des contrats de témoignage ont été signés par tou.tes les témoins) -Lieu de stockage des fichiers audio</description_precise_des_besoins_identifies><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="15"><answer_index>LARHRA--14</answer_index><lab>LARHRA</lab><equipe_de_recherche>LARHRA</equipe_de_recherche><presentation_du_projet>La situation de la jeunesse espagnole est exceptionnelle en Europe (pas de participation directe aux guerres mondiales, guerre civile, dictature de 36 ans). Ce projet éclaire les horizons d’attente et les moyens dont ont disposé les jeunes Espagnols de milieux populaires pour se réaliser. Cette histoire intime et par en bas de leurs rêves et de leurs frustrations interroge le rôle de la guerre et de l’État dans l expérience des jeunesses européennes, en contexte autoritaire notamment.</presentation_du_projet><objets_de_la_demande>Ce projet de recherche constitue mon projet d HDR. Il comporte une dimension d histoire quantitative dans la mesure où il conviendra de traiter une quantité importante de données non océrisées contenues dans les archives judiciaires que je vais dépouiller (5 tribunaux différents, répartis sur le territoire espagnol). Dans cette perspective, j aurais plusieurs besoins : -Les dossiers personnels contiennent des données sensibles car à caractère personnel. Besoin de m adresser à un DPO, sachant que mes recherches portent sur un pays étranger. -Dois-je rédiger un plan de gestion de données ? -Avant de pouvoir traiter les données, il faut les retranscrire (je travaille sur des photographies prises dans des fonds d archives) -Quel logiciel utiliser ensuite pour traiter les données ? Excel ? Base de données relationnelles ? -Je réfléchis avec des chercheur.ses du LIG (XXX notamment) pour voir comment il serait possible de modéliser les parcours de vie des jeunes que j étudie. Un appui dans cette ré[pseudonymisé]xion pluridisciplinaire me serait à cet égard précieux. Je pense donc que tous les besoins cités ci-dessous correspondent à la situation dans laquelle je me trouve : Production/collecte de données et/ou de métadonnées (par ex, transcription et versement des données dans un tableur excel ? , etc.) Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Construction de bases de données Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies xsi:nil="true" /><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="16"><answer_index>LIDILEM--15</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>La constitution de corpus d apprenants fait l’objet de nombreuses recherches, avec un intérêt croissant pour ce type de corpus qui permet d’étudier les processus interactifs et cognitifs à l’œuvre chez les apprenants dans une situation de nouvelles pratiques pédagogiques telles que la télécollaboration. Cependant, il n’existe pas à l’heure actuelle de corpus d’apprenants constitués à partir des échanges à l’oral et à l’écrit entre étudiants japonais et étudiants français autour d’une tâche collaborative de traduction. La constitution d’un tel corpus est précisément l’objectif que nous visons à travers ce projet expérimental. Les échanges entre étudiants, qui constitueront le principal matériau du corpus, s’inscrivent dans le cadre d’une télécollaboration mettant en jeu une communication médiée via différents dispositifs (visioconférence, outil de communication vidéo sur ordinateur, messagerie instantanée, notamment) impliquant des étudiants spécialistes de langue française à Tokyo University of Foreign Studies et des étudiants de japonais inscrits dans le master LEA parcours Traduction spécialisée multilingue de l UGA. La tâche collaborative entre étudiants français et japonais, répartis en équipe (binôme) portera sur la traduction de textes à dominante socio-culturelle et impliquera différentes étapes, notamment la révision. Cette étape de révision, prise en charge par l’étudiant locuteur natif, donnera lieu à des échanges argumentés sur les choix de traduction portant aussi bien sur des aspects linguistiques et rhétoriques qu’interculturels. L’ensemble de ces échanges fera l’objet d’un recueil et d’un traitement de données en vue d’une analyse multidimensionnelle. Cette phase de recueil et de traitement comprendra : transcription écrite à partir de l’oral, pour le français et pour le japonais, traductions, alignement de l’enregistrement à la transcription, mise en forme des échanges et des productions écrites des étudiants. Le corpus constitué comprendra ainsi plusieurs sous-corpus combinant données écrites et transcriptions écrites de données orales : interactions verbales collectives (impliquant l’ensemble des étudiants), interactions verbales au sein de chaque équipe et productions des étudiants (allant du premier texte cible produit, en passant par les différentes révisions jusqu’à la traduction finale). Cette multidimensionnalité s’exercera à travers la traduction, activité à la fois intensive, complexe et très outillée, et les analyses que nous mènerons, qui porteront sur les aspects cognitifs liés au processus de traduction et sur les aspects organisationnels liés au travail en équipe (dimension ergonomique appliquée à la traduction). La multidimensionnalité s’ancrera également dans un cadre linguistique à visée didactique : nous étudierons notamment les caractéristiques de l’interaction exolingue français-japonais lors d une activité collaborative. Dans ce contexte, l’enjeu en termes d interculturalité est d’autant plus important que nous sommes en présence de langues distantes. Le corpus constitué dans le cadre de ce projet pourra bénéficier aux différentes communautés de chercheurs en linguistique, didactique et traductologie, notamment, et nous mettrons ce corpus à la disposition des chercheurs.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Curation des données Enrichissement des données (annotations, etc) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Le principal besoin consiste à nettoyer les données et les mettre en forme en vue de la diffusion du corpus sur ORTOLANG. Actuellement, nous disposons de beaucoup de fichiers mp4 et word qui demandent à être transcrits et formatés, plusieurs personnes ont déjà travaillé et travaillent dessus (vacations LIDILEM), le chemin est toutefois encore loin avant la diffusion du corpus. Nous aurions plus spécifiquement besoin d'une aide pour savoir sous quelle forme nous avons intérêt à structurer les données pour leur diffusion, ainsi que les aspect juridiques associés (les vidéo contiennent la voix et parfois le visage des étudiants). Au-delà de la diffusion du corpus, nous travaillons à son annotation (typologie des erreurs linguistiques/traduction), dans l'objectif de pouvoir requêter le corpus pour lister toutes les occurrences de tel ou tel type d'erreur, sur tel ou tel lemme ou catégorie du discours. Cela demande un travail considérable qui n'avance pas bien vite actuellement. Nous envisageons de créer une interface web facilitant cette annotation, mais une aide à ce niveau-là serait la bienvenue également.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Connaissance des règles de diffusion de corpus (structure de données, disponibilité des métadonnées, aspects juridiques) ; Compétences en développement web / base de données (noSQL) ;</competences_techniques_necessaires></row>
<row _id="17"><answer_index>LIDILEM--16</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Ce projet explore les pratiques d'écriture et de lecture en ligne de jeunes filles qui se présentent comme issues de l'immigration et comme résidant dans des cités. Les récits qu'elles publient sont rétrospectifs (années d'adolescence ) multimodaux, rédigés à la première personne, et présentés comme plus ou moins autobiographiques. Ce genre, appelé chronique par les usagères de ces réseaux du web est issu de la pratique des blogs à la fin des années 2000. Il s'est développé depuis sur différentes plateformes et a donné naissance à de nombreux sous-genre. Nous nous intéressons aux pratiques langagières plurilingues qui s'y développent et aux pratiques interactionnelles dans les communautés de pratique plus ou moins éphémères qui se construisent autour de l'écriture et de la lecture de ces récits. L'aide dont nous aurions besoin poursuit deux directions : Mieux documenter les pratiques langagières en ligne autour de ces récits (- les récits eux-mêmes et les échanges qu'ils suscitent) Patrimonialiser quelques récits emblématiques, qui ont connu un grand succès à la fin des années 2000. Il est entre autres intéressant d'étudier la circulation de ces récits d'une plateforme à l'autre. Certains ayant déjà été, à notre connaissance, republiés sur au moins 3 plateformes différentes, avec des transformations.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle) Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation</objets_de_la_demande><contexte_scientifique>Les chercheuses ayant participé au projet sont inscrites en sciences du langage, plus spécifiquement en sociolinguistique, mais avec un fort ancrage pluridisciplinaire. XXX, principale collaboratrice du projet, est ancrée à la fois en sciences du langage et en littérature. Pour ma part je bénéficie d'un double ancrage sciences du langage, sciences de l'éducation. La recherche est conduite en partenariat avec le CIRPaLL de l'Université d'Angers(XXX) Pour ma part, je ne suis recrutée à l'Université de l'UGA que depuis septembre 2022. Le projet n'a été soutenu que par des financements très limités (organisation de séminaire, valorisation de notre recherche par des participations à des colloques).</contexte_scientifique><description_precise_des_besoins_identifies>Travaillant de manière tout à fait artisanale , avec les méthodes des démarches ethnographiques et plus spécifiquement de l'ethnographie du virtuel, nous avons travaillé jusque-là sans aide technique et il est difficile de formuler les besoins précis, ne sachant pas ce qui est ou non possible (juridiquement et techniquement). Je serais preneuse, dans un premier temps, d'un accompagnement de conseil technique et juridique, avec des ingénieurs d'études spécialisés dans le moissonage de données sur internet (skyrock, facebook, wattpad et autres réseaux sociaux) pour mesurer ce qui est ou non possible ( enregistrement d'un récit et des commentaires de lectrices qui l'accompagnent, recensement des profils des lectrices pour un récit donné...).</description_precise_des_besoins_identifies><competences_techniques_necessaires>Difficile à formuler à cette étape - voir ci-dessus Le conseil que je sollicite dans un premier temps, demande à l'ingénieur (ou aux ingénieurs) avec lesquels je travaillerais pour cette étape de conseil : Des connaissance de la captation de données discursives, visuelles (et éventuellement autres - localisation etc.) sur les réseaux sociaux un intérêt pour la dimension socialement engagée du projet (pratiques de littératie de jeunes scolarisés dans des filières de relégation, réputés peu littératiés , mais dont les pratiques observables sur internet révèlent un intérêt prononcé pour la communication écrite et une grande créativité dans l'écriture). Ce projet, inscrit en sciences du langage, est fortement interdisciplinaire (études littéraires, anthropologie, ethnographie, sociologie).</competences_techniques_necessaires></row>
<row _id="18"><answer_index>LIDILEM--17</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Notre réflexion porte sur la co-construction des imaginaires au côté de l'enseignant et des apprenants au début de l'apprentissage d'une langue. Nous procédons pour cela à une analyse des pratiques didactiques effectives dans le cadre de cours par visioconférence (pour les étudiants inscrits en DU FLE à distance). Nous aimerions pouvoir traiter ces données de manière plus systématique et explorer des phénomènes récurrents. Pour l'instant, nous nous sommes concentrés sur l'analyse des rapports d'apprentissage rédigés par les étudiants.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc) Diffusion et édition des données</objets_de_la_demande><contexte_scientifique>Nous nous inscrivons dans une démarche ethnographique de compréhension des pratiques enseignantes et apprenantes.</contexte_scientifique><description_precise_des_besoins_identifies>Il serait intéressant de sélectionner des données à transcrire, de les annoter, de pouvoir héberger les vidéos et constituer une base de données</description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétence de transcription, annotation, de stockage de données et de constitution de base de données</competences_techniques_necessaires></row>
<row _id="19"><answer_index>LIDILEM--18</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Il s'agit de mettre à disposition de classes de primaire une version online d'un logiciel de dictées autonomes. Le logiciel fonctionne sur une architecture client-serveur avec une base de données pour stocker le son et les textes, et une interface web pour sélectionner les dictées et les effectuer. Il a été installé sur ma machine avec un serveur local. Je veux bien parfaire mes compétences pour assurer ensuite le suivi de ce logiciel.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Développement logiciel Formation</objets_de_la_demande><contexte_scientifique>Il s'agit de mettre en place un logiciel qui permettra aux enseignants de créer leurs propres dictées selon les besoins des élèves. Nous voulons faire ensuite une évaluation du dispositif didactique sur l'évolution des compétences orthographiques des élèves.</contexte_scientifique><description_precise_des_besoins_identifies>Installation du logiciel sur le serveur, établissement de la liaison avec la base de données, création des profils utilisateurs, suivi des bugs en fonctionnement réel et développements ultérieurs pour les résoudre et pour permettre une exploitation à l'échelle.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Maitrise des accès à une base de données (PostGreSQL ou MySQL) Maitrise de php Maitrise des profils utilisateurs et des accès sécurisés</competences_techniques_necessaires></row>
<row _id="20"><answer_index>LIDILEM--19</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Parce que l’école maternelle est la première étape de la scolarisation, il est nécessaire de comprendre comment les enfants d origines sociales diverses s’y intègrent et s’y adaptent. Dans ce processus, le langage oral joue un rôle central : il est le moyen et le résultat de la socialisation scolaire et la condition essentielle de la réussite de toutes et de tous (BOEN, 26/03/2015). Les enfants s’intègrent et s’adaptent à l école en communiquant. Réciproquement, une socialisation scolaire réussie multiplie les opportunités de communication avec les pairs et les adultes en charge des enfants, favorise les apprentissages et renforce les compétences linguistiques. Il peut donc s’établir un cercle vertueux ou au contraire une spirale d’échec entre sociabilité enfantine, communication orale, apprentissages scolaires. Dans cet enchaînement, les inégalités d’origine sociale sont un facteur central puisque, dès 2 ans, les enfants de tous les milieux ne manifestent pas le même niveau d habileté langagière et n’utilisent pas au même degré les codes linguistiques valorisés dans le cadre de l école. Ces différences précoces, issues de la transmission au sein de la famille, ont suscité de nombreuses recherches qui ont mis en évidence l’influence de la nature et de la quantité de discours adressé à l’enfant dans les différents milieux sociaux. Ces travaux laissent toutefois dans l’ombre l’influence des pairs, susceptible de modifier l’impact de la famille dans la mesure où le groupe de pairs est le lieu d’une certaine mixité sociale, notamment en contexte scolaire. La scolarisation offre donc une nouvelle donne, notamment quand la composition du groupe scolaire est socialement mixte ou au travers du discours produit par les enseignants. [pseudonymisé] vise à observer et caractériser les relations entre socialisation enfantine et apprentissage du langage oral pendant la période de scolarisation en maternelle par une approche multidisciplinaire novatrice combinant travaux sur l’acquisition du langage, sociolinguistique et science des réseaux. Sa mise en œuvre procède par le suivi, pendant 3 ans, de tous les enfants et intervenants pédagogiques d’une école maternelle socialement mixte ( 200). Les interactions sociales entre les individus sont enregistrées grâce à l utilisation de capteurs sans fil qui enregistrent, toutes les 5 secondes, les proximités entre individus. Ils sont portés une semaine par mois pendant 3 ans. Nous suivons le développement langagier enfantin au travers de leurs résultats à des tests généraux de langage et de leurs usages sociaux du langage en situation naturelle d’interactions. Enfin, le profil social des élèves est appréhendé au travers d un questionnaire adressé aux familles.Grâce à la puissance d’analyse (détection de communautés) et de modélisation (modèles multi-agents) des sciences des réseaux, les données sur les interactions sociales seront mises en relation avec les performances linguistiques et les usages sociolinguistiques enfantins. Il s’agira notamment d’examiner l’influence des relations sociales enfantines sur le développement du langage (si des individus restent dans la même communauté de pairs entre deux temps d’observation, est-ce que leur distance linguistique diminue dans la même période ?) et réciproquement, l’influence du langage sur ces relations sociales (si deux individus appartiennent au même groupe linguistique au temps T, est-ce que la probabilité qu ils soient dans la même communauté de pairs augmente à T n ?). Nous nous intéresserons également aux interactions entre les élèves et l’équipe éducative enseignants et autres personnels présents dans l’école afin d’observer si leur fréquence a un impact sur le développement langagier enfantin.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, etc.) Production / collecte de données et/ou de métadonnées (transcription, etc.) Curation des données Enrichissement des données (annotation etc.) Exploitation des données (fouille de texte, intelligence artificielle, etc.) Construction de bases de données Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI, etc.) Formation</objets_de_la_demande><contexte_scientifique>Voir description du projet</contexte_scientifique><description_precise_des_besoins_identifies>Pour permettre le traitement des données transcrites sous ELAN (ELAN (Version 6.4) Computer software . (2022). Nijmegen: Max Planck Institute for Psycholinguistics, The Language Archive. Retrieved from https://archive.mpi.nl/tla/elan ), nous avons lancé la réalisation d une plateforme de traitement des fichiers obtenus. Elle est disponible à l adresse http://dylnetbase.univ- grenoble-alpes.fr/ (uniquement avec le VPN UGA). Ce travail a été réalisé par des stagiaires et des vacataires dans le cadre du projet ARN mais depuis la fin du financement, des modifications ou corrections nous sont apparues nécessaires. Nous aurions donc besoin d un ingénieur sur environ 2 mois afin de reprendre la plateforme, de corriger les bugs et d implanter de nouvelles fonctionnalités.</description_precise_des_besoins_identifies><competences_techniques_necessaires>L application a été codé en python avec un serveur flask (hal-03604589)</competences_techniques_necessaires></row>
<row _id="21"><answer_index>LIDILEM--20</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Je travaille sur l'analyse de corrélation éventuelle entre les résultats obtenus par les étudiants se faisant certifier par écrit et ceux qu'ils obtiennent lorsqu'on les évalue sur une production écrite. L'enjeu est de voir à quel point l'outil écrit permet ou non d'évaluer la compétence rédactionnelle de ses usagers ; une fois le diagnostic du niveau de la personne posée, la plateforme écrit propose des exercices pour s'entrainer sur ses difficultés et des liens vers des modules d'enseignement. L'outil peut aussi permettre aux enseignants d'évaluer leurs étudiants dans le cadre de leurs cours. Il serait bien que le corpus annoté que je vais produire soit à terme accessible aux didacticiens, pédagogues et chercheurs de façon à ce que l'on puisse voir les points sur lesquels les difficultés rédactionnelles des étudiants sont les plus fréquentes et nombreuses.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Curation des données Enrichissement des données (annotations, etc) Formation</objets_de_la_demande><contexte_scientifique>Étude qui s'insère plus globalement dans le projet [pseudonymisé] ([pseudonymisé]), qui a pour vocation de former, évaluer et certifier les étudiants sur leur français écrit. La démarche de la thèse s'inscrit, elle, dans la perspective des littéracies universitaires, donc dans une perspective de linguistique intégrée, impliquée et située.</contexte_scientifique><description_precise_des_besoins_identifies>Nous aurons besoin, pour cette étude, de vérifier l'accord inter-annotateurs pour tester le guide d'annotation et la grille critériée ; pour cela, il nous faudrait des évaluateurs supplémentaires, car le corpus pourra aller jusqu'à 500 participants (dont 500 textes à lire et annoter).</description_precise_des_besoins_identifies><competences_techniques_necessaires>Il faut quelqu'un qui ait un profil linguistique, ou lettre modernes, pour que les catégories de problèmes à repérer dans les textes puissent lui parler.</competences_techniques_necessaires></row>
<row _id="22"><answer_index>LIDILEM--21</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Le projet [pseudonymisé] ( [pseudonymisé] ) fait partie d'un projet de recherche international impliquant des équipes implantées dans une vingtaine de pays. A partir d'un protocole expérimental commun de collecte de données orales d'apprenants de français langue étrangère et seconde, il s'agit de décrire et d'analyser les caractéristiques phonétiques, phonologiques et prosodiques dans les différents stades d'appropriation du français, et en tenant compte de la variabilité intra-dialectale. A ce stade, les lieux de collecte sont les suivants : Grenoble (locuteurs syriens), Clermont Ferrand (locuteurs saoudiens), Hébron (Palestine), Oujda (Maroc), Tunis (Tunisie) et Jeddah (Arabie Saoudite). Ce projet a une double visée linguistique et didactique. Le corpus a principalement besoin d'être organisé / structuré, rassemblé (lieu unique de stockage), nettoyé , transcrit et annoté d'une manière homogène.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle)</objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Traitement préliminaire des données sonores (nettoyage de bruits éventuels, contrôle de la qualité sonore en vue d'analyses acoustiques futures) Transcription et annotation (logiciel Praat) Hébergement numérique des données</description_precise_des_besoins_identifies><competences_techniques_necessaires>Utilisation de logiciel de traitement du son (type Audacity, Praat)</competences_techniques_necessaires></row>
<row _id="23"><answer_index>LIDILEM--22</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Le projet vise à mettre en ligne une base de constructions des expressions de l'oral, qui intégrera de nombreux paramètres linguistiques. La base de données construite comportera des exemples de corpus et d'emplois interactionnels variés. Nous visons une utilisation double : Auprès d'experts Auprès du grand public</presentation_du_projet><objets_de_la_demande>Construction de bases de données Développement logiciel Outils de visualisation</objets_de_la_demande><contexte_scientifique>Autour du projet [pseudonymisé], mais au-delà pour pérenniser les données. Ce projet est de façon plus vaste l'objet d'une action de recherche du LIDILEM Phraséologie et Pragmatique Nous prévoyons l'hébergement dans Humanum.</contexte_scientifique><description_precise_des_besoins_identifies>Les besoins identifiés sont la construction d'une base de données relationnelle interrogeable et alimentable en ligne par plusieurs équipes.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences en bases de données Compétences pour construire les interfaces graphiques</competences_techniques_necessaires></row>
<row _id="24"><answer_index>LIDILEM--23</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDLEM</equipe_de_recherche><presentation_du_projet>L’objectif majeur du projet [pseudonymisé] est d’élaborer à partir des pratiques pédagogiques déclarées d’enseignants du 1ier degré de l’Académie de Grenoble, des ressources pédagogiques et didactiques basées sur le jeu et le numérique, afin que se développent dans ces contextes enseignants, des pratiques favorables à l’observation réfléchie et comparée des langues à l école. Cet objectif principal se décline en plusieurs objectifs spécifiques : Élaboration des matériaux linguistiques sonores et visuels variés afin d amener les élèves à développer des habiletés d analyse et d’observation réfléchie du fonctionnement des langues (capacités métalinguistiques) en lien avec l apprentissage de la langue de scolarisation ; Faciliter l élaboration, la mise en œuvre de ces matériaux linguistiques par les enseignants et l apprentissage chez les élèves en prenant appui sur le jeu et le numérique. Nous avons élaboré une escape game pédagogique sur la comparaison des langues. Pour un descriptif détaillé : [pseudonymisé]</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Curation des données Exploitation des données (fouille de texte, intelligence artificielle) Construction de bases de données Diffusion et édition des données Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique>Dans l'action 3 de [pseudonymisé]</contexte_scientifique><description_precise_des_besoins_identifies>Les données obtenues sur ce projet seront de plusieurs types : 1 code et des données vidéos pour la constitution du jeu sérieux ; Des vidéos de mise en place des séquences dans les classes Des retours d enseignants et d élèves. L équipe de recherche aura donc besoin d aide pour décrire au mieux les différentes données, pour établir des métadonnées cohérentes sur l ensemble du corpus, maisaussi des besoins quant au stockage des données et à la visualisation possibles des résultats à la fin du projet</description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences sur les données oraux et multimodaux, sur les métadonnées et sur la valorisation des résultats vers des publics divers</competences_techniques_necessaires></row>
<row _id="25"><answer_index>LIDILEM--24</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Le corpus [pseudonymisé] récolté jusqu'à présent contient essentiellement des articles rédigés en français et traduits en anglais. Pour mener une étude contrastives (notamment dans l'étude de la phraséologie scientifique), il conviendrait d'avoir un corpus parallèle bi-directionnel, c'est-à-dire contenant le même volume de données dans les deux sens de traduction FR- EN et EN- FR. La collecte de nouveaux articles traduits de l'anglais vers le français (pour environ 3M de mots) permettrait d'arriver à un corpus équilibré unique en son genre et très utile pour de futures études en traductologie, linguistique contrastive et didactique.</presentation_du_projet><objets_de_la_demande>Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique>Un projet PHC Parrot avec l'université de Tartü (Estonie) est en cours (2023-2025) autour de l'exploitation de ce type de corpus pour l'étude contrastive de la phraséologie scientifique (mais ce projet ne permet de financer que des missions).</contexte_scientifique><description_precise_des_besoins_identifies>Essentiellement, l'identification et le scrapping des articles traduits dans la direction EN- FR à travers les portails de publication scientifique tels que OpenEdition.org, Cairn, Persée,... Des chaines de traitement sont déjà en place pour l'alignement et l'annotation de ces données.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Maîtrise du scrapping à travers Python et Selenium.</competences_techniques_necessaires></row>
<row _id="26"><answer_index>LIDILEM--25</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM et LIG</equipe_de_recherche><presentation_du_projet>Notre démarche vise à favoriser le développement du langage en maternelle. Elle s’articule autour de trois enjeux majeurs pour permettre la prise de parole des enfants : la sécurité linguistique des élèves, l’effacement progressif de la parole de l enseignant.e et la prise en compte de la multimodalité. En effet, se sentir à l aise pour prendre la parole et être encouragé à prendre sa place dans un récit, quel que soit son niveau de français, permet d’amener l’élève à produire des énoncés complets et longs dans le cadre d une narration collective. Les ateliers langage en maternelle proposent souvent une entrée par la compréhension d’albums et font la part belle au lexique. Il n existe actuellement pas de supports orientés prioritairement sur l accompagnement du développement syntaxique de l enfant comme pivot d une progression conçue à partir des étapes du développement langagier. Pourtant, l importance du développement de la syntaxe est connue, et désormais reconnue par les sources institutionnelles. Le projet [pseudonymisé] propose des supports conçus selon une progression en termes de difficultés morphosyntaxiques. Cette dimension est croisée avec une approche par actes de langage : dire/raconter, ordonner/souhaiter, demander/interroger, et prend soin à chaque étape de proposer des manipulations morphologiques riches, notamment entre les tournures affirmatives et négatives, travaillées avec les albums mais aussi lors d ateliers de jeux et de mises en situation. Enfin, la langue proposée dans les albums évolue, entre la petite et la grande section, du français parlé ordinaire, dans une perspective d’oral de communication, vers une langue plus écrite, avec un objectif de familiarisation avec un français plus normé, plus caractéristique de la narration littéraire. Cette progression permet aux enfants d’élargir leur répertoire communicatif, avec une palette stylistique allant de la communication ordinaire à la langue du dimanche, via un oral plus scriptural, avec lequel il est nécessaire de se familiariser en amont du cours préparatoire. Le projet [pseudonymisé], en lien avec les actions 3 et 4 de [pseudonymisé], a permis de co-construire un ensemble de ressources adaptées aux élèves de maternelle, en collaboration avec des enseignantes et conseillères pédagogiques de l'Isère, ressources qui seront expérimentées dans une douzaine de classes en 2022-2023 dans le cadre du présent appel à projet. Les ateliers langage au sein desquels le matériel sera testé et le dispositif évalué feront l objet d un protocole expérimental avec enregistrements vidéos, transcriptions, et analyses. Ces données de recherche pourront ensuite être exploitées et réinjectées dans les supports de formation. L’articulation et les échanges entre le terrain scolaire et la recherche constituent le fil rouge de notre démarche, avec le souci constant de s adapter aux réalités du quotidien des enseignant.e.s. </presentation_du_projet><objets_de_la_demande>Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique>Voir description du projet</contexte_scientifique><description_precise_des_besoins_identifies>Les données recueillies dans le cadre du projet [pseudonymisé] sont de plusieurs types : vidéo d atelier en classe, vidéos de narration individuelle des enfants, grilles de positionnement des enfants, grilles d analyse de production syntaxique, information sur le matériel utilisé, l age des enfants aux différentes étapes, etc. Nous transcrivons nos vidéos à l aide du logiciel ELAN (ELAN (Version 6.4) Computer software . (2022). Nijmegen: Max Planck Institute for Psycholinguistics, The Language Archive. Retrieved from https://archive.mpi.nl/tla/elan ). Nos besoins seront sur la générations de métadonnées cohérentes pour l ensemble du corpus ainsi que sur les outils possibles de visualisation et de diffusion de nos résultats vers différents publics. En effet, le matériel développé dans le cadre du projet (albums de littérature jeunesse, grille de positionnement, grille d analyse des productions syntaxiques, jeux, guide pédagogiques, etc.) seront disponibles via UGA Editions et nous aurons besoin d aide pour avoir des présentation de nos résultats à destinations de non chercheurs.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Connaissance des métadonnées de corpus oraux et multimodaux Connaissance en RGPD pour vérifier que nous sommes dans les clous Compétence en valorisation et diffusion des données scientifiques à des publics divers</competences_techniques_necessaires></row>
<row _id="27"><answer_index>LIDILEM--26</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Ce corpus a montré qu'il pouvait être à la fois un objet qui permet une meilleure connaissance de la pratique de la philosophie avec les enfants et les adolescents, et un ensemble de données intéressant les disciplines de recherche ayant à voir avec le raisonnement, l’argumentation, le langage, la pensée, le développement, le corps, les émotions, etc. Une partie de ce corpus a fait l'objet d'un colloque, en 2019, débouchant sur une publication inter- et pluri-disciplinaire à paraitre en avril 2023 à l'UGA Éditions. C'est pour cette raison que nous souhaitons mettre ce corpus à la disposition des chercheurs à travers un dépôt sur Ortolang.</presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc) Diffusion et édition des données Accompagnement juridique (RGPD, PI)</objets_de_la_demande><contexte_scientifique>Dans le cadre du projet [pseudonymisé], Lidilem</contexte_scientifique><description_precise_des_besoins_identifies>Accompagnement juridique Aide à la sélection des données Accompagnement sur les éléments de transcription à conserver Établissement de métadonnées Appui à l'établissement des fichiers ELAN diffusables</description_precise_des_besoins_identifies><competences_techniques_necessaires>Compétences juridiques Connaissance du logiciel ELAN familiarité avec les problématiques de l'analyse de données langagières en Sciences du langage</competences_techniques_necessaires></row>
<row _id="28"><answer_index>LIDILEM--27</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Notre objectif est de comprendre le rôle que la phraséologie joue dans la structuration des genres textuels en utilisant les méthodes de la linguistique de corpus outillée. Notre projet, qui s inscrit dans une approche diachronique originale, étudie les phénomènes phraséologiques dans le temps long, en intégrant une dimension sociétale et culturelle à l analyse afin de contribuer à une théorie opératoire des genres textuels. Pour atteindre cet objectif, nous créons de vastes corpus textuels inédits et utilisons les méthodes de la linguistique outillée. Sur le plan scientifique, la réalisation de cette étape permet de proposer, en plus de corpus textuels inédits librement interrogeables en ligne, une première modélisation de l évolution phraséologique de la langue pour affiner l’’état des connaissances sur la structuration d un genre textuel spécifique. L’explosion numérique de l’écrit a entrainé la création de nombreuses banques de données textuelles et pose actuellement la question de savoir comment les classer. La catégorie de genre est traditionnellement utilisée pour regrouper des textes en réduisant leur variabilité. Dans ce contexte, la demande sociale d’une théorie opératoire des genres est croissante , comme le souligne Rastier (2011 : 72) . L’étude linguistique des unités phraséologiques est l’une des clés qui permet de répondre à cette demande. </presentation_du_projet><objets_de_la_demande>Enrichissement des données (annotations, etc)</objets_de_la_demande><contexte_scientifique>Devenue un objet de recherches central en linguistique, la phraséologie a vu son champ s étendre : les contraintes motivant l usage des unités préconstruites de la langue ne se situent pas seulement au niveau de la phrase mais aussi du discours. Les travaux développés dans cette nouvelle direction sur le site grenoblois par le laboratoire LiDiLEM ont commencé à fédérer des dynamiques de recherche aux niveaux national (U. Paris 3-LaTTiCe ; U. Montpellier 3-Praxiling) et international (U. Liège, Belgique ; U. Erlangen, Allemagne ; U. Osnabrück, Allemagne ; U. Lausanne, Suisse), notamment dans le cadre du projet ANR DFG PhraseoRom. Notre projet consolide cette première dynamique prometteuse en l orientant dans une dimension diachronique et intègre de nouveaux acteurs au sein d une collaboration transdisciplinaire entre linguistique, stylistique et TAL. L'équipe implique deux laboratoires du site (Lidilem et Litt&amp;Arts, 5 enseignants-chercheurs et 4 doctorants) et un laboratoire extérieur (ATILF, U. Lorraine). </contexte_scientifique><description_precise_des_besoins_identifies>Le corpus est actuellement sous format numérique mais n'est que partiellement enrichi vu la complexité des états de langue à traiter (ancien française, moyen français, français préclassique) et le peu d'outils performants pour ce faire actuellement disponibles. Nos besoins sont donc essentiellement centrés sur la finalisation de la chaine de traitement pour permettre une annotation en dépendances syntaxiques la plus fiable possible.</description_precise_des_besoins_identifies><competences_techniques_necessaires>L'ingénieur aura si possible une formation en TAL (connaissances des outils d'annotations morphologiques POS et en dépendances syntaxiques, système UD).</competences_techniques_necessaires></row>
<row _id="29"><answer_index>LIDILEM--28</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>La plateforme [pseudonymisé] présente des données lexicales ayant trait à l'écrit scientifique en [pseudonymisé]. Elle permet de visualiser des lexies, des collocations ainsi que leurs propriétés linguistiques (glose, co-hyponymes, propriétés syntaxiques, etc). Le [pseudonymisé], conçu dans le cadre du projet TermITH ANR-12-CORD-0029, a notamment pour but d'être utilisé dans le cadre de l'aide à la rédaction universitaire. Des nouvelles informations lexicales sont en train de et vont être ajoutées au [pseudonymisé] et nécessitent donc du développement logiciel pour l'import de ces données. Nous projetons également un travail sur l'export de ces données, dans un format qui permette leur réutilisation. Nous prévoyons enfin l'intégration sur la plateforme de séquences didactiques tirant parti des données lexicales.</presentation_du_projet><objets_de_la_demande>Enrichissement des données (annotations, etc) Développement logiciel Outils de visualisation Diffusion et édition des données</objets_de_la_demande><contexte_scientifique>Le [pseudonymisé], conçu dans le cadre du projet TermITH ANR-12-CORD-0029, est un ensemble de mots simples et de séquences polylexicales spécifiques au genre de l'écrit scientifique en [pseudonymisé]. Il a été constitué dans le contexte d'extraction terminologique sur des articles en tant que liste d'exclusion de candidats-termes.</contexte_scientifique><description_precise_des_besoins_identifies>1/ Des nouvelles informations lexicales vont être ajoutées au [pseudonymisé] et nécessitent donc du développement logiciel pour l'import de ces données et leur affichage sur la plateforme. 2/ Nous projetons également un travail sur l'export de ces données, dans un format qui permette leur réutilisation. 3/ La plateforme ayant un objectif d'utilisation par des apprentis scripteurs, une expérimentation va être faite avec des étudiants de Français sur Objectif Universitaire. Nous prévoyons donc un travail de développement prenant en compte les retours qui seront faits sur l'utilisabilité et l'ergonomie de la plateforme.Nous prévoyons enfin l'intégration sur la plateforme de séquences didactiques tirant parti des données lexicales.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Connaissances en PHP, JS, HTML &amp; CSS (possiblement de Symfony)</competences_techniques_necessaires></row>
<row _id="30"><answer_index>LIDILEM--29</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>La thèse porte sur la langue de spécialité des écrits académiques, nous nous intéressons, en particulier, aux collocations transdisciplinaires (émettre une hypothèse, analyse statistique, etc.) relevées dans les productions écrites en français par des mastérisants natifs et non natifs qui sont rarement étudiées dans la langue française. Nous souhaitons, par l'observation et l'analyse des collocations retenues, identifier plus finement les difficultés rencontrées par les étudiants natifs et non natifs et déterminer s'ils partagent les mêmes types de difficultés dans l'usage des collocations transdisciplinaires dans leurs productions. À quel niveau leurs réponses sont-elles inappropriées : niveau sémantique, syntaxique ou/et discursif ? À cette fin, nous avons élaboré une grille d'analyse des erreurs collocationnelles .</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Enrichissement des données (annotations, etc) Construction de bases de données</objets_de_la_demande><contexte_scientifique>Projet de thèse</contexte_scientifique><description_precise_des_besoins_identifies>Gestion des métadonnées</description_precise_des_besoins_identifies><competences_techniques_necessaires>Statistiques</competences_techniques_necessaires></row>
<row _id="31"><answer_index>LIDILEM--30</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Ce projet vise à une meilleure compréhension des stratégies pédagogiques mises en place par les enseignants de français langue étrangère à travers la dimension vocale et prosodique de leur discours pédagogique. Il s'agit d'approfondir la dimension polyphonique de la voix de l'enseignant notamment par rapport à la voix projetée , de mieux caractériser les fonctions des différentes faits prosodiques dans l'action enseignante, notamment dans une visée formative (intégrer les résultats de la recherche dans les formations initiales et continues des enseignants et futurs enseignants).</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) Curation des données Enrichissement des données (annotations, etc) Exploitation des données (fouille de texte, intelligence artificielle)</objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Nettoyage du corpus audio, transcription, annotation, hébergement numérique.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Maîtrise de logiciel de traitement du son (type audacity, praat)</competences_techniques_necessaires></row>
<row _id="32"><answer_index>LIDILEM--31</answer_index><lab>LIDILEM</lab><equipe_de_recherche>LIDILEM</equipe_de_recherche><presentation_du_projet>Il faudrait nettoyer le corpus, harmoniser les méta données et la présentation générale.</presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.)</objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Différents corpus d entretiens sociolinguistiques ont été récoltés et la demande serait de les nettoyer et de les harmoniser au niveau des méta-données afin de pouvoir les mettre à disposition de la communauté scientifique</description_precise_des_besoins_identifies><competences_techniques_necessaires>Connaissance des méta-données en sociolinguistique Aide à la visualisation des données</competences_techniques_necessaires></row>
<row _id="33"><answer_index>LittArt--32</answer_index><lab>LittArt</lab><equipe_de_recherche>Litt&amp;Arts </equipe_de_recherche><presentation_du_projet>Le programme [pseudonymisé] entend rendre visible un type de discours consacré aux films : l analyse esthétique des films. Il se consacre actuellement aux années 1980. Dépouillant systématiquement tout ouvrage et toute revue de cinéma de langue française parus pendant cet te période, les participants au projet constituent un corpus inédit et procèdent à l analyse des discours afin de cerner les définitions plurielles de l analyse esthétique du film. Ce corpus est recueilli dans une base de données qui a été créée à l occasion de ce programme : [pseudonymisé] est un outil participatif et inédit conçu en collaboration avec l équipe d ingénierie informatique XXX. La base permet de divulguer un corpus susceptible d intéresser un public de chercheurs, de pédagogues et d étudiants en donnant accès à une bibliographie raisonnée et organisée d’analyses de films. Les textes, directement accessibles, sont indexés sur un référencement inédit, par motifs, procédés techniques ) . </presentation_du_projet><objets_de_la_demande>Les textes d analyse de films, une fois qu ils ont été repérés, passent par un ensemble de traitements qui est actuellement très long (scan, océrisation, mise en page, corrections , indexation fine ). L enjeu serait de raccourcir ce temps en réfléchissant à une forme d automatisati on de certaines des étapes . C est cette ré[pseudonymisé]xion, et sa mise en œuvre, qui est l objet de cette demande. Elle se concentre sur : - La transformation de données et/ou de métadonnées (par ex, transcription, etc.) - La chaîne de numérisation OCR </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>'- Réflexion et mise en œuvre d une chaîne d océrisation et de transcription de documents PDF dans le but d obtenir un texte structuré consultable sur la base [pseudonymisé] et répondant aux normes de présentation choisies . Environ 2500 textes seront à terme à traiter (étalement sur plusieurs années). D où la nécessité, afin d atteindre les ob jectifs de traitement, d obtenir des solutions pour accélérer le temps de traitement actuel. - Etre en capacité de nous fournir les solutions de traitement, une mise à disposition d un outil </description_precise_des_besoins_identifies><competences_techniques_necessaires>OCR, langage de script (python ) </competences_techniques_necessaires></row>
<row _id="34"><answer_index>LittArt--33</answer_index><lab>LittArt</lab><equipe_de_recherche>UMR 5316 Litt&amp;Arts</equipe_de_recherche><presentation_du_projet>L’objectif du projet [pseudonymisé] ([pseudonymisé]) est d étudier, à travers les manuscrits de l écrivain Victor Hugo, la façon dont la représentation spatiale et cartographique engendre l univers littéraire et structure l imagination romanesque. Actuellement, un prototype du projet propose une édition numérique du roman Les Travailleurs de la mer , publié en 1866, annotée sous l angle géographique, cartographique et visuel. Il mobilise également un corpus de brouillons et de dessins ayant conduit, à partir du premier carnet de prise de notes en 1859, à la création du roman d aventures maritimes Les Travailleurs de la mer en 1866. À terme, le projet pourra décliner d autres corpus hugoliens (autres romans de Hugo mobilisant des données cartographiques, comme Les Misérables par exemple ; carnets de travail ; carnets de voyage). Le site [pseudonymisé] vise à appréhender les mécanismes d écriture dans un contexte de création fortement marqué par l’hybridité des matériaux génétiques (texte, croquis, dessins, plans, etc.) et la diversité des supports (carnets, feuilles volantes, manuscrit relié, grandes feuilles de dessin, cartes, etc.) que seul un projet en Humanités numériques permet de prendre en compte dans sa diversité. L interface présente deux entrées qui offrent des explorations différentes. Une entrée via le texte littéraire , où sont balisées les références et qui permet de visualiser les données cartographiques ainsi que des données génétiques liées à l espace : croquis, dessins, notes. Une seconde entrée est proposée via les cartes, les manuscrits de Victor Hugo et les données iconographiques . Les documents sont traités de manière à isoler des zones cliquables qui correspondent aux références topographiques dans le texte et qui permettent ainsi de voir pour un passage du texte donné les recherches effectuées par l écrivain. L objectif est d apprécier les liens entre espace géographique et texte littéraire sans rapporter strictement l un à l autre mais pour mesurer au contraire le travail créatif de l écrivain à l œuvre dans l espace génétique des manuscrits. Il s agit également de mettre au point une méthode d approche qui combine cartographie, génétique textuelle, analyse littéraire et humanités numériques . Le projet permet déjà ou doit permettre à terme de : 1 produire une édition numérique annotée de certains textes de Victor Hugo. Une édition numérique de l édition originale des Travailleurs de la mer (Paris, Lacroix et Verboeckoven, 11866) est d ores et déjà proposée. 2 d identifier et de repérer des lieux et toponymes utilisés par Hugo ; de les visualiser sur des cartes du XIXe siècle ; de les mettre en relation avec des données génétiques liées à l espace : croquis, dessins, notes de l écrivain ; de qualifier leur degré de réalité ou de fictionnalité. 3 produire des données statistiques liées à la topographie des lieux littéraires (fréquence des occurrences, répartition des lieux dans l ensemble du roman, association entre lieux et personnages) à partir du texte balisé TEI et des documents image. 4 visualiser ces résultats statistiques sous forme d histogrammes, de cartes schématiques, de graphes. Les outils de cette visualisation sont précisément à construire.</presentation_du_projet><objets_de_la_demande>Outils de visualisation</objets_de_la_demande><contexte_scientifique>On assiste depuis une vingtaine d années à l extension du Spatial Turn sur le terrain des études littéraires (par ex. Collot 2014). Plus précisément encore se manifeste une attention renouvelée pour les possibilités romanesques et littéraires offertes par la cartographie (par ex. Lestringant 2002, Ost 2018) ainsi que pour les interactions entre opérations intellectuelles, pratiques artistiques et cartographie (Besse et al. 2017, Tiberghien 2007). Par ailleurs, des recherches actuelles sur les liens entre cartographie et littérature sont en train de se fédérer. On peut citer le colloque Récits avec cartes (ENS Lyon 2023) auquel la porteuse de projet a participé ou bien encore Cartes invisibles (Université Saint-Louis Bruxelles, 2023). Le projet [pseudonymisé] inscrit dans ce courant de réflexion et ce contexte scientifique. Plus largement, il reflète un parti pris méthodologique qui consiste à penser la littérature en lien avec les données matérielles à partir desquelles elle est susceptible de s élaborer (Caraion 2020 et le projet FNS Littérature et culture matérielle , UNIL, Lausanne auquel participe la porteuse du projet [pseudonymisé]). Dans le domaine des Humanités numériques , depuis les travaux pionniers de Franco Moretti qui utilisait les données géographiques et cartographiques en distant reading, on peut citer des projets qui ont entrepris de géolocaliser des données littéraires, comme Renom (https://renom.univ-tours.fr/ ) projet permettant de cartographier les lieux des œuvres de Rabelais et de Ronsard, comme ; des données artistiques (l ancien projet Geocompart.fr) ou des données documentaires comme Gallicarte. S agissant des études hugoliennes , des travaux anciens (1960-1970) ont permis d importantes avancées dans la transcription des carnets de travail de Victor Hugo (Barrère 1965 ; Gohin 1975, Journet et Robert 1979). Cependant, la publication papier de ces transcriptions partielles ne permet pas la circulation entre les divers matériaux génétiques qu offre une édition numérique. Ces dernières années, des projets en Humanités numériques consacrés à Victor Hugo ont vu le jour : éditions critiques et génétiques de plusieurs œuvres par Guy Rosa ( Les Misérables ; William Shakespeare ; Histoire d un crime ; L Homme qui rit http://groupugo.div.jussieu.fr/Default_Oeuvres.htm ) ; édition de la correspondance de Juliette Drouet ( http://www.juliettedrouet.org ), Florence Naugrette dir. Mais aucun de ces projets, centrés sur le texte, n a entrepris de le mettre en relation avec les autres aspects (graphiques et cartographiques) de la production hugolienne ce qui est au cœur du projet [pseudonymisé]. 2Ce projet s appuie également sur les campagnes de numérisation des carnets et manuscrits de Victor Hugo par la BnF, mis à disposition sur Gallica. La porteuse du projet est en contact avec le conservateur du département des manuscrits responsable du fonds Hugo, Thomas Cazentre. Références citées Michel Collot, Pour une géographie littéraire , Éditions Corti, Paris, 2014. Frank Lestringant, Le Livre des îles. Atlas et récits insulaires, de la Genèse à Jules Verne , Genève, Droz, 2002 Marta Caraion, Comment la littérature pense les objets . Théorie littéraire de la culture matérielle , Champvallon, coll. Détours, 2020. Jean-Marc Besse et Gilles A. Tiberghien dir., Opérations cartographiques , Arles, Actes Sud, 2017. Gilles Tiberghien, Finis Terrae. Imaginaires et imaginations cartographiques , Paris, Bayard, Le Rayon des cu- riosités , 2007. Isabelle Ost dir., Cartographier. Regards croisés sur les pratiques littéraires et philosophiques contemporaines , Bruxelles, Presses de l Université Saint-Louis, 2018 Bertrand Barrère, Un printemps dans l île de Serk , Victor Hugo à l œuvre, Paris, Klincksieck, 1965. Victor Hugo, Les Travailleurs de la mer , éd. Y. Gohin, Paris, Gallimard, Pléiade, 1975 Victor Hugo, Œuvres complètes, édition chronologique publiée sous la direction de Jean Massin, Club français du livre, 1967-1970. René Journet et Guy Robert, Contributions aux études sur V. Hugo , Annales littéraires de l université de Besan - çon, 1979. </contexte_scientifique><description_precise_des_besoins_identifies>Génération automatisée de visualisations à partir de sources annotées en XML/TEI : - Visualisation de statistiques (répartition, fréquence, croisement d informations liées aux lieux, aux personnages, et leur position dans la source textuelle) pour un affichage web principalement. - Visualisation géographique . Visualisation des données (points d intérêt, parcours de personnages) sur des cartes fictives type croquis, sur des cartes d époque et des cartes actuelles.</description_precise_des_besoins_identifies><competences_techniques_necessaires>XSLT / XML HTML / CSS / JavaScript d3.js / Canvas / SVG SIG</competences_techniques_necessaires></row>
<row _id="35"><answer_index>LittArt--34</answer_index><lab>LittArt</lab><equipe_de_recherche>UMR Litt&amp;Arts (UGA)  Le projet est partenaire de projets internationaux en histoire des spectacles :
• Projet Médialittérature (UNIL)
• Projet RCF (Registres de la Comédie-Française, Sorbonne Université, Université
Paris Nanterre, MIT, Comédie-Française, et al.)
• Projet RECITAL (Registres de la Comédie-Italienne, Université de Nantes)
• Consortium Musica2 (TGIR Huma-Num)
• AGPRD (Oxford University)</equipe_de_recherche><presentation_du_projet>Créée à Oxford Brookes University en 2001, la base [pseudonymisé] ([pseudonymisé]) recense
les textes dramatiques, leurs différentes éditions et représentations, les lieux et les
personnalités du monde du spectacle. Riche de 166915 entrées, elle est complétée par
une collection de 3543 images indexées et enrichies de métadonnées. Suite au départ
d’Oxford Brookes des fondateurs de la base, l’UGA a désormais pour mission de la
maintenir et de la valoriser.
Quatre projets sont actuellement en cours :
• la refonte complète de la base (modèle et données) et de son interface web
(fonctionnalités de visualisation et d’enrichissement collaboratif des données)
• l’élargissement du corpus grâce à l’import des données du projet Prethero
(Premiers théâtres romands)
• la conversion des données en RDF et leur mise à disposition via un point d’entrée
SPARQL
• l’alignement des données avec d’autres bases de connaissance
Avec ces deux derniers axes, [pseudonymisé] a donc pour objectif de contribuer à la mise en
relation, dans le cadre du web sémantique, des données relatives à l’histoire du théâtre.</presentation_du_projet><objets_de_la_demande>Curation des données, Enrichissement des données, Construction de bases de données</objets_de_la_demande><contexte_scientifique>La refonte de la base [pseudonymisé] et de son interface est actuellement en cours de finalisation
grâce au travail mené en interne par l’équipe XXX de l’UMR Litt&amp;Arts (version de
développement sur [pseudonymisé]). Dans le même temps, le projet IRS
Dramabase a permis de créer la première version d’une ontologie et de convertir les
données de la base en RDF (ontologie et mappings Ontop accessibles sur
[pseudonymisé]).
De nombreuses bases de données en histoire du théâtre existent, mais leurs données
sont encore peu interopérables, alors même qu’elles se recoupent. L’objectif de [pseudonymisé]
est de participer à l’interopérabilité des données relatives à l’histoire du théâtre en
s’alignant (de concert avec les autres bases spécialisées) sur des référentiels communs.
Le récent colloque organisé par le projet Registres de la Comédie-Française (« Des
archives aux données ») aussi bien que la création du consortium Musica2 (dont [pseudonymisé]
est partenaire pour les spectacles musicaux qu’il recense – ballets, opéras) témoignent
d’une volonté très forte de rendre nos données interopérables en alignant à la fois nos
modèles, nos vocabulaires et nos entités.</contexte_scientifique><description_precise_des_besoins_identifies>Il s’agira donc, pour [pseudonymisé],
• d’enrichir son modèle de données en vue d’un alignement avec d’autres bases
concernant l’histoire des spectacles (notamment les Registres de la Comédie-
Française et les Registres de la Comédie-Italienne), voire de l’élaboration d’un
modèle commun
• d’optimiser la publication des données via notre point d’entrée SPARQL
• d’aligner ses données avec les référentiels généralistes (Wikidata, Geonames,
DataBNF)
• d’enrichir le cas échéant les référentiels généralistes avec les entités qui n’y
seraient pas encore présentes afin que les autres projets similaires puissent
également y renvoyer
</description_precise_des_besoins_identifies><competences_techniques_necessaires>Pour cela, [pseudonymisé] aura besoin de faire appel à un ingénieur spécialisé en web sémantique, possédant les compétences suivantes : • maîtrise des langages, des standards et des outils du web sémantique (RDF, SPARQL, Ontop…) • maîtrise des outils d’alignement et de reconciliation des données (notamment OpenRefine) et d’un langage de programmation permettant d’automatiser au maximum le travail d’alignement</competences_techniques_necessaires></row>
<row _id="36"><answer_index>LittArt--35</answer_index><lab>LittArt</lab><equipe_de_recherche>UMr littARts et collaboration éventuelle du LIG</equipe_de_recherche><presentation_du_projet>Le projet consiste en l exploitation informatique d un corpus d une vingtaine d’ouvrages partiellement illustrés datant de la fin du XVe siècle au début du XVIIe siècles. Ce corpus non totalement OCRisé, disponible soit en ligne (BNF, Bib de Munich-en format multiples, gbooks) soit non numérisé dans les fonds de la bibliothèque municipale de Grenoble et le fonds Ferguson (Glasgow) comporte des ouvrages écrits en allemand, anglais, français et italien ou latin, proposant des recettes pour fabriquer de fausses pierres précieuses. Relevant de champs de savoir différents (orfèvrerie, chimie, minéralogie, médecine ), de format de recettes hétérogènes (liste, allégorie, description d expériences, étude d un ingrédient) ils offrent une variété lexicale, une diversité d instruments, d ingrédients et des usages de l artisanat ou des savoirs pseudo-scientifiques qu on voudrait répertorier, croiser ensemble, comparer avec les traités de couleurs destinés aux peintres. En plus des mécanismes de transfert de savoirs entre pratiques artisanales, scientifiques et artistiques, il s agit d appréhender la fonction, perception et usage d un objet précieux dans un contexte culturel donné. La création et l utilisation d une base de données capable d indexer et d interroger ce corpus, permettra d explorer la variété du lexique de la couleur, des ingrédients (avec leur provenance), des gestes, des objets, voire de modéliser la nature d une recette artisanale de couleur d un savoir à l autre, d une culture à l autre. Plusieurs cartographies pourraient ainsi être rendues possibles par la base de données (cartographie des savoirs, des mots de la couleur artisanale, des ingrédients récurrents, des objets précieux ) Ce travail n a pas été fait sur le domaine français. Quand il a été abordé, sous la forme de bases de données, il a soit été limité à la période du Moyen-Âge, soit sur un corpus de langue allemande (http://db.cics.th-koeln.de/start.fau?&amp;), soit il a été étudié dans le cadre d articles limités sur des zones géographiques et temporelles, et sans l usage d une base de données ou d un traitement informatique. </presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, ...) : oui, stockage des textes numérisés ou à numériser et des données (provenance, champs de savoirs..) Production/collecte de données et/ou de métadonnées (par ex, transcription, etc.) : oui, transcription et collecte des données propres à chaque recette/livre/image contenu dans le corpus défini, importation des données des bibliothèques hébergeant la version numérique ou imprimée Enrichissement des données (annotations, etc) : oui, ajout des champs disciplinaires concernés, hyperlien vers d autres bases de données sur des corpus similaire (fonds allemand de Köln, http://db.cics.th-koeln.de/start.fau?&amp;) Exploitation des données (fouille de texte, intelligence artificielle) : cet aspect reste souhaitable une fois la recette identifiée et ses ingrédients pour la rechercher dans d autres corpus Construction de bases de données : oui</objets_de_la_demande><contexte_scientifique>Outre l exploration d une forme de transfert de savoir particulière, le développement d une base de connaissances servira à valoriser et promouvoir dans le cadre d exposition, le patrimoine local (les minéraux utilisés pour fabriquer certaines couleurs provenant des mines de l Oisans et de la Matheysine), scientifique (collection de l OSUG) ou muséographique (pierres et bijoux). </contexte_scientifique><description_precise_des_besoins_identifies>Indexation, transcription et création de la base de données. Mise en forme, traitement, enrichissement des données produites (corpus hétéroclites, images) et des métadonnées collectées Tests de requêtes et solutions de visualisation de ces données sur un site web ou en open access, en particulier via des systèmes SIG dans l idéal (représentation des données dans le temps et l espace afin de vérifier la trajectoire de la couleur d un pays à l autre)</description_precise_des_besoins_identifies><competences_techniques_necessaires>Avoir une bonne maitrise des bases de données (installation, migration et optimisation) : Oracle, MS SQL ou PostgreSQL ; de la création de site web et du HTML. ; et dans l idéal des systèmes SIG</competences_techniques_necessaires></row>
<row _id="37"><answer_index>LittArt--36</answer_index><lab>LittArt</lab><equipe_de_recherche>UMR 5316 Litt&amp;Arts</equipe_de_recherche><presentation_du_projet>Le projet [pseudonymisé] s'inscrit dans le contexte actuel de la redécouverte de manuscrits et d'imprimés anciens, grâce à leur numérisation à grande échelle, et de la possibilité qui en découle d'analyser dans la longue durée différents phénomènes d'écriture, dont celui de l'évolution des pratiques de traduction dans le temps. Cette question, qui intéresse aussi bien les linguistes que les littéraires, a été marquée récemment par des travaux d'ampleur comme la monumentale Histoire des traductions en langue Française , en quatre volumes, issue de l'ANR HTLF, et, pour ce qui est du théâtre grec, par la collaboration initiée en 2018 entre l'UGA et l'Archive of Performances and Greek and Roman Drama d'Oxford University. L'UMR Litt&amp;Arts a soutenu ce projet émergent en finançant notamment le cycle de conférences Translating Greek Drama . Le financement de stages a également permis de poser les premiers jalons d'une exploration numérique de ce vaste corpus, avec notamment la numérisation, la structuration en TEI et l'alignement du corpus pilote des traductions des comédies d'Aristophane en français au XXe siècle dans le cadre du projet Traduire Aristophane en France . Des stages ont permis de produire de premiers résultats, qu'il va maintenant falloir affiner, avant d'élargir l'enquête au corpus des traductions dans d autres langues que le français. Objectifs L'objectif du projet est donc double. Il s'agira d'abord et avant tout d'analyser comment, à travers les âges, les pratiques de traduction du théâtre grec antique ont évolué et quelles sont les raisons qui peuvent expliquer ces évolutions. Mais on vise, par-delà l'analyse de ce corpus patrimonial, à expérimenter une méthodologie et un outil le Translatoscope qui pourront être transposés à d'autres corpus de traductions de textes dramatiques, et qui permettront de mesurer les écarts entre les différentes traductions, de mettre en lumière les traductions marquantes qui ont particulièrement influencé celles qui ont suivi, de quantifier les phénomènes de plagiat ou au contraire de grande originalité. Positionnement sur les scènes locale, nationale et internationale Le projet s'inscrit, à l'UMR Litt&amp;Arts, dans le cadre de l'axe XXX. Il s articule à trois projets existants : 1. L Aristophane de Lobineau La dimension numérique du projet s'inscrit dans un travail mené en collaboration avec l'équipe des ingénieur es en humanités numériques de l'équipe XXX. Il a consisté à proposer un site de visualisation du manuscrit inédit de la traduction d'Aristophane par Lobineau, et de son texte transcrit, aligné et encodé en XML-TEI, enrichi d un index des noms propres : consulter le site. 2. Traduire Aristophane en France Ce projet a pour objectif d étendre le travail mené sur la traduction de Lobineau à toutes les traductions françaises du poète comique, du XVIe s. à aujourd hui. Les traductions ont été collectées, océrisées, les données ont été nettoyées, structurées en xml-tei et alignées grâce à un scénario de transformation xslt élaboré par XXX, de l équipe XXX et une équipe de stagiaires. 3. Translating Greek Drama , en collaboration avec Oxford University, University College London et l université Paris XIII, dans le cadre duquel quatre colloques ont été organisés : Translating Greek Tragedy in XVIth c. Europe , APGRD, 14 décembre 2018 On Translating Greek Drama : 1450-1600 (co-organisé par l'UGA, l'APGRD et la Maison française d Oxford), Maison française d'Oxford, 29 novembre 2019 Translating Greek Drama 1600-1750 , Paris XIII, en ligne le 11 décembre 2020 Translating Greek Drama 1600-1800 , University College London, 24 juin 2022 Un volume est à paraître en mai 2023 chez De Gruyter : XXX (eds) Translating Ancient Greek Drama in Early Modern Europe </presentation_du_projet><objets_de_la_demande>Production/collecte de données et/ou de métadonnées Enrichissement des données Exploitation des données (fouille de texte, intelligence artificielle) Outils de visualisation</objets_de_la_demande><contexte_scientifique>Le projet [pseudonymisé] s'inscrit dans le contexte actuel de la redécouverte de manuscrits et d'imprimés anciens, grâce à leur numérisation à grande échelle, et de la possibilité qui en découle d'analyser dans la longue durée différents phénomènes d'écriture, dont celui de l'évolution des pratiques de traduction dans le temps. S il existe de nombreux travaux sur la traduction, et notamment la traduction automatique, l exploration numérique de traductions de textes littéraires est plus rare et celle de traductions d un même corpus s étalant sur une période de sept siècles plus rare encore. Cette exploration pose des défis spécifiques en raison de l évolution des langues cibles dans le temps. Le projet a obtenu un financement [pseudonymisé] pour une ADR en 2021 ; la doctorante recrutée ayant démissionné, une post-doctorante, XXX a été recrutée pour 18 mois, de janvier 2023 à juin 2024. Il serait très opportun que les 6 mois d ingénierie demandés puissent se dérouler entre janvier et juin 2024, pour le traitement des données collectées par XXX et en lien avec elle durant les 6 derniers mois de son contrat. </contexte_scientifique><description_precise_des_besoins_identifies>1. Océrisation de traductions patrimoniales, dont les graphies sont parfois très anciennes puisque le projet démarre avec des manuscrits du XVe s. 2. Structuration des données en xml-tei en vue de leur alignement et de leur comparaison systématique ; annotation du lexique de l obscénité comme marqueur fort des pratiques de traduction 3. Fouille de texte : élaboration de scénario XSLT d alignement et comparaison automatique des traductions et notamment du lexique de l obscénité 4. Construction d outils de visualisation</description_precise_des_besoins_identifies><competences_techniques_necessaires>Connaissance des logiciels d océrisation, notamment de textes anciens et/ou manuscrits (e- scriptorium, transkribus, OCR4all) Maîtrise de l xml-tei et du logiciel Oxygen Maîtrise du langage XSLT Connaissance d outils de visualisation comme HTML / CSS / JavaScript / SVG / Canvas / D3.js</competences_techniques_necessaires></row>
<row _id="38"><answer_index>LittArt--37</answer_index><lab>LittArt</lab><equipe_de_recherche>Litt&amp;Arts</equipe_de_recherche><presentation_du_projet>Depuis 2017, l équipe XXX accompagne les membres de l UMR Litt&amp;Arts sur les aspects numériques de leurs projets. Elle développe et met à disposition des outils, méthodes et techniques transversales : numérisation, transcription, annotation, modélisation, diffusion, exploitation de corpus variés en littérature et arts du spectacle. Cela permet de mener à bien les projets, en assurant entre autres leur viabilité technique, leur pérennité, ou encore leur visibilité.</presentation_du_projet><objets_de_la_demande>Formation Contexte XXX est en quelque sorte victime de son succès et fait face à de nombreuses demandes, demandes pour lesquelles il manque parfois les compétences en interne. Le projet GATES pourrait subvenir à ces besoins via les ingénieurs qui seront embauchés, mais mieux encore à long terme, pourrait permettre à la fois la formation de l équipe XXX et plus largement des personnels techniques d appui à la recherche en [pseudonymisé] à l UGA. </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>- Formation à d3.js (ou autres technologies similaires) pour la construction de visualisations complexes. - Formation au machine learning (pour entre autres gérer des cas simples de classification automatique de documents).</description_precise_des_besoins_identifies><competences_techniques_necessaires>- d3.js / SVG / Canvas / HTML / CSS - Machine Learning</competences_techniques_necessaires></row>
<row _id="39"><answer_index>LittArt--38</answer_index><lab>LittArt</lab><equipe_de_recherche>Litt&amp;Arts</equipe_de_recherche><presentation_du_projet>Depuis 2017, l équipe XXX accompagne les membres de l UMR Litt&amp;Arts sur les aspects numériques de leurs projets. Elle développe et met à disposition des outils, méthodes et techniques transversales : numérisation, transcription, annotation, modélisation, diffusion, exploitation de corpus variés en littérature et arts du spectacle. Cela permet de mener à bien les projets, en assurant entre autres leur viabilité technique, leur pérennité, ou encore leur visibilité.</presentation_du_projet><objets_de_la_demande>Mise en place d une infrastructure [pseudonymisé] (Handwriting Text Recognition) </objets_de_la_demande><contexte_scientifique>L étape d acquisition du texte est primordiale dans les projets de recherche accompagnés par XXX. Or, il arrive que l on ne dispose que des fac-similé des documents mais pas de la transcription associée, bien souvent nécessaire à l avancement du projet. Nous ne disposons pas actuellement de solution complètement satisfaisante, que ce soit d un point de vue philosophique ( Transkribus par exemplen a rien de libre) ou purement technique (les performances de Tesseract, bien que assez aisé à mettre en place, ne nous conviennent p as). Une solution libre qui a le vent en poupe actuellement est eScriptorium, mais nous manquons à XXX du temps, d une partie des compétences nécessaires et des moyens permettant la mise en place matérielle et logicielle, ainsi que son utilisation en autonomie.</contexte_scientifique><description_precise_des_besoins_identifies>- Mise en place et maintenance et animation d une infrastructure [pseudonymisé] (basée par exemple sur eScriptorium). - Formation &amp; aide à la création de modèles d [pseudonymisé].</description_precise_des_besoins_identifies><competences_techniques_necessaires>- [pseudonymisé] / Kraken / eScriptorium / HPC</competences_techniques_necessaires></row>
<row _id="40"><answer_index>[pseudonymisé]--39</answer_index><lab>[pseudonymisé]</lab><equipe_de_recherche xsi:nil="true" /><presentation_du_projet xsi:nil="true" /><objets_de_la_demande xsi:nil="true" /><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Maîtrise de logiciels de cartographie (afin notamment de pouvoir faire figurer des réseaux) - Construction d arbres généalogiques - Logiciels pour construire des bases de données, permettant notamment de traiter de vastes corpus d images (pour les historiens de l art). - Réalisation et analyse de graphiques - Création d'outils et d'analyses statistiques - Apprentissage de base en langage informatique (python etc) - Outils utiles pour la prosopographie. </description_precise_des_besoins_identifies><competences_techniques_necessaires xsi:nil="true" /></row>
<row _id="41"><answer_index>[pseudonymisé]--40</answer_index><lab>[pseudonymisé]</lab><equipe_de_recherche>[pseudonymisé]</equipe_de_recherche><presentation_du_projet>Le projet [pseudonymisé] est un projet d histoire urbaine, qui a pour objectif d étudier sur la longue durée les vineae (enclos maraîchers, aujourd hui disparus, qui se situaient de part et d autre de la muraille aurélienne) qui entourent la ville de Rome. Ce projet a pour ambition d améliorer notre connaissance de l urbanisme de Rome, de l Antiquité à l’époque moderne, en prenant pour point d entrée l’étude des vineae. Le projet [pseudonymisé] se donne plusieurs objectifs : 1) périodes médiévales et modernes : -Rassembler l ensemble de la documentation antique et médiévale relative aux vineae dispersée dans des fonds d archives multiples. Ces données seront progressivement reportées par les porteurs du projet et l équipe de chercheurs français et italiens dans une base de données collaborative destinée à être mise en ligne lorsque le projet sera bien avancé, afin de la mettre à la disposition de la communauté scientifique et de faciliter de futures recherches ; -Reconstituer le parcellaire des vineae à l’aide d’une base de données relationnelle adaptée à cet objet, intégrant des outils de modélisation semi-automatique de l information spatiale. 2) période antique : -Rassembler dans une base de données la documentation concernant les lieux de découvertes des inscriptions funéraires de la ville de Rome dans les corpus et bases de données existantes. Le croisement des sources antiques et médiévales permis par la base de données relationnelle de [pseudonymisé] permettra de développer plusieurs axes de recherche : -améliorer notre connaissance de la Rome antique en relocalisant dans l’espace les lieux de découverte de vestiges antiques. En effet, les objets antiques (inscriptions, statues, éléments architecturaux...) découverts au cours des périodes médiévale et moderne ont souvent été transférés et conservés dans des collections privées et publiques avec la mention de leur lieu de découverte, souvent une vinea dont on ignore aujourd’hui la localisation. En reconstituant le parcellaire des vinea, [pseudonymisé] permettra de relocaliser sur le plan de la Rome antique ces vestiges ; -reconstitution des paysages urbains sur la longue durée , étude de leur permanence ou mutation ; -étude des structures et des fondements juridiques des patrimoines fonciers ; étude des structures de la propriété ecclésiastique et des stratégies de gestion d un patrimoine foncier mises en œuvre par les propriétaires ecclésiastiques ; -étude du marché de la terre , grâce aux prix et loyers des transactions concernant les vineae pour l époque médiévale ; -sociologie des locataires qui tiennent les vineae en concession auprès des propriétaires laïcs, ou le plus souvent ecclésiastiques, à l époque médiévale ; -étude de l approvisionnement de Rome en denrées alimentaires produites par les vineae... Institutionnellement le projet est hébergé par le LUHCIE. et a fait une demande d’IRGA émergent dont le débouché prévu est le dépôt d une ANR ou d une ERC.</presentation_du_projet><objets_de_la_demande>Les besoins identifiés pour le projet [pseudonymisé] sont les suivants : - Hébergement numérique (stockage, VM, ...) : stockage des données brutes et des bases de données avec accès à distance pour les membres de l équipe. - Construction de bases de données ou adaptation d une base de données issue d un projet ANR d une autre équipe (MODELESPACE). - Outils de visualisation adaptation à un SIG existant. - Diffusion et édition des données - Formation (des deux porteurs du projet à l utilisation de la base de données élaborée pour le projet [pseudonymisé]) </objets_de_la_demande><contexte_scientifique>Pour la création de cette base de données relationnelle, le projet [pseudonymisé] pourra s inspirer fortement d une ANR développée entre 2010 et 2012 ( MODELESPACE et ARCHITERRE) dirigée par Florent Hautefeuille, Bertrand Jouve et Samuel Leturcq1. Les sources, méthodes et objectifs de MODELESPACE sont en effet très similaires à ceux de [pseudonymisé]. Cette ANR a construit une base de données relationnelle structurée autour d une vingtaine de tables (TERCOMP) destinée à intégrer les données issues du dépouillement de sources fiscales médiévales. Il existe une ample bibliographie sur MODELESPACE, détaillant le fonctionnement de leur base de données relationnelle et de l interface WEB qui y est associée. La base est construite sous filemaker et les concepteurs de la base ont laissé son utilisation libre de droit. Par ailleurs, la relocalisation des vineae et des vestiges archéologiques prévoit de s appuyer sur le SIG développé par l équipe de Roma 3 CROMA qui a déjà produit une cartographie de la Rome moderne en s appuyant sur la numérisation de plans, notamment cadastraux : https://archivio.centroricercheroma.it/default.asp?contenuto hgis. 1 Voir en particulier Florent HAUTEFEUILLE, G e olocalisation des sources fiscales pr e -re volutionnaires : la quadrature du cercle , Bulletin du centre d études médiévales d Auxerre BUCEMA En ligne , Hors-s e rie n 9 2016, mis en ligne le 23 ao u .t 2016, consult e le 22 septembre 2022. URL : http://journals.openedition.org/cem/13800 ; DOI : https://doi.org/10.4000/cem.13800 . </contexte_scientifique><description_precise_des_besoins_identifies>Les besoins identifiés sont les suivants : 1)Bases de données : construction de deux bases de données relationnelles, collaboratives, interopérables entre elles et publiables sur une interface web (éventuellement séparément) lien avec un outil de visualisation (matrices d adjacence : appliquée aux confronts des parcelles foncières) : -Base de données pour les sources médiévales (et outil de visualisation) : potentiellement existante (TERCOMP), mais à adapter ; les porteurs du projet demandent à être accompagnés pour la modification de la structure de la base, libre de droit qui devra être récupérée auprès des porteurs de l ANR qui l a créée sous Filemaker. La base et son fonctionnement est décrite dans l article de F. Hautefeuille cité plus haut. La base doit pouvoir continuer à s adapter ensuite pour autres types de sources (extension envisagée lors du dépôt de l ANR ou de l ERC). -Base de données pour les sources antiques : à créer, de manière à pouvoir opérer des rapprochements avec la base de données d exploitation des sources médiévales. Ces deux bases de données doivent être disponibles en ligne avec accès restreints pour qu elles soient collaboratives. Après la fin du projet : accessible en ligne à tout public. 2)Hébergement sur le long terme des bases de données. 3)Eventuellement scrapping de données pour la base antique sur une base de données en ligne actuellement existante (EDR : http://www.edr-edr.it/default/index.php), mais peu renseignée sur la question de la localisation des documents. Etude du reversement possible des résultats des bases de [pseudonymisé] dans cette base</description_precise_des_besoins_identifies><competences_techniques_necessaires>Les principales compétences techniques attendues sont : -une excellente maîtrise du logiciel de base de données FileMaker pour adapter une base complexe déjà existante dont le modèle est fourni par l ANR MODELESPACE. Maîtrise des outils de modélisation semi-automatique de l information spatiale (théorie des graphes appliquée aux confronts de parcelles foncières) développée par ce programme et maîtrise d un logiciel de visualisation de graphe. À l aide des algorithmes du logiciel, il s agira de générer une table d appariement des parcelles (vineae) de type matrice d adjacence : voir article de synthèse de Fl. Hautefeuille. -Capacité à créer une base de données relationnelle pour les données antiques, non prises en charge par la base de données de l ANR citée. -Implémentation d un SIG dont l accessibilité reste à négocier avec l équipe italienne (https://archivio.centroricercheroma.it/default.asp?contenuto hgis ). -</competences_techniques_necessaires></row>
<row _id="42"><answer_index>PACTE--41</answer_index><lab>PACTE</lab><equipe_de_recherche>[pseudonymisé]</equipe_de_recherche><presentation_du_projet>[pseudonymisé] Le projet [pseudonymisé] ([pseudonymisé]) découle des recherches menées au sein du CDP Eco-SESA sur les communautés énergétiques locales. Il implique 7 enseignants-chercheurs de PACTE et un consultant et porte sur le déploiement de l autoconsommation collective en France. Il vise à 1) qualifier les motivations, les ressources, visions et stratégies des acteurs impliqués dans des opérations d ACC ainsi que leurs modèles d actions (encadrés par la régulation en cours), 2) qualifier les principales configurations socio-spatiales au sein desquelles des OACC sont/pourraient être largement mises en œuvre, 3) élaborer des scénarios plausibles de déploiement de l ACC selon des configurations spatiales et des combinaisons d acteurs. Après une phase bibliographique mobilisant des monographies et entretiens d acteurs déjà réalisés, une enquête qualitative sera menée auprès des initiateurs, porteurs ou accompagnateurs d OACC et des structures susceptibles de contribuer à leur démultiplication. Elle sera suivie par une enquête par questionnaire menée auprès des porteurs potentiels d OACC qui seront identifiés et sollicités avec l appui de plusieurs fédérations nationales regroupant des bailleurs sociaux, des municipalités rurales, des intercommunalités urbaines, des coopératives citoyennes de production d énergie, des syndicats départementaux d énergie et du réseau du Comité de Liaison des Energies Renouvelables. Ces dernières discuteront les scénarios prospectifs élaborés par l équipe de chercheurs. Une cinquantaine d’entretiens sera réalisée selon une grille commune et exploitée par l ensemble des chercheurs de l équipe. Il en est ainsi de l enquête par questionnaire : 300 à 400 personnes ciblées parmi les adhérents des structures partenaires. Le travail de gestion des données (anonymisation, archivage, traitement, représentation ) est estimé à une année d IR à plein temps budgété. Parallèlement une colleboration avec le CD Tools OTE vise à traiter les données pour une réutilisation ultérieure par d autres chercheurs. </presentation_du_projet><objets_de_la_demande xsi:nil="true" /><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Codage des entretiens Gestion RGPD des entretiens Gestion RGPD des réponses aux questionnaires Traitements statistiques et graphiques selon les configurations socio-spatiales et les acteurs-types Visualisation cartographique </description_precise_des_besoins_identifies><competences_techniques_necessaires>Anonymisation des entretiens, métadonnées et archivage mutualisé pour utilisation et éventuelle réutilisation Traitement statistique de données quanti, visualisation des résultats </competences_techniques_necessaires></row>
<row _id="43"><answer_index>PACTE--42</answer_index><lab>PACTE</lab><equipe_de_recherche>Pacte</equipe_de_recherche><presentation_du_projet>Le projet concerne le développement/mise en oeuvre d outils de datavisualisation permettant de valoriser les données issues des grandes enquêtes conduites par l UMR Pacte , et notamment de deux programmes d enquêtes sociales internationales présentés ci-après. Depuis les années 1990, Pacte est impliqué dans le pilotage de deux grandes enquêtes sociales internationales : [pseudonymisé] ([pseudonymisé]) et [pseudonymisé] ([pseudonymisé]). L [pseudonymisé] a pour objectif d investiguer les transformations des systèmes de valeurs qui s opèrent notamment sous l effet du renouvellement générationnel. L enquête a lieu tous les 9 ans depuis 1981, dans un périmètre de 37 pays d Europe continentale . Le questionnaire porte sur des thèmes aussi variés que l économie, la politique, la religion, le travail, la famille, la morale, les formes de sociabilité ou l écologie. Cette enquête généraliste a fortement contribué au débat citoyen, à la fois par une abondante production académique, mais aussi avec d importantes reprises médias . La prochaine édition, actuellement en préparation, aura lieu en 2026-2027. L [pseudonymisé] renvoie à une logique différente. L enquête prend la forme d un questionnaire administré sur un thème différent chaque année et répliqué environ tous les neuf ans. Le questionnaire, très complet, permet d évaluer les comportements, attitudes et opinions des populations nationales dans un ensemble de domaines relevant des sciences sociales. La couverture géographique mondiale permet une meilleure compréhension des spécificités et similarités de près d une cinquantaine de pays, incluant notamment les continents américain, africain et asiatique. Avec plus de 10.000 publications recensées au niveau mondial en 2021, l [pseudonymisé] est une source d information inégalée, et particulièrement bien valorisée en France . Pacte contribue au financement de ces deux enquêtes, conjointement avec l IR Progedo- CNRS qui est l opérateur de ces enquêtes pour le MESR. Pacte représente également la France dans la coordination internationale de ces programmes, en participant aux différentes instances scientifiques et en assurant la réalisation des terrains d enquête. Une vingtaine de chercheurs du laboratoire sont associés à la production et/ou à l analyse des données. </presentation_du_projet><objets_de_la_demande>Développement logiciel Outils de visualisation </objets_de_la_demande><contexte_scientifique>Le soutien demandé pour ce projet s inscrit dans une synergie générale rassemblant plusieurs projets d ouverture des données [pseudonymisé] au sein du laboratoire Pacte, ou en collaboration entre plusieurs laboratoires. Dans ce contexte scientifique qui couvre l ensemble des composantes du processus de traitement de la donnée, depuis la collecte jusqu à la diffusion et à la valorisation, il nous semble important non pas de seulement décrire les spécificités du projet, qui sont indiquées plus haut, mais d indiquer dans cette rubrique plusieurs points sur lesquels il nous semble important de mettre l accent pour assurer une coordination optimale des affectations de moyens en regard de besoins largement partagés par ces différents projets portés par le laboratoire . Nous insistons donc sur : L importance que les ingénieurs recrutés soient de formation et de socialisation [pseudonymisé] pour qu ils et elles comprennent bien les besoins spécifiques aux [pseudonymisé]. La disponibilité des membres de Pacte pour participer à la rédaction des profils de poste et à ces jurys de recrutements. L intérêt d apporter de l aide sur des projets en élaboration et d autres déjà en cours sur lesquels des besoins ont été identifiés mais sont difficiles à satisfaire par manque de moyens humains. L enjeu de considérer tout le cycle de vie de la donnée depuis la collecte jusqu à l ouverture, la diffusion, mise à disposition voire la réutilisation (du type Bequali). Cet ensemble de besoins touche à la fois la diffusion et la documentation des données, et les activités en amont. En effet, les méthodes de collecte des données en [pseudonymisé] (enquêtes, interventions, observations, entretiens) profitent de nombreux développements liés à l accès à des sources d observation renouvelées (par ex. données issues de traces numériques) et aussi à l hybridation des méthodes issues de différentes disciplines. La recherche en [pseudonymisé] à Grenoble est très active pour proposer des protocoles de collecte de données innovants permettant de produire des connaissances renouvelées issues du croisement de plusieurs champs disciplinaires. Plusieurs programmes de recherche interdisciplinaires (voir les CDP, CD-Tools) menés sur le site grenoblois travaillent en ce sens avec des études menées sur la région grenobloise et sa population. Dans la perspective de produire des connaissances sur les processus sociaux et spatiaux à l œuvre sur ce territoire, la possibilité de pouvoir construire des dispositifs d observation (de collecte) pérennes s avère cruciale. En effet, la mise en place de cohortes longitudinales, de panels d usagers, de systèmes d information géographique à différentes dates permet de constituer des corpus de données qui sont essentiels pour analyser en continu et en profondeur les processus de changement à l échelle des individus (changement de pratiques, comportements) et des groupes sociaux et d étudier leurs effets sur la structure/composition des espaces/territoires de la région grenobloise. Seuls, les programmes de recherche conduits sur des financements de courtes durées ne peuvent pas porter l ambition de ces dispositifs pérennes d observation. Disposer de l appui d une plateforme d ingénierie de haut niveau de qualification leur bénéficierait très utilement. On liste rapidement ci-dessous des missions concrètes sur lesquelles ces ingénieur es seraient utiles : Missions d appui et d accompagnement aux chercheurs dans la fabrique de leurs plans de gestion de données (ce qu une cellule comme Ariane au sein de Pacte ne peut faire ; les autres laboratoires n ayant pas l équivalent non plus) : les chercheurs ont besoin non seulement de sensibilisation mais aussi d être accompagnés dans la réalisation d une V1 du PGD, à charge pour elles et eux de le faire évoluer ensuite au fil du projet. Missions d accompagnement sur les questions liées aux droits des données comme par exemple la propriété intellectuelle, le droit d auteur, le droit des bases de données ou encore la réglementation sur les données à caractère personnel fortement présentes dans les dispositifs [pseudonymisé] La jeune recherche et en particulier les doctorant.e.s est un public qui gagnerait à être visé de manière prioritaire pour ancrer une culture de la gestion des données en [pseudonymisé] : faire un plan de gestion de données pour une thèse devient un passage obligé or les directeur.trices ne sont pas encore tous et toutes assez porteurs de ce discours Il faudrait donc prévoir, en lien avec les ED et les laboratoires, de l accompagnement des doctorant.e.s mais aussi travailler spécifiquement auprès de ces encadrant.e.s pour les sensibiliser / renforcer leurs connaissances des enjeux et des outils, ressources disponibles (à relayer vers leurs doctorant.e.s) </contexte_scientifique><description_precise_des_besoins_identifies>Le soutien demandé pour ce projet relatif aux grandes enquêtes pilotées par l UMR Pacte porte sur l accompagnement à la visualisation interactive des données sur le Web sous la forme de tableaux, cartes, graphiques interactifs et dynamiques potentiellement intégrés aux sites des enquêtes mentionnées plus haut ou sur des sites dédiés (Carnet Hypothèses ). Plus largement, des effets de synergie sont attendus avec les enquêtes nationales de grande ampleur régulièrement conduites par l UMR Pacte (French Electoral Survey, Gilets jaunes, Marches Climat ). Les compétences mobilisées ici sont bien sûr transférables sur des projets analogues portés par d autres laboratoires du site grenoblois. </description_precise_des_besoins_identifies><competences_techniques_necessaires>Maîtrise de R et des packages/librairies pertinents (ggplot2, lattice, plotly, lea[pseudonymisé]t et shiny ) ou équivalent </competences_techniques_necessaires></row>
<row _id="44"><answer_index>PACTE--43</answer_index><lab>PACTE</lab><equipe_de_recherche>Projet financé par l ADEME pour quatre ans (2023-2027) porté par les laboratoires Pacte et CIRED. Il regroupe près de cinquante chercheurs répartis nationalement et dans plusieurs entités. Liste des laboratoires concernés : Partenaires financés AMURE / IFREMER AMURE / Université de Bretagne Occidentale CIRED / CNRS CRESPPA / Université Paris 8 DCS / Université de Nantes ESO / Institut Agro Rennes Angers France Energies Marines LADYSS / CNRS LETG / Université de Bretagne Occidentale LETG / Université de Nantes PACTE / CNRS PASSAGES / CNRS Partenaires associés [pseudonymisé] Analyse Comparée des pouvoirs Arènes BOREA / Université de Caen CEFREM IDEES LHEEA LOG M2C </equipe_de_recherche><presentation_du_projet>- Le projet [pseudonymisé] : porté par Pacte et le laboratoire CIRED, il a été financé par l ADEME pour quatre ans (2023-2027). Il regroupe près de cinquante chercheurs qui visent à construire un dispositif d observation pour suivre les effets du déploiement des éoliennes en mer (Manche, Méditerranée et Atlantique) sur les usages de la mer, des territoires et des milieux marins. Plusieurs corpus de données seront constitués - en mobilisant entre autres des observations, enquêtes, entretiens, captations sonores et vidéos, analyses cartographiques - sur plusieurs sites d implantation de parcs d éoliennes en mer et reconduits sur plusieurs périodes. Le projet GATES pourrait apporter un accompagnement dans le montage de plateforme qui permettrait d accéder à des données, situées dans l espace, multi-sources et collectées sur plusieurs périodes temporelles. Ce projet et accompagné pour sa partie informatique par un ingénieur de recherche du laboratoire Pacte, et devra en outre être complété par un IR en cours de recrutement et non pourvu pour l'instant. </presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc.) Développement logiciel Outils de visualisation Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation </objets_de_la_demande><contexte_scientifique>Le soutien demandé pour ce projet s inscrit dans une synergie générale rassemblant plusieurs projets d ouverture des données [pseudonymisé] au sein du laboratoire PACTE, ou en collaboration entre plusieurs laboratoires. Dans ce contexte scientifique qui couvre l ensemble des composantes du processus de traitement de la donnée, depuis la collecte jusqu à la diffusion et à la valorisation, il nous semble important non pas de seulement décrire les spécificités du projet, qui sont indiquées plus haut, mais d indiquer dans cette rubrique plusieurs points sur lesquels il nous semble important de mettre l accent pour assurer une coordination optimale des affectations de moyens en regard de besoins largement partagés par ces différents projets portés par le laboratoire . Nous insistons donc sur : L importance que les ingénieurs recrutés soient de formation et de socialisation [pseudonymisé] pour qu ils et elles comprennent bien les besoins spécifiques aux [pseudonymisé], La disponibilité des membres de Pacte pour participer à la rédaction des profils de poste et à ces jurys de recrutements. L intérêt d apporter de l aide sur des projets en élaboration et d autres déjà en cours sur lesquels des besoins ont été identifiés mais sont difficiles à satisfaire par manque de moyens humains. L enjeu de considérer tout le cycle de vie de la donnée depuis la collecte jusqu à l ouverture, la diffusion, mise à disposition voire la réutilisation (du type Bequali). Cet ensemble de besoins touche à la fois la diffusion et la documentation des données, et les activités en amont. En effet, les méthodes de collecte des données en [pseudonymisé] (enquêtes, interventions, observations, entretiens) profitent de nombreux développements liés à l accès à des sources d observation renouvelées (par ex. données issues de traces numériques) et aussi à l hybridation des méthodes issues de différentes disciplines. La recherche en [pseudonymisé] à Grenoble est très active pour proposer des protocoles de collecte de données innovants permettant de produire des connaissances renouvelées issues du croisement de plusieurs champs disciplinaires. Plusieurs programmes de recherche interdisciplinaires (voir les CDP, CD-Tools) menés sur le site grenoblois travaillent en ce sens avec des études menées sur la région grenobloise et sa population. Dans la perspective de produire des connaissances sur les processus sociaux et spatiaux à l œuvre sur ce territoire, la possibilité de pouvoir construire des dispositifs d observation (de collecte) pérennes s avère cruciale. En effet, la mise en place de cohortes longitudinales, de panels d usagers, de systèmes d information géographique à différentes dates permet de constituer des corpus de données qui sont essentiels pour analyser en continu et en profondeur les processus de changement à l échelle des individus (changement de pratiques, comportements) et des groupes sociaux et d étudier leurs effets sur la structure/composition des espaces/territoires de la région grenobloise. Seuls, les programmes de recherche conduits sur des financements de courtes durées ne peuvent pas porter l ambition de ces dispositifs pérennes d observation. Disposer de l appui d une plateforme d ingénierie de haut niveau de qualification leur bénéficierait très utilement. On liste rapidement ci-dessous des missions concrètes sur lesquelles ces ingénieur es seraient utiles : Missions d appui et d accompagnement aux chercheurs dans la fabrique de leurs plans de gestion de données (ce qu une cellule comme Ariane au sein de Pacte ne peut faire ; les autres laboratoires n ayant pas l équivalent non plus) : les chercheurs ont besoin non seulement de sensibilisation mais aussi d être accompagnés dans la réalisation d une V1 du PGD, à charge pour elles et eux de le faire évoluer ensuite au fil du projet. Missions d accompagnement sur les questions liées aux droits des données comme par exemple la propriété intellectuelle, le droit d auteur, le droit des bases de données ou encore la réglementation sur les données à caractère personnel fortement présentes dans les dispositifs [pseudonymisé] La jeune recherche et en particulier les doctorant.e.s est un public qui gagnerait à être visé de manière prioritaire pour ancrer une culture de la gestion des données en [pseudonymisé] : faire un plan de gestion de données pour une thèse devient un passage obligé or les directeur.trices ne sont pas encore tous et toutes assez porteurs de ce discours Il faudrait donc prévoir, en lien avec les ED et les laboratoires, de l accompagnement des doctorant.e.s mais aussi travailler spécifiquement auprès de ces encadrant.e.s pour les sensibiliser / renforcer leurs connaissances des enjeux et des outils, ressources disponibles (à relayer vers leurs doctorant.e.s) </contexte_scientifique><description_precise_des_besoins_identifies>Cet observatoire a vocation à durer et a été financé pour 48 mois renouvelables. Il devrait constituer l'ébauche d'un Observatoire de donnée [pseudonymisé] labélisé permettant de collecter des flux de type divers (image, film, son, enquêtes) géo-localisés. L'ingénieur aura à intégrer une équipe technique pour répondre aux besoins relatifs à la collecte et l organisation de corpus de données: organisation d'enquêtes pour des données spatiales et temporelles individuelles liées à des données économique, sociologique, politique ou environnementales. Ils portent sur quatre missions principales de l ingénieur : La coordination de collectes sur plusieurs années ; La production et mise à jour des documents descriptifs des protocoles de collecte, des modes d emploi, des outils de collecte, des métadonnées des corpus de données (1ère étape des principes FAIR) ; L appui à l organisation en base de données relationnelle (des données des différents corpus collectées) partagée et utilisée par un collectif interdisciplinaire; L appui à l extraction d indicateurs sur les données au travers de scripts ou requêtes utiles à la production de connaissances sur les corpus. Techniquement, ce projet va s'étendre sur 4 ans et sera sans doute reconduit de façon à suivre l observation des parcs éoliens en mer et leurs impacts. Il s'agit de structurer un observatoire de données labélisé pour les [pseudonymisé]. Dans l'immédiat, il y a plusieurs besoins identifiés: La première personne aura à pérenniser la passerelle d'accès aux traitement et stockage utilisées par la communauté nationale constitué de 56 personnes actuellement et appelé à évoluer continuellement et rapidement. Une autre aura à déployer et participer aux spécification d'un site public avenir, capable d'absorber de très important flux de consultation suite à des passages aux journaux TV par exemple. Ce site devra répondre aux spécifications des différents financeurs du projet. Il devra intégrer, entre autres, un tableau de bord d'avancé du projet interconnecté à la base de données d'acquisition. D'ici quelques mois, un autre, participera au nettoyage des données brutes et à leur structuration, anonymisation, documentation et centralisation au sein d'une base de données cartographique et relationnel. Ceci se faisant en coordination avec la communauté de chercheur afin de répondre à leurs interrogations de suivi de projet. </description_precise_des_besoins_identifies><competences_techniques_necessaires>Les compétences techniques associées aux missions décrites ci-dessus sont : Maitrise des habilitation et consentement nécessaire à l'organisation d'enquête : RGPD. Planification des taches et ressources: Gantt. Gestion et suivi des outils et équipes de collectes hors site. Suivi des données collectées et extraction d indicateurs : organiser et assurer la chaîne de stockage, organisation et sécurisation des données personnelles, contrôler la qualité des acquisitions, produire des indicateurs de description des corpus (outils statistiques R, outils de visualisation des données pour le partage : dashboard) ; Conception de documents de synthèse et formalisation des métadonnées ; Appui à la conception et à l organisation de la base de données relationnelles. Maitrise des interrogations des bases de données relationnel SQL, Mongo et hypertexte. Construction d'architecture web avec site dynamique en liaison avec des bases du type postgis. </competences_techniques_necessaires></row>
<row _id="45"><answer_index>PACTE--44</answer_index><lab>PACTE</lab><equipe_de_recherche>Le projet est porté par trois laboratoires de recherche de l UGA dans le cadre d une ANR obtenue sur l AAPG 2022 : - Pacte (équipe Régulations) : Gilles Bastin (Professeur de sociologie), Jérôme Pacouret (Post-Doctorant) - GRESEC : Emmanuel Marty (Maître de conférences en Information- Communication - GIPSA-Lab (équipe DANCE) : Paolo Frasca (CNRS) </equipe_de_recherche><presentation_du_projet>The way people access news has changed. In the past, they had to actively search for offline as well as online content and had an active role in the selection of their news diet. This process is often referred to as selective exposure in the literature. Nowadays, with the rise of social media, news appears on people s feeds mostly as a byproduct of one s social relations (organic content), of AI-driven algorithmic profiling and curation (suggested content) or as a product of paid targeting strategies from companies (paid content). It is widely acknowledged that this transformation of the public sphere has a potentially negative impact on democracy (Vīķe-Freiberga et al., 2013). Indeed, in such a news environment, users have only partial control on what content gets pushed to them, experts and public authorities have little oversight over the quality of the content that platforms and advertisers promote, and last but not least social and computing scientists lack relevant data and information to assess and investigate any resulting biases in news exposure. As a consequence, the literature is severely limited in terms of access to data. Several recent studies have highlighted the frustrating and challenging problems faced by citizens, governments, research and even social media platforms themselves due to this situation (see for instance Huszár, F. et al., 2021). Tackling this difficulty, this project aims at providing data and analytical tools to understand what kind of news users are exposed to on three leading social media platforms (Facebook, YouTube and Twitter) during the same time span and how they engage with such contents. The biggest breakthrough of this project will be a mixed methodology that (1) enables access to data about what news users see in their feeds on these platforms and how they interact with them, and (2) allows us to survey users about who they are and how they perceive the news they receive. This two-sided approach will allow us to tackle long-standing questions at two levels : 1. News exposure: Our data will allow us to understand biases in news exposure and how they are influenced by the user's socio-demographic characteristics, political orientation, online behavior, platform/algorithmic awareness, their social network and AI-based algorithmic curation algorithms used by social media. 2. News engagement and dissemination: To contribute to the growing debate on information disorders, we will characterize to which extent people translate their news exposure into actual engagement (sharing it for instance) and how they perceive the truthfulness of the news. </presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc) Développement logiciel Outils de visualisation Diffusion et édition des données </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Le soutien obtenu de l ANR ne comporte pas de soutien en Ingénieur e de recherche. Or ce projet va générer une activité importante de collecte et de traitement de données pour lequel nous identifions les besoins suivants : La collecte de données sur des périodes relativement longues par scraping ou interrogation d API sur les plateformes suivantes : Twitter, Instagram, Facebook, YouTube, Tik Tok Formatage des données et stockage sur un serveur </description_precise_des_besoins_identifies><competences_techniques_necessaires>L'ingénieur devra assurer la surveillance quotidienne des collectes de données pendant deux périodes de 3 mois et construire des outils de surveillance automatisé de la qualité de ces acquisitions. Les scripts étant en python3 ou R, l'ingénieur devra maitriser au moins l un de ces langages ainsi que les bibliothèques communes de scraping de données. Une très bonne connaissance des API des deux plateformes et de leur fonctionnement est aussi requise </competences_techniques_necessaires></row>
<row _id="46"><answer_index>PACTE--45</answer_index><lab>PACTE</lab><equipe_de_recherche>Pacte</equipe_de_recherche><presentation_du_projet>[pseudonymisé] Le projet [pseudonymisé] (ANR PEPR-TASE Octobre 2023-septembre 2027) est un projet Ciblé déposé en mars 2023 après pré-sélection dans le cadre de l Appel à Manifestation d Intérêt de PEPR-TASE (Technologies Avancées pour les Systèmes Energétiques). Il découle des recherches menées au sein du CDP Eco-SESA sur les projets énergétiques locaux et portées par le CDTools OTE axes XXX et XXX. Il implique les laboratoires PACTE (coordonnateur), TREE (UPPA), FEMTO-ST (UTMB), Lab Urba (UGE), IODE (CNRS) et le CSTB. Cette recherche porte sur la prise en compte de la variabilité de la production d énergie renouvelable dans les relations à la consommation. Pour ce faire, la proposition explore conjointement les dynamiques de réappropriation de l énergie par le bas (initiatives citoyennes et territoriales, pratiques des consommation, innovations marchandes et organisationnelles...) et les politiques publiques, en particulier l évolution de la régulation, Privilégiant des approches qualitatives (analyse de littérature grise, entretiens avec des acteurs et témoins de situations nationales et locales d intermédiation entre production et consommation, questionnaire auprès d utilisateurs finaux) , cette recherche d intérêt aborde les différentes dimensions (juridiques, économiques, politiques, géographiques, anthropologiques) qui structurent les choix et les déploiements technologiques. Elle est structurée en deux axes thématiques, l un s intéresse principalement au déploiement des communautés énergétiques et à leurs effets sur les usages, l autre investigue le travail et le contenu de la régulation, en France principalement, en opérant des pas de côté en Europe et en Afrique. Les deux axes prêtent attention aux démarches collectives, y compris publiques, et aux intermédiations entre consommation, ressources situées et réseaux ainsi qu aux valeurs accordées à l énergie. Une cinquantaine d entretiens sera réalisée autour de projet de coopératives citoyennes et d autoconsommation collective selon une grille commune et exploitée par l ensemble des chercheurs de l équipe. L enquête par questionnaire vise 300 à 400 personnes qui seront recrutés avec le soutien de l OTE et des fédérations partenaires de [pseudonymisé]. Le travail de gestion des données (anonymisation, archivage, traitement, représentation ) est estimé à 1,5 an IR. Parallèlement une collaboration avec le CD Tools OTE vise à traiter les données pour une réutilisation ultérieure par d autres chercheurs. </presentation_du_projet><objets_de_la_demande xsi:nil="true" /><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Gestion mutualisée des entretiens (RGPD, Codage, archibage ) Gestion RGPD des réponses aux questionnaires Traitement statistique selon la nature des intermédiations Visualisation cartographique et graphique </description_precise_des_besoins_identifies><competences_techniques_necessaires>Anonymisation des entretiens, métadonnées et archivage mutualisé pour utilisation et éventuelle réutilisation Traitement statistique de données quanti, visualisation des résultats </competences_techniques_necessaires></row>
<row _id="47"><answer_index>PACTE--46</answer_index><lab>PACTE</lab><equipe_de_recherche>Le projet est porté par deux laboratoires de recherche : - Pacte – LIG</equipe_de_recherche><presentation_du_projet>Le projet [pseudonymisé] : après avoir proposé de mettre en ligne les résultats d une enquête sur les inégalités de genre dans les médias français sur un site qui fonctionne comme un dispositif d observation et de de diffusion ( https://gendered- news.imag.fr/[pseudonymisé]/ ), le projet élabore la v2 du site, avec amplification des collectes (mesures des biais genrés dans 40 sources et non plus 20). L équipe s appuie sur le travail de XXX, IR en informatique à Pacte et Gricad, mais du renfort serait nécessaire pour l'exploitation quotidienne. Ce dispositif nécessite aussi une industrialisation de l'ensemble de l'architecture d'acquisition et de traitement pour pérenniser les indicateurs mis en place quotidiennement et utilisé par une communauté externe à la recherche de plus en plus large au niveau national. </presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc) Développement logiciel Outils de visualisation Diffusion et édition des données </objets_de_la_demande><contexte_scientifique xsi:nil="true" /><description_precise_des_besoins_identifies>Le soutien portera sur du développement pour la fiabilisation de la chaîne de traitement des données en matière d acquisition : scraping de texte sur les sites des médias, gestion des données issues des API des partenaires (AFP et Mediapart), configuration et entretien des outils de collecte et des serveurs de stockage des données. Le site [pseudonymisé] nécessite aussi une surveillance régulière pour apprécier la qualité du scraping (par le développement de tests unitaires à différentes phases du processus de collecte). Il s'agit de qualifier les acquisitions et de les adapter en fonction des évolutions ou anomalies observées. En outre il faut étendre le nombre de médias dont les contenus sont scrapés, catégoriser et analysés, ce qui suppose une adaptation du code à chaque nouveau cas. A cela s'ajoute le besoin d'évolution plus structurel de la base de données pour une conservation plus pérenne du contenue des articles qui devront maintenant être stockés. Enfin nous avons un besoin additionnel différent concernant la visualisation des données sur le site du projet (graphiques dynamiques et personnalisables) ainsi que le développement de services fondés sur cette méthodologie (téléchargement de données par exemple). </description_precise_des_besoins_identifies><competences_techniques_necessaires>L'ingénieur devra, en relation étroite avec le LIG et Pacte, assurer la surveillance quotidienne tous en construisant des outils de surveillance automatisé de la qualité des acquisitions. Les scripts étant en python3, l'ingénieur devra maitriser ce langage ainsi que le scraping de données. Les bases utilisées au sein du projet sont de type mongo et postgress et impose donc de maitriser ces technologies. Les traitements étant répartis sur plusieurs machines au sein de plusieurs structures administratives, la personne devra idéalement maitriser les procédures d'accès et de filtrages propre à ces différentes structures. </competences_techniques_necessaires></row>
<row _id="48"><answer_index>PACTE--47</answer_index><lab>PACTE</lab><equipe_de_recherche>Le projet est porté par quatre laboratoires de recherche de l UGA, Sens (psychologie sociale de l activité physique), Pacte (géographie, urbanisme), Gael (économie), et IAB (épidémiologie environnementale) . </equipe_de_recherche><presentation_du_projet>'- Le projet [pseudonymisé] est issu d un WP du CDP Mobil Air, aujourd hui financé par Pack Ambition Recherche, I Institut pour la Recherche En Santé Publique (cofinancement Ademe et Inserm), et le Syndicat Mixte des Mobilités de l'Aire Grenobloise (SMMAG). [pseudonymisé] est une intervention en population, contrôlée et randomisée pour analyser le changement de comportement de mobilité de personnes habitant la région grenobloise. Les observations s effectuent pendant 24 mois sur un panel de volontaires, au moyen de dispositifs variés (questionnaires, capteurs de mobilité et d activité physique, capteurs de pollution, carnet de mobilité). Ce suivi de cohorte nécessite un plan de gestion des données complexe et un passage à l échelle (infrastructure informatique notamment) pour organiser des données massives en base de données relationnelle centralisée et mobilisable par un collectif interdisciplinaire via des chaînes de traitements élaborées et nécessitant du calcul parfois intensif (R, Python). Cette étude longitudinale construite tel un dispositif d observation nécessite un appui technique important tant pour maintenir la cohorte (déjà en lien avec le CDTools-OTE) que pour gérer, organiser et traiter les données collectées (données spatio-temporelles complexes, déjà en lien avec Gricad). Ce dispositif d observation inédit en SHS vise in fine à ouvrir les données qui pourront l'être, celles qui pourront être totalement anonymisées et/ou agrégées. Grâce aux financements en cours, le projet bénéficie actuellement du support d un ingénieur recherche (et de deux assistants ingénieurs) dont les contrats à durée déterminée ne couvrent pas totalement les besoins de pérennisation de la cohorte nécessaires à la pertinence et la validation des résultats de la recherche Cette étude bénéficie aussi de l appui d ingénieurs (permanents) du laboratoire Pacte : Géomatique XXX et Informatique XXX. </presentation_du_projet><objets_de_la_demande>Hébergement numérique (stockage, VM, base de données) Production/collecte de données et de métadonnées Enrichissement des données (Scripts R, indicateurs de qualité, de complétude, de suivi) Construction de bases de données relationnelle (PostGre, PostGis) Outils de visualisation (Shiny) </objets_de_la_demande><contexte_scientifique>Le soutien demandé pour ce projet s inscrit dans une synergie générale rassemblant plusieurs projets d ouverture des données [pseudonymisé] au sein du laboratoire PACTE, ou en collaboration entre plusieurs laboratoires. Dans ce contexte scientifique qui couvre l ensemble des composantes du processus de traitement de la donnée, depuis la collecte jusqu à la diffusion et à la valorisation, il nous semble important non pas de seulement décrire les spécificités du projet, qui sont indiquées plus haut, mais d indiquer dans cette rubrique plusieurs points sur lesquels il nous semble important de mettre l accent pour assurer une coordination optimale des affectations de moyens en regard de besoins largement partagés par ces différents projets portés par le laboratoire . Nous insistons donc sur : L importance que les ingénieurs recrutés soient de formation et de socialisation [pseudonymisé] pour qu ils et elles comprennent bien les besoins spécifiques aux [pseudonymisé], La disponibilité des membres de Pacte pour participer à la rédaction des profils de poste et à ces jurys de recrutements. L intérêt d apporter de l aide sur des projets en élaboration et d autres déjà en cours sur lesquels des besoins ont été identifiés mais sont difficiles à satisfaire par manque de moyens humains. L enjeu de considérer tout le cycle de vie de la donnée depuis la collecte jusqu à l ouverture, la diffusion, mise à disposition voire la réutilisation (du type Bequali). Cet ensemble de besoins touche à la fois la diffusion et la documentation des données, et les activités en amont. En effet, les méthodes de collecte des données en [pseudonymisé] (enquêtes, interventions, observations, entretiens) profitent de nombreux développements liés à l accès à des sources d observation renouvelées (par ex. données issues de traces numériques) et aussi à l hybridation des méthodes issues de différentes disciplines. La recherche en [pseudonymisé] à Grenoble est très active pour proposer des protocoles de collecte de données innovants permettant de produire des connaissances renouvelées issues du croisement de plusieurs champs disciplinaires. Plusieurs programmes de recherche interdisciplinaires (voir les CDP, CD-Tools) menés sur le site grenoblois travaillent en ce sens avec des études menées sur la région grenobloise et sa population. Dans la perspective de produire des connaissances sur les processus sociaux et spatiaux à l œuvre sur ce territoire, la possibilité de pouvoir construire des dispositifs d observation (de collecte) pérennes s avère cruciale. En effet, la mise en place de cohortes longitudinales, de panels d usagers, de systèmes d information géographique à différentes dates permet de constituer des corpus de données qui sont essentiels pour analyser en continu et en profondeur les processus de changement à l échelle des individus (changement de pratiques, comportements) et des groupes sociaux et d étudier leurs effets sur la structure/composition des espaces/territoires de la région grenobloise. Seuls, les programmes de recherche conduits sur des financements de courtes durées ne peuvent pas porter l ambition de ces dispositifs pérennes d observation. Disposer de l appui d une plateforme d ingénierie de haut niveau de qualification leur bénéficierait très utilement. On liste rapidement ci-dessous des missions concrètes sur lesquelles ces ingénieur es seraient utiles : Missions d appui et d accompagnement aux chercheurs dans la fabrique de leurs plans de gestion de données (ce qu une cellule comme Ariane au sein de Pacte ne peut faire ; les autres laboratoires n ayant pas l équivalent non plus) : les chercheurs ont besoin non seulement de sensibilisation mais aussi d être accompagnés dans la réalisation d une V1 du PGD, à charge pour elles et eux de le faire évoluer ensuite au fil du projet. Missions d accompagnement sur les questions liées aux droits des données comme par exemple la propriété intellectuelle, le droit d auteur, le droit des bases de données ou encore la réglementation sur les données à caractère personnel fortement présentes dans les dispositifs [pseudonymisé] La jeune recherche et en particulier les doctorant.e.s est un public qui gagnerait à être visé de manière prioritaire pour ancrer une culture de la gestion des données en [pseudonymisé] : faire un plan de gestion de données pour une thèse devient un passage obligé or les directeur.trices ne sont pas encore tous et toutes assez porteurs de ce discours Il faudrait donc prévoir, en lien avec les ED et les laboratoires, de l accompagnement des doctorant.e.s mais aussi travailler spécifiquement auprès de ces encadrant.e.s pour les sensibiliser / renforcer leurs connaissances des enjeux et des outils, ressources disponibles (à relayer vers leurs doctorant.e.s) </contexte_scientifique><description_precise_des_besoins_identifies>Les besoins sont relatifs à la collecte et ll organisation de corpus de données longitudinales complexes : enquêtes, données spatiales et temporelles individuelles liées à la mobilité et l activité physique, données environnementales (bases de données géographiques, pollution). Ils portent sur quatre missions principales de l ingénieur : - La coordination de collectes de données et notamment de gestion de cohorte de volontaires suivis sur plusieurs années ; - La production et mise à jour des documents descriptifs des protocoles de collecte, des modes d emploi, des outils de collecte, des métadonnées des corpus de données (1ère étape des principes FAIR) ; - L appui à l organisation en base de données relationnelle (des données des différents corpus collectées) partagée et utilisée par un collectif interdisciplinaire ; - L appui à l extraction d indicateurs sur les données au travers de scripts ou requêtes utiles à la production de connaissances sur les corpus. </description_precise_des_besoins_identifies><competences_techniques_necessaires>Les compétences techniques associées aux missions décrites ci-dessus sont : Gestion de la cohorte : coordination du recrutement et du maintien des volontaires, coordination des équipes de terrain (évaluation des besoins, recrutements et formation des enquêteurs.trices, supervision des collectes) ; Gestion et suivi des outils de collectes : Sphynx (notamment), capteurs embarqués (mobilité, activité physique, pollution) ; Suivi des données collectées et extraction d indicateurs : organiser et assurer la chaîne de stockage, organisation et sécurisation des données personnelles, contrôler la qualité des acquisitions, produire des indicateurs de description des corpus (outils statistiques R, outils de visualisation des données pour le partage : dashboard) ; Conception de documents de synthèse et formalisation des métadonnées ; Appui à la conception et à l organisation de la base de données relationnelles. </competences_techniques_necessaires></row>
<row _id="49"><answer_index>PACTE--48</answer_index><lab>PACTE</lab><equipe_de_recherche>L équipe de recherche est composée d une quarantaine de chercheurs et d ingénieurs structurés autour de trois axes de recherche rattachés à trois laboratoires : PACTE à Grenoble, le LEST à Aix-en-Provence, et le LISST à Toulouse. </equipe_de_recherche><presentation_du_projet>L ANR vient d accorder un financement conséquent (700 K distribués entre trois UMR : Pacte, le LEST à Aix-en-Provence et le LISST à Toulouse) pour la poursuite pendant 4 ans (jusqu en 2027) d un programme de recherche initié par XXX en avril 2020. Ce programme vise à enquêter sur les conséquences sociales de la crise sanitaire. La recherche s inscrit dans le prolongement de l enquête Vico, menée depuis 2020 avec le soutien d un premier financement Flash de l ANR, et qui a déjà permis de réaliser 3 vagues d enquêtes par questionnaire auprès de plusieurs milliers de personnes, et plus de 300 entretiens. Le programme [pseudonymisé] a des besoins importants en ingénierie des données, que le financement de l ANR (absorbé en grande partie par les contrats doctoraux) ne suffit pas à couvrir. La diffusion ouverte de la première vague d enquête sur PROGEDO Quételet a pris du retard pour cette raison, et des incertitudes pèsent actuellement sur la capacité des équipes à démarrer le nouveau programme dans des conditions satisfaisantes, en raison de manques de moyens humains en matière de gestion de panel en particulier, mais aussi de collecte, de traitement et de diffusion des données. </presentation_du_projet><objets_de_la_demande>Curation des données Enrichissement des données (annotations, etc) Diffusion et édition des données Accompagnement juridique (RGPD, PI) Formation </objets_de_la_demande><contexte_scientifique>Le soutien demandé pour ce projet s inscrit dans une synergie générale rassemblant plusieurs projets d ouverture des données [pseudonymisé] au sein du laboratoire Pacte, ou en collaboration entre plusieurs laboratoires. Dans ce contexte scientifique qui couvre l ensemble des composantes du processus de traitement de la donnée, depuis la collecte jusqu à la diffusion et à la valorisation, il nous semble important non pas de seulement décrire les spécificités du projet, qui sont indiquées plus haut, mais d indiquer dans cette rubrique plusieurs points sur lesquels il nous semble important de mettre l accent pour assurer une coordination optimale des affectations de moyens en regard de besoins largement partagés par ces différents projets portés par le laboratoire . Nous insistons donc sur : L importance que les ingénieurs recrutés soient de formation et de socialisation [pseudonymisé] pour qu ils et elles comprennent bien les besoins spécifiques aux [pseudonymisé], La disponibilité des membres de Pacte pour participer à la rédaction des profils de poste et à ces jurys de recrutements. L intérêt d apporter de l aide sur des projets en élaboration et d autres déjà en cours sur lesquels des besoins ont été identifiés mais sont difficiles à satisfaire par manque de moyens humains. L enjeu de considérer tout le cycle de vie de la donnée depuis la collecte jusqu à l ouverture, la diffusion, mise à disposition voire la réutilisation (du type Bequali). Cet ensemble de besoins touche à la fois la diffusion et la documentation des données, et les activités en amont. En effet, les méthodes de collecte des données en [pseudonymisé] (enquêtes, interventions, observations, entretiens) profitent de nombreux développements liés à l accès à des sources d observation renouvelées (par ex. données issues de traces numériques) et aussi à l hybridation des méthodes issues de différentes disciplines. La recherche en [pseudonymisé] à Grenoble est très active pour proposer des protocoles de collecte de données innovants permettant de produire des connaissances renouvelées issues du croisement de plusieurs champs disciplinaires. Plusieurs programmes de recherche interdisciplinaires (voir les CDP, CD-Tools) menés sur le site grenoblois travaillent en ce sens avec des études menées sur la région grenobloise et sa population. Dans la perspective de produire des connaissances sur les processus sociaux et spatiaux à l œuvre sur ce territoire, la possibilité de pouvoir construire des dispositifs d observation (de collecte) pérennes s avère cruciale. En effet, la mise en place de cohortes longitudinales, de panels d usagers, de systèmes d information géographique à différentes dates permet de constituer des corpus de données qui sont essentiels pour analyser en continu et en profondeur les processus de changement à l échelle des individus (changement de pratiques, comportements) et des groupes sociaux et d étudier leurs effets sur la structure/composition des espaces/territoires de la région grenobloise. Seuls, les programmes de recherche conduits sur des financements de courtes durées ne peuvent pas porter l ambition de ces dispositifs pérennes d observation. Disposer de l appui d une plateforme d ingénierie de haut niveau de qualification leur bénéficierait très utilement. On liste rapidement ci-dessous des missions concrètes sur lesquelles ces ingénieur es seraient utiles : Missions d appui et d accompagnement aux chercheurs dans la fabrique de leurs plans de gestion de données (ce qu une cellule comme Ariane au sein de Pacte ne peut faire ; les autres laboratoires n ayant pas l équivalent non plus) : les chercheurs ont besoin non seulement de sensibilisation mais aussi d être accompagnés dans la réalisation d une V1 du PGD, à charge pour elles et eux de le faire évoluer ensuite au fil du projet. Missions d accompagnement sur les questions liées aux droits des données comme par exemple la propriété intellectuelle, le droit d auteur, le droit des bases de données ou encore la réglementation sur les données à caractère personnel fortement présentes dans les dispositifs [pseudonymisé] La jeune recherche et en particulier les doctorant.e.s est un public qui gagnerait à être visé de manière prioritaire pour ancrer une culture de la gestion des données en [pseudonymisé] : faire un plan de gestion de données pour une thèse devient un passage obligé or les directeur.trices ne sont pas encore tous et toutes assez porteurs de ce discours Il faudrait donc prévoir, en lien avec les ED et les laboratoires, de l accompagnement des doctorant.e.s mais aussi travailler spécifiquement auprès de ces encadrant.e.s pour les sensibiliser / renforcer leurs connaissances des enjeux et des outils, ressources disponibles (à relayer vers leurs doctorant.e.s) </contexte_scientifique><description_precise_des_besoins_identifies>Les besoins portent sur trois phases distinctes du processus de traitement de la donnée : Gestion du panel. Collecte des données par la réalisation de vagues d enquêtes par questionnaire. Curation des données en vue de leur diffusion sur les plateformes du type de celles de PROGEDO ou du CDSP (Quételet, BeQuali ). </description_precise_des_besoins_identifies><competences_techniques_necessaires>Gestion d un panel (rafraîchissement, recrutement, maintien, extraction de contacts en fonction des demandes des chercheurs) de plusieurs milliers de répondants interrogés plusieurs fois par an par questionnaire et par entretiens. Conception et mise en ligne de questionnaires avec Lime Survey. Anonymisation, curation et documentation des données en vue de leur diffusion ouverte. Rédaction de notes et de billets, animation du carnet Hypothèses (OpenEdition) du projet ANR. </competences_techniques_necessaires></row>
<row _id="50"><answer_index>PUD--49</answer_index><lab>PUD</lab><equipe_de_recherche>Co portage Plateforme Universitaire de Données Grenoble-Alpes (PUD-GA) et PACTE. Soutien de la MSH et du GRICAD.</equipe_de_recherche><presentation_du_projet>Ce projet vise à proposer de nouveaux services aux chercheurs de l UGA des pôles SHS et PSS pour transformer, analyser et/ou développer des données audio, textes, images et vidéo. Nous nous sommes concentrés pour l instant sur la retranscription automatisée de fichiers audio. Une maquette de plateforme Web a été construite avec WinDev et mise en production. Les chiffres de fréquentation de la maquette existante (tournant autour d une vingtaine de fichiers audios transcrits par jour avant la période estivale) témoignent d une demande importante. Nous souhaitons remplacer la maquette existante par une application construite avec des langages de programmation plus récents afin de ne pas être limité dans la suite du développement de ce projet. Une ouverture du code est aussi souhaitée pour que le principe de cette plateforme puisse être répliqué dans d autres universités.</presentation_du_projet><objets_de_la_demande>Développement d une application Web et de son premier service de retranscription automatisée.</objets_de_la_demande><contexte_scientifique>Les progrès des outils, notamment basés sur l intelligence artificielle, sont aujourd hui importants mais pour de nombreux chercheurs, ils peuvent être difficiles d accès. De plus, certains outils demandent des ressources en calcul qui dépassent parfois les capacités d ordinateurs individuels pour obtenir de bons résultats. Des services payants existent (type Noota pour la retranscription de fichiers audios) mais ils ne rentrent pas dans le cadre du RGPD. En conséquence, le projet [pseudonymisé] a pour objectif de proposer une interface simple qui mobilise les ressources en calcul du GRICAD pour obtenir de bons résultats tout en étant en accord avec le RGPD. </contexte_scientifique><description_precise_des_besoins_identifies>Le premier travail est tout d abord celui de la (re)construction d une plateforme Web à partir de la maquette existante mais dans des langages de programmation plus récents. Nous souhaitons ensuite implémenter une détection automatisée des locuteurs et proposer une interface de post-corrections pour répondre à plusieurs demandes qui nous ont été faites. Nous avons déjà commencé à investiguer dans ces directions avec notamment la librairie pyannote1 et le module react-transcript-editor2. Des travaux de développement, d intégration et d optimisation restent à réaliser pour que ces pistes de travail soient proposées en production.</description_precise_des_besoins_identifies><competences_techniques_necessaires>Développement backend en Python (Flask ou Django), PHP (Symfony) ou autres langages et frameworks récents. Une partie des traitements se faisant sur des serveurs du GRICAD où le temps d attente peut être variable, de la programmation asynchrone est à prévoir. Développement frontend : JavaScript. L utilisation de bibliothèques de type Vue.js, React est à prévoir. Méthode Agile pour faire évoluer la plateforme en fonction des besoins utilisateur et non pas appel à projet, rédaction de cahier des charges et attente de disponibilité d'une ressource.</competences_techniques_necessaires></row>
</data>
