Freelance Scraping & Data Developer, Mission Freelance – Remote (H/F)
Description de l'emploi
Présentation de l’entreprise
Notre client est un éditeur de logiciels en Région Parisienne (plutôt le 77). Ils développent une solution permettant de collecter de l’information au sujet des appels d’offres dans le bâtiment sur des projets de construction / rénovation.
Description de la mission
Notre client souhaite enrichir les informations structurées dont ils disposent dans leur outil en les complétant d’informations disponibles en ligne.
Un certain nombre d’acteurs proposent des informations sur les appels d’offres (par exemple des institutions publiques telles que le BOMP – Bulletin Officiel des Marchés Publics) et il faut être en mesure de les collecter (via API ou via du Scraping).
Une fois ces données collectées, il faut imaginer :
- Des manières de structurer l’information (souvent du texte, PDF),
- Des approches pour faire du rapprochement entre les informations collectées sur différents sites (éliminer les doublons ou agréger des infos de plusieurs sources),
- Une manière de restituer l’information préparée afin de la faire valider par les opérateurs du produit : ceux-ci sont en charge de garantir la pertinence et la qualité de l’information fournie aux clients utilisant la solution.
- L’information provenant des sources collectées via API et via Scraping sera donc in fine ajoutée et intégrée à leur base de données existante une fois validée par l’équipe du client.
L’équipe actuelle comporte 2 développeurs et 1 CTO : ceux-ci sont en charge du produit actuel. Le CTO vous guidera et validera les propositions de solutions et d’architecture que vous proposerez.
– D’un point de vue technique, il faut maîtriser les technologies de scraping (par exemple jQuery/JS et Node.js) et être en mesure de collecter via API des informations (APIs REST ou OpenData selon les fournisseurs).
– La mission peut s’effectuer en Remote (prévoir une visite sur site au démarrage et des points visio-conf au quotidien pour garder le lien avec l’équipe)
Profil recherché
– Technologies de scraping : jQuery/JS – Node.js (cheerio) ou autre framework adapté
– Aisance avec les bases de données quel que soit leur format : SQL / No-SQL / OpenData