Intern Macro Data Scientist
# Intern Macro Data Scientist## Quant
Cube Technology recrute !
Quant
Cube recherche un(e) stagiaire en fin d'études (Bac+5), rigoureux(se) en programmation Python. Au sein de l’équipe de macroéconomie, vous participerez au développement et à l’amélioration de nos pipelines de prévision instantanée pour les principaux indicateurs économiques (tels que le PIB, la consommation des ménages, les offres d’emploi, etc.). Dans le cadre de cette équipe, vous chercherez à concevoir des modèles qui mesurent l’économie en temps réel en utilisant un maximum de données alternatives.
Votre mission comprendra :---Quant
Cube is looking for a Data Scientist intern in final year of studies (Master's level), rigorous in Python programming. Within the macroeconomics team, you will contribute to the development and improvement of our nowcasting pipelines for key economic indicators (such as GDP, household consumption, job offers, etc.). As part of this team, you will work on designing models that measure the economy in real-time using a maximum of alternative data sources.
Your missions will include:* **Extension of indicator coverage** Evaluate the quality and relevance of data compared to official statistics (like INSEE). Apply statistical and technical methods – time series analysis, data preprocessing, seasonality adjustments, simulations, and modeling – to build macroeconomic indicators. Contribute to the production and evaluation of estimates while familiarizing yourself with our pipeline and upcoming developments.* **Participation in research projects for new indicators** Conduct a literature review and assess the project's market impact to support the team. Analyze associated challenges, identify potential input data, and study underlying dynamics to evaluate feasibility. Participate in the modeling phase by refining the estimation framework to produce advanced economic insights.* **Improvement of the labor market data pipeline** Work on large volumes of high-value data using Big Data tools (Python, AWS, Airflow, Polars) to strengthen your technical skills. Generate scalable and unique analyses on labor market dynamics, linking data to structural challenges such as economic health and employment.* **Extension de la couverture des indicateurs** Évaluer la qualité et la pertinence des données par rapport aux statistiques officielles (comme l'INSEE). Appliquer des méthodes statistiques et techniques – analyse de séries temporelles, prétraitement des données, ajustements de saisonnalité, simulations et modélisation – pour construire des indicateurs macro-économiques. Contribuer à la production et à l'évaluation des estimations, en se familiarisant avec notre pipeline et nos développements futurs.* **Participation à des projets de recherche pour de nouveaux indicateurs** Réaliser une revue de littérature et évaluer l'impact marché du projet pour soutenir l'équipe. Analyser les défis associés, identifier les données d'entrée potentielles et étudier les dynamiques sous-jacentes afin d'évaluer la faisabilité. Participer à la phase de modélisation en affinant le cadre d'estimation pour produire des insights économiques avancés.* **Amélioration du pipeline de données sur le marché du travail** Travailler sur de grands volumes de données à haute valeur avec des outils Big Data (Python, AWS, Airflow, Polars) pour renforcer ses compétences techniques. Générer des analyses scalables et uniques sur les dynamiques du marché du travail, en reliant les données aux défis structurels comme la santé économique et l'emploi.## Profil recherché
- En fin d'études Bac+5 (Master data science, économétrie ou équivalent).
- Solides compétences en programmation Python, y compris la programmation orientée objet.
- Fort intérêt pour l'économie et la finance.
- Maîtrise des modèles de séries temporelles (par exemple SARIMA, VAR, ARCH, etc.) ; des connaissances en apprentissage bayésien et en modélisation espace d'état (DFM) sont appréciées.
- Maîtrise des modèles de machine learning pour la classification et la régression (modèles linéaires robustes, clustering, Random Forest, modèles de boosting, SVM, etc.).
- Niveau avancé en mathématiques, probabilités et statistiques, avec une forte capacité à s'approprier rapidement de nouveaux domaines techniques.
- Anglais courant.*D
- es compétences en mise en production (Cloud, AWS, Docker) et en traitement de données volumineuses (Big Data) seront appréciées.*---
- In final year of Master's degree (Data Science, Econometrics or equivalent).
- Advanced programming skills in Python, including Object-Oriented Programming.
- Strong interest in Economics and Finance.
- Mastery of Time Series models (e.g., SARIMA, VAR, ARCH, etc.); knowledge of Bayesian Learning and State Space Modeling (DFM) is appreciated.
- Mastery of Machine Learning models for classification and regression (Robust Linear Models, Clustering, Random Forest and Boosting Models, SVM, etc.).
- Advanced level in Mathematics, Probability and Statistics, with a strong ability to quickly master new technical domains.
- Fluent in English.*S
- kills in production deployment (Cloud, AWS, Docker) and handling large-scale data (Big Data) are a strong plus.*
#J-18808-Ljbffr