Viveris est un groupe de conseil et d’ingénierie qui accompagne depuis plus de 35 ans la transformation numérique des entreprises et de leurs produits. Nos ingénieurs interviennent dans 4 métiers complémentaires : Les systèmes & réseaux, les systèmes d’information et la transformation digitale, l’informatique technique, et les systèmes embarqués.
Notre pôle informatique scientifique et technique fournit des solutions à la croisée des chemins entre les systèmes d’information, les systèmes embarqués et le traitement des données. Il adresse les systèmes de supervision d’équipements fixes et mobiles en s’appuyant sur des technologies hétérogènes de collecte et de traitement de l’information en temps réel. Pour ces projets, souvent stratégiques pour l’entreprise, nous regroupons historiquement des compétences clés : les réseaux, les télécommunications, les systèmes d’information et le traitement des données. S’engager avec Viveris, c’est l’assurance de relever des défis techniques et humains en travaillant sur des projets innovants dans une ambiance collaborative.
Le poste et les tâches
Votre rôle
Vos responsabilités:
- Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming)
- Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT)
- Assurer la qualité, la fiabilité et la disponibilité des datasets critiques
- Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse)
- Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables
- Contribuer aux choix techniques et à l'évolution de l'architecture data
- Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Profil recherché
Vous êtes reconnu(e) pour :
- votre sens du détail et votre rigueur technique
- votre capacité d'analyse et de résolution de problèmes
- votre autonomie, votre organisation et votre capacité à travailler en équipe
- votre intérêt pour les architectures data modernes et les bonnes pratiques DevOps
La maîtrise de l'anglais professionnel est un plus selon les projets.
Compétences techniques:
- Python / SQL
- Spark / PySpark (ou équivalent)
- ETL/ELT et traitements batch & streaming
- AWS, Azure ou GCP
- Data Lake / Data Warehouse (S3, ADLS, BigQuery, Snowflake...)
- Architectures distribuées : Spark, Databricks, Hadoop
- Tests automatiques, observabilité des pipelines
- Catalogage & gouvernance (Data Catalog, Data Quality tools)
Nos avantages:
- Rémunération attractive et évolutive
- Assurance santé DKV
- Assurance groupe
- Tickets restaurant
- Voiture de fonction ou plan mobilité (sous conditions)
- Primes d'intéressement, de participation et de cooptation
- Jusqu'à 2 jours de télétravail par semaine
- Formation continue via LinkedIn Learning
Vous êtes passionné, technophile, curieux et créatif ?
Alors nous serions ravis de vous rencontrer.