Prenderai parte a progetti innovativi contribuendo attivamente al progresso della ricerca europea. Ti occuperai di sviluppare, mantenere, valutare soluzioni big data curando gli aspetti architetturali del processo di analisi dati. Alcune attività rappresentative del ruolo:
- Creare pipeline di dati e processi di elaborazione;
- Automatizzare i processi di gestione dei dati, sviluppando strumenti di automazione per semplificare la gestione dei dati e migliorare l’efficienza dei processi;
- Gestire l’integrità dei dati e definire i livelli di sicurezza dei dati;
- Supportare i Data Scientist e tutto il team, nel processo di data collection e dell’analisi dei dati;
- Monitorare i sistemi di gestione dei dati per garantirne l’affidabilità e la sicurezza.
Qualifiche e competenze richieste:
- Conoscenza delle tecniche di data modeling e capacità di analisi dei requisiti e progettazione architetture di dati scalabili ed efficienti, sia batch che streaming;
- Conoscenza di framework e librerie di data preparation;
- Buona conoscenza di tecnologie per lo storage di dati; database relazionali e non relazionali (MySQL, PostgreSQL, MongoDB e Cassandra); padronanza del linguaggio SQL;
- Competenze in Python, Java, Scala e Ruby;
- Conoscenza delle tecnologie di big data come Hadoop, Spark e Kafka;
- Conoscenza delle piattaforme di cloud computing;
- Competenze di DevOps, Docker e Kubernetes
- Conoscenze su CI/CD, Git
- Conoscenza delle pratiche di sicurezza dei dati e delle normative relative alla governance dei dati (GDPR).