Stage au sein de l’équipe FinOps qui a pour objectif d’optimiser l’utilisation
du cloud (Azure, GCP, OCI) afin de réduire les coûts. Mise en place d’outils
Page
1
of
3
d’analyse et d’ateliers d’architecture, Introduire les best practices du Cloud.
Intervention en amont dans la validation de l’architecture et le budget
nouveaux projets arrivant dans le Cloud
Responsabilités
- Développement de scripts pour la collecte de données liées à l'infrastructure
cloud. - Déploiement de scripts sur Kubernetes et Azure Function.
- Analyse approfondie des coûts liés à l'infrastructure cloud.
- Identification des opportunités d'optimisation des coûts cloud.
- Élaboration de stratégies d'abonnement/contrats à long terme (Reserved
Instance & Saving Plan pour Azure). - Automatisation du processus de chiffrage avec Azure OpenAI.
##Livrables
Conduite de revues avec les équipes projets pour la mise en place des
mesures d'optimisations.
Réduction significative des coûts de l'infrastructure cloud grâce aux mesures
d’optimisations .
Conception et développement d'une application dédiée à l'automatisation du
chiffrage, intégrant les technologies Azure OpenAI et LangChain.
##Environnement technique - Plateformes Cloud: Azure - GCP
- Technologies : Kubernetes - BigQuery - Azure OpenAI
- Langage de programmation : Python
• Infrastructure as Code (IaC) : Déploiement et gestion de clusters GKE via
Terraform, garantissant une infrastructure scalable et reproductible.
• Exposition sécurisée des services : Configuration de l’accès interne/externe
avec Nginx Ingress, Private Service Connect et Load Balancers Google Cloud,
sécurisé par Google Cloud Armor contre les attaques DDoS.
• Monitoring et gestion des incidents : Déploiement d’une stack monitoring
(Prometheus, Grafana, Alertmanager) avec intégration à PagerDuty pour une
réponse rapide aux incidents.
• Gestion des secrets : Synchronisation des secrets Kubernetes et Vault via
Vault Secret Operator pour une gestion centralisée et sécurisée.
• Pipeline de données :Conception d’un pipeline avec Dataflow pour
acheminer les logs vers Splunk, permettant une analyse centralisée.
• Automatisation CI/CD : Mise en place de pipelines d’intégration continue
avec GitLab CI pour accélérer les déploiements et améliorer la fiabilité.
- Conception et création de solutions logicielles pour résoudre des problèmes
pour divers clients. - Étude de faisabilité d'une migration vers une architecture de microservices
- Mise en place d'un pipeline DevOps s
École Polytechnique de Thiès
Page
2
of
- Développement et déploiement de l'espace numérique de travail de l'Ecole
Polytechnique de Thiès - Test et perfectionnement du logiciel avant le déploiement
- Anglais
- Français