Python > scripts
1) installer Anaconda (outil de développement en Python) https://www.anaconda.com/products/individual
2) ouvrir le Jupyter Notebook (petit logiciel pour créer/tester un script)
3) chercher sur internet le code qui peut nous aider : (exemple https://www.attractys.fr/scraper-sitemap-python/)
Dans un notebook on a des cellules de code, il faut faire Shift+Entrée pour l’exécuter et il indique alors un numéro entre crochets à gauche de la cellule pour nous dire dans quel ordre le code a été exécuté.
Objectif : scraper plusieurs fichiers sitemaps et récupérer toutes les URLs qu’ils contiennent dans une liste.
chercher sur internet le code qui peut nous aider : (exemple https://www.attractys.fr/scraper-sitemap-python/)
Attention dans le cas de Topmercato.com, le site était trop lent et finissait donc par faire planter le script qd j’essayais de le faire tourner “récursivement”, donc j’ai modifié le code pour ne faire que petit bouts par petits bouts >_<
Version v2 plus rapide et efficace, avec qq stats sur le sitemap (proportion de chaque sitemap dans le site entier, fréquence de publication par mois et jour de semaine...)
Objectif : fusionner plusieurs excels qui ont la même structure (colonnes)
Objectif : analyser les MC et groupes de MC qui ont amené le plus de clics/impressions dans la GSC en important un .csv ou en se connectant à l’API de la GSC
Objectif : faire la même analyse sémantique que pour Wesport sur excel, mais avec Python (API de GSC pas limitée à 100, par contre juste requêtes web et Google news (pas Discover)
Objectif : Faire des requête sur Google Trends pour récupérer des tendances (attention par les volumes de recherches hein car c’est ramené sur une base 100)
Objectif : se connecter à la GSC pour récupérer plus de données (pas limité à 1000 lignes comme les exports en csv ou excel depuis l’interface)