Formation Maillage interne
Formation Maillage Interne
1ere étape avant d’analyser la structure et de faire éventuellement des préco :
exporter les MC positionnés et faire un tableau croisé dynamique dans Excel pour voir les pages les plus importantes.
Top mercato : TV, HP, paris sportifs Zeturf, qq articles (Gnews ?)...
- a priori le WP à part avec menu limité sur la partie pari sportif est pas mal vu qu’il utilise le déséquilibre du reste du site vers cette partie
Cultura : site de 4M de pages avec mega menu, inutile de tout crawler pour analyser la structure, on peut se limiter à 10K d’url (protection = Datadome qui protège le site, il faut alors white lister un user-agent ou un outil comme Botify)
visualisation 10K est même difficile, impossible avec Screaming Frog mais ça va lagguer à mort… utiliser plutôt cocon.Se et la comparaison est plus facile aussi sur le Avant/Apres car cocon.se garde la même place pour les rubriques
Sur cocon.se on peut paramétrer plusieurs crawl pour simuler des suppressions d’une rubrique complète par exemple
SF visualisation il faut afficher le Link Score
STRUCTURE
pour organiser, on fait souvent brainstorming pour créer arbo pour humains
alors que les robots de Google parcourent la HP et les liens et essaye de comprendre
En amont : s’imprégner au maximum de l’univers, des tenants et aboutissants… de son marché… aux objectifs (court/moyen/long)
et selon objectifs on peut travailler stratégie, attention prévenir le client car bonne position sur un MC important peux augmenter et engorger le flux de la boite, donc parfois il faut décaler certaines précos pour que tout n’arrive pas trop vite pour la boite…
court terme : quick win et longue traine
moyen terme : moyenne traine
long terme : les top MC génériques, le côté media…
Le CRAWL c’est la base de tout
Si site bien structuré on peut redessiner toute la base de données et les liaisons
Navigation transversale = MARQUE, critères de produits…
Navigation verticale = catégorie de produit
Crawl de page en page, il y a tjs un chemin plus court que les autres et ce chemin est censé apporter du “sens”/ du contexte, dans SF : clic droit sur une URL du listing > Export > Crawl Path Report
donc les différents chemins d’accès à une page apportent du contexte et enrichissent l’info sur cette page finale
NIveau de profondeur (sur les schema Cocon.se correspond aux couleurs, sur SF on est obligé d’afficher par niveau) => impact sur le Pagerank interne => impact sur le crawl
Google prend aussi en compte la structure d’URL (/), les fil d’ariane, les données structurées
Attention le fil d’ariane en JSON de données structurées n’est pas de façon sûre pris en charge par Google pour le calcul du Pagerank
Surfeur aléatoire => créé et utilisé au début de Google, la proba de cliquer sur un des liens de la page est la même pour chaque lien
Surfeur raisonnable => plus tard on considère que lien en HG sera plus cliqué que lien en BD vu le sens de lecture, les liens ne sont pas tous égaux
sitelinks dans SERP : basé sur pagerank interne, éviter de laisser les pages “Mon Compte” etc…
=> nouvelle balise pour empêcher d’afficher dans sitelink ????
Le cocon sémantique et son maillage détaillé permet de cloisonner
plugin WP sister pages, mais juste pour Pages puisqu’il faut hiérarchie et pas articles
post type switcher => plugin qui permet de transformer Article en Pages
pages “passerelles” = dans schema une ligne toute droite avec juste qq pages/points => svt des paginations qui vont lister des pages qui ont des chemins plus courts ailleurs
PAGES ORPHELINES
dans SF => aller dans l’onglet sitemap et afficher les pages orphelines (attention après crawl analysis)
on a svt ça sur des pages produits hors stock, ou des pages marronniers (st valentin…) ou si dans pagination le dev a réglé “si article date de plus de 2 ans”
PARAMETRES D’URL
attention à éviter les URL multiples, si navigation à facette on peut obfusquer les liens sauf si certaines facettes sont pertinentes du point de vue SEO : alors on ouvre le lien et on rend la page indexable
MEGA MENU
ne garder que les têtes de niveau principal, puis qd on est dans un univers ouvrir les liens de son univers
PAGES TAGS :
utile car segmentation différente / croisée
mettre en place une “politique de tag” avec interdiction de créer des tags qui n’ont qu’un seul article…
Nettoyage dans les tags :
supprimer ceux qui sont associés à 1 seul article
si plusieurs articles : positionnés ? trafic ? BL ?...
NAVIGATION A FACETTE
attention qd on a des facettes qui se cochent dans tous les sens et qui génèrent des URL multiples… par defaut il faut tout obfusquer et ouvrir que ce qui nous intéresse
PAGINATION
les pages de pagination elles doivent rester indexables et accessibles en totalité en 3 clics
link rel prev/next même si Google dit que plus utile => bien qd meme car les navigateurs utilisent svt cette url dans next pour précharger la page suivante et accélérer la navigation (cf article sur SEO Hackers)
désoptimiser les pages suivantes (pas de desc)
nb d’article par page à 50 c’est pas mal (attention performance)
si infinite scroll laisser pagination en display none
si pagination trop profonde, il est temps de faire des sous-cat
tjs garder la page 1 dans la liste des pages suivantes, vu que c’est celle qu’on veut voir ranker
FIL D’ARIANEles différents liens du fil d’ariane permettent de “lisser” le pagerank (la tête de rubrique en reçoit plus du coup)
eventuellement en haut en obfusqué et en bas en lien en clair pour Google (si on veut que les 1er liens croisés par Google soient ceux opti dans le corps du texte)
LIENS FONCTIONNELS
page contact, délais livraison etc… on peut obfusquer et ça permet de ne pas les voir remonter en sitelinks dans la SERP
option : créer une page “liens utiles” et regrouper les liens vers les pages de ce type et dans le maillage on garde que cette page
MAILLAGE INTERNE :
on peut faire ce qu’on veut, inutile de le schématiser et cela ne sera pas visible dans les schema cocon.se
PAGES ZOMBIES
exemple du site tirage-gagnant.com, ils ont commencé en 04/2020 avec analyse cocon.se et il y a avait bcp de grosses archives => elles sont passées en noindex et en 01/2021 le schema est plus propre…
sur la courbe des NB de mots clés, baisse de Avril à janvier :( mais sur la vision du trafic en fait grosse progression, donc perdu plein petits MC pourris mais ça a concentré le crawl sur pages utiles
MODELISATION DE L’ARCHI de chaque template
sur un mindmap permet de comprendre et prendre du recul et de pouvoir proposer des preco au developpeur par template et par bloc de contenu (supprimer tels liens, obfusquer ceux là)
GEPHI => slides pour tuto, mais clairement pas bien… donc rester avec cocon.Se et SF, ils sont complémentaires
SEOlyzer => prochain outil visualisation indispensable ? Doeurf va surement collaborerer avec créateur
OBFUSCATION => script sur slide = conseillé car s’il saute SF pourra le revoir, alors que ceux en base64 etc s’ils ont un souci on s’en rend pas compte par exemple… ne pas utiliser de crawl sur user agent
Slides et vidéo de la formation : à venir (il encode et nous envoie ça)
https://www.trikaya.fr/documents/Formation-structure-session-03-06-2022.mp4
https://www.xmind.net/download/xmind8/