Une rencontre fortuite
Guillaume Pitel : Bonjour Samir, je suis ravi de te recevoir aujourd’hui pour cette interview. Je suis tombé sur ton site PageRadar un peu par hasard et quand on est rentrés en contact, je ne savais pas du tout que tu étais français, je ne savais pas du tout qu’il y avait un acteur du SEO français derrière le site.
Voici ce qui s’est passé : il y a quelques semaines (mois), on a lancé le projet Ibou, et IbouBot, le crawler de notre futur moteur de recherche, a commencé à crawler à peu près début août. Comme on a par ailleurs un autre crawler sur Babbar qui s’appelle Barkrowler, on suit régulièrement notre position sur le radar Cloudflare qui donne le classement des crawlers sur le web.
Et donc IbouBot, ça faisait deux mois, deux mois et demi qu’on leur avait dit, à Cloudflare : « Coucou, on est là » et ils ne nous captaient pas.
Je cherchais donc à vérifier si on crawlait bien le web. J’ai cherché simplement le nom de notre crawler sur Google.
Avant toi, j’avais trouvé un post de blog sur le site de WAF360, qui datait du 15 août, donc quelques jours après qu’on ait démarré le crawl. Ils nous avaient détecté au tout début de notre crawl, alors qu’on venait juste de commencer, et IbouBot apparaissait déjà en position 120. De manière amusante, un autre moteur français bien installé était sur leur classement en position 125.
Autre chose remarquable, c’est que j’ai vu dans leur classement chez WAF360 que Barkrowler était 12ème mondial. Ça commence à avoir du poids quand on sait que derrière tu as des acteurs comme Google Bot, Bing, Cloudflare aussi, et ChatGPT, Perplexity etc. qui crawlent avec des moyens considérables.
J’ai continué à chercher d’autres potentiels observateurs du web et du crawl surtout et j’ai trouvé ta page avec le classement des crawlers. Tu nous avais mis dans les crawlers IA, alors qu’on est avant tout un Search Engine.
Je me suis dit « Il nous a vu, mais la page d’IbouBot pourrait être améliorée. » Je t’envoie un mail : « Hi we’re not an AI crawler, … », j’ai mis un lien vers notre manifeste, vers des ressources complémentaires. Et tu m’as répondu dans la foulée.
Samir Belabbes : Je ne sais plus si je t’ai répondu en français ou en anglais, mais en tout cas, j’ai capté que tu étais français.
Guillaume Pitel : Oui, je t’ai proposé de faire une interview parce que ça m’intéressait ce que tu avais fait.
Samir Belabbes : Je pense que c’est parce que tout le site est en anglais.
Guillaume Pitel : Effectivement, tout le site est en anglais. Et donc voilà comment on s’est rencontrés, par hasard, parce que je cherchais pourquoi Cloudflare ne nous mettait pas sur son radar. Et j’ai eu la réponse finalement parce qu’après un petit message sur Bluesky, le jour même on est apparu et on était 50ème mondial des crawlers et 8ème sur les search engines. Ils avaient oublié de cocher la case « visible »…
Bon j’ai beaucoup trop parlé. J’ai prévu dans cette interview de t’interroger sur différents aspects : d’abord, toi, ton parcours, comment tu es arrivé dans ce monde, comment aussi tu as vécu ton expérience du web en général, les moteurs de recherche. Et puis, comment tu as vécu l’arrivée de l’IA générative dans ce petit monde, puisque tu es jeune (plus que moi en tout cas :-).
Le parcours de Samir : du développement personnel au SEO
Samir Belabbes : Merci beaucoup pour l’invitation, le mail m’a fait super plaisir et je prends toujours beaucoup de plaisir à faire ce genre d’entretien.
Pour commencer sur le parcours, je suis dans le SEO depuis à peu près huit ans, et de manière non officielle depuis un peu plus, donc depuis environ 11 ans. Il y a 11 ans, en fait, je créais mon premier site qui avait du trafic SEO. C’était un site plutôt passion. Au bout d’un certain temps, via le nombre d’articles que je publiais, via des liens naturels que j’avais parce que le contenu était plutôt de qualité je pense, j’ai fini par avoir des visites tous les jours : 50 visites, 100 visites, 150, 200 à 300.
C’est un site qui parlait de développement personnel, de méditation, de choses qui me parlaient. Et c’est aussi avec ce site que j’ai fait mes premiers euros. Je faisais un peu d’affiliation Amazon, principalement des commissions vers des recommandations de livres que j’allais recommander sur la méditation, le développement personnel, etc. Donc c’était de toutes petites commissions, vraiment : 40 centimes, 50 centimes à chaque fois. Ce n’était pas ça qui aurait pu me faire un salaire, mais par contre, c’était mes premiers euros.
À côté de ça, et à l’époque c’est quelque chose qui marchait plutôt bien, je faisais aussi un infoproduit : je vendais un PDF, qui était une sorte de recueil de développement personnel que j’avais pris plaisir à faire à l’époque, et qui était une espèce de synthèse de tous les livres que j’avais pu lire.
Cette expérience, je l’ai faite pendant trois, quatre ans. J’animais aussi, j’allais sur des communautés Facebook pour avoir du trafic, pour avoir des gens qui s’inscrivent à ma newsletter, avoir une espèce d’effet boule de neige et avoir un peu plus de trafic que celui de Google.
Il faut savoir qu’à cette époque, je ne savais pas ce qu’était le SEO. J’avais plein de visites à mon niveau, mais je ne savais pas ce qu’était le SEO. Je savais ce qu’était Google, mais je ne savais pas spécifiquement que des gens tapaient des requêtes, qu’il y avait un certain nombre de personnes qui tapaient chaque requête tous les mois dans une fourchette de volume.
Et une fois que j’ai compris ça, c’était en 2017, juste avant que je commence à travailler dans le SEO. Il y a un truc qui s’est débloqué dans ma tête. Je me suis dit : en fait, j’ai réussi à avoir ces résultats un peu en autodidacte, je n’ai pas fait d’étude pour ça. Du coup, j’ai commencé à essayer d’apprendre tout ce que je pouvais sur le SEO. Je me rappelle, à l’époque, j’avais suivi une espèce de module gratuit sur Moz qui était une formation de Rand Fishkin sur 10 modules. Il expliquait ce qui est important en SEO : le contenu, la popularité, la structure de ton site, le maillage interne, la technique, etc.
Et une fois que j’ai compris ça, j’ai commencé à postuler à des offres d’emploi dans la thématique. Il faut savoir qu’avant, je sortais d’une année d’études où je venais d’avoir ma licence. Je devais faire un master interprète langue chinois-français, donc j’avais fait une licence de Chinois. J’ai été refusé parce que je n’avais pas assez d’anglais dans mon cursus. À ce moment-là, dans ma tête il s’est passé un truc. Je me suis dit : c’est peut-être l’univers qui me dit que ce n’est pas pour moi cette carrière. Du coup, j’ai totalement switché, j’ai focalisé sur le SEO, j’ai cherché un emploi.
Je me rappelle, j’ai postulé à plusieurs offres, plutôt de rédacteur web. C’était un peu le poste le plus simple d’accès. J’ai envoyé plein d’offres et l’une d’entre elles, c’était chez le comparateur d’assurances MeilleurAssurance qui était la branche assurance de MeilleurTaux. Ils ont un bureau à Lille et à l’époque, le responsable SEO m’a reçu, pas pour cette offre de rédacteur, mais plus pour une offre de chef de projet SEO en stage.
Il m’a un peu pris sous son aile. Le fait que j’avais déjà un site qui faisait un peu de trafic SEO, ça lui a plu, le fait que j’aie un peu d’expérience pratique. Et j’ai commencé par la base : beaucoup de netlinking, faire des liens forums, ce genre de choses, faire des liens profil, essayer de trouver des opportunités de liens gouvernementaux, éducationnels, etc. Et à côté, quand même : maillage interne, aller sur Screaming Frog, lancer un crawl, vérifier qu’il n’y a pas de liens cassés, des liens en 404, des images sans alt, etc. Vraiment la base.
J’ai fait ça pendant six mois, tous les jours, je devais faire entre 5 et 10 liens par jour. À côté de ça, je devais monitorer les concurrents : sur quel mot-clé ils se placent, est-ce qu’il y a des opportunités de mots-clés à aller chercher, est-ce qu’ils ont des nouveaux contenus, etc. J’ai fait ça pendant six mois, ça me plaisait énormément.
À la fin de ce stage, j’ai eu une offre pour rester en CDD, donc pendant six mois de plus. Et à ce moment-là, mon ancien responsable SEO, qui était plutôt Grey Hat, est parti. Il s’est focalisé sur ses autres projets. Un autre responsable SEO est venu qui, lui pour le coup, était White Hat. Il venait d’agence, vraiment hyper intéressé par tout ce qui est structure de sites, cocon sémantique, stratégie de contenu, etc. Faire du propre, avoir des logs parfaits, etc.
Ça m’a permis de voir, comme ça en deux expériences, que le SEO, ce n’est pas une seule vérité, mais que c’est fait de nuances. Que chaque projet est différent, que chaque site va avoir ses points forts, ses points faibles, et qu’à chaque fois il faut essayer de se focaliser sur l’espèce de loi de Pareto : faire le 20% qui va rapporter 80%, et une fois qu’on l’a fait, se focaliser sur le reste.
Au total, j’ai fait un an là-bas. Vers la fin, au bout de sept mois, j’ai eu des contacts de plusieurs personnes. J’avais SEOHackers, donc j’aurais peut-être pu aller travailler là-bas, j’avais une offre de leur part, c’était côté agence. Et j’avais aussi des offres d’annonceurs en chef de projet SEO, et l’une d’elles, c’était NorthStar Network, qui est la boîte où j’ai travaillé par la suite.
L’expérience chez NorthStar Network
Samir Belabbes : Là, on arrive dans une thématique qui est différente : c’est le paris sportif et casino en ligne, monétisé via de l’affiliation. En fait, on apporte et on donne de la visibilité aux opérateurs de paris sportifs : Betclic, William Hill, etc. Et en échange, la société est rémunérée pour chaque lead qu’elle apporte, soit avec un coût fixe, soit avec du partage de revenus à chaque fois que l’utilisateur va parier en ligne, à travers une trentaine de géographies de pays : la France, mais la France étant à l’époque pour nous un petit marché, c’était surtout les autres marchés : Europe de l’Est, États-Unis, Amérique latine, Espagne, etc.
Cette expérience a commencé à m’ouvrir les chakras sur le fait qu’en fait, en SEO, même en étant par exemple francophone comme c’est notre cas, on peut potentiellement attaquer n’importe quel pays parce qu’il y a des outils qui existent de traduction, aujourd’hui encore plus avec l’IA, c’est encore plus simple de s’assurer de la qualité. Et ça m’a ouvert l’esprit sur : « OK, en fait, si je fais un projet de site d’affiliation sur le côté, je ne vais pas faire que français, je vais peut-être commencer en français sur le domaine principal et tout le reste, par contre je vais attaquer /es, /it, etc. »
Et c’est ce que j’ai fait à l’époque. Quand je suis arrivé chez NorthStar, j’ai créé un site d’affiliation qui s’appelle OutilsWebMarketing.com que j’ai laissé expirer il y a très peu de temps et j’ai mal au cœur, je n’aurais pas dû le laisser expirer. Il faisait des comparatifs sur des outils SaaS : comparatif email, comparatif meilleurs CRM, faire des articles, des avis, des promos, etc. J’ai fait ça pendant quelques années.
Et au bout d’un moment, ce site a commencé à me rapporter plus d’argent que chez NorthStar. En très résumé, je suis resté un an et demi chez NorthStar. Je suis parti à peu près au moment du Covid pour me focaliser sur mon site d’affiliation. Ça a plutôt bien marché, mais pendant le Covid, je travaillais que chez moi. J’ai eu, comme je pense 80% des personnes pendant le Covid, une petite déprime de rester tout le temps à la maison et de ne pas avoir de collègues. Donc pendant un an j’ai fait ça, et je suis revenu un an plus tard chez NorthStar en tant que chef de projet SEO.
Et au bout de deux mois, le responsable m’a proposé de prendre le poste de responsable SEO. Parce que j’ai ce côté très structuré dans ma tête, en même temps je viens un peu du Grey Hat et Black Hat, et je viens aussi de l’opérationnel en autodidacte. Du coup, j’ai ce côté où je suis toujours intéressé par ce qui se passe dans le SEO, je suis toujours intéressé par comment on se positionne, par les nouveaux usages, par l’IA, par tout ce qui se passe, par tout ce qui peut optimiser notre processus de travail et notre performance.
Petit à petit, l’équipe s’est agrandie. Au départ, on était trois en SEO, et à la fin, il y a à peu près six mois, j’avais une équipe de 15 en SEO : des team leaders SEO, des chefs de projet, une personne en charge du netlinking, une responsable SEO technique, un profil parmi les chefs de projet qui est plus IA / bricoleur, automatisation.
Avec tout ce qu’il est possible de vivre dans une start-up qui démarre. Je crois qu’à l’époque, quand je suis arrivé, on faisait peut-être 60 ou 70k par mois en CA, ce qui est déjà énorme en affiliation. Il y a six mois, c’était 2,5 à 3 millions par mois en CA. Tout ce qu’il est possible de vivre, du début à la fin, je l’ai à peu près vécu et ça a été hyper formateur pour moi, pour me lancer sur des projets par la suite et d’être plus ou moins confortable et à l’aise.
L’apprentissage du code avec l’IA
Samir Belabbes : Avant de partir de chez NorthStar, ça fait deux mois que je suis parti. La dernière année, j’ai commencé à me former au code. En SEO, même si ça reste une passion, au bout d’un an le plafond de connaissances est assez vite atteint, je trouve. Une fois qu’on a de bonnes bases, de bonnes fondations, et c’est ce qui est important : en technique, en autorité et en contenu. Le niveau, il y a 90% max. Après c’est vraiment du détail. Et après on peut se spécialiser : soit on se spécialise en SEO technique, ou en SEO autorité, ou en contenu. Soit on est un généraliste un peu toute notre vie, on reste manager. Et ça, c’est pas une position qui m’intéressait et je commençais à m’ennuyer. Du coup, j’ai commencé à apprendre à coder.
Il faut savoir que ça faisait des années que je voulais apprendre à coder. À chaque fois que je commençais des tutoriels, je crois que le premier c’était sur Site du Zéro, c’était sur… après sur OpenClassrooms, je ne sais plus. Il y avait plein de sites. Formation PHP, formation SQL, formation JS. À chaque fois, je suivais pendant quatre, cinq heures, et je ne comprenais tellement pas, et c’était contre nature pour moi. Je me disais : « En fait, je ne vais jamais y arriver. » Et à chaque fois j’ai abandonné.
Et cette fois-là, il y a un an, j’ai changé ma façon de réfléchir. Je me suis dit : « En fait, je vais rester, je vais stick avec ça. Je vais tous les jours faire deux heures. » C’était Laravel, du coup, le module que j’ai suivi. « Même si je ne comprends pas, je vais continuer tous les jours, je vais passer deux à trois heures jusqu’à ce que je comprenne. » Je me suis dit : « C’est comme à l’époque où j’apprenais le chinois. C’est de la mémorisation. Au bout d’un moment, il y a des patterns qui reviennent, il y a des structures d’une application qui reviennent tout le temps, peu importe le langage, il y a des façons de travailler, il y a de la syntaxe qui revient. Et à force de les voir, je vais forcément comprendre. Au bout d’un an, si je reste trois heures dessus, je vais comprendre. »
J’ai suivi mon petit tutoriel sur YouTube. En même temps, j’écrivais pareil : je suivais ce que faisait le formateur, j’écrivais mon petit code, j’avais mon petit serveur local. J’ai fait mon petit duo : JobBoard. L’application et le projet, c’est un JobBoard qu’il faut faire en même temps.
Vu que parfois il y avait des bugs et que je n’avais pas forcément la patience non plus de debugger pendant cinq heures – ça m’arrivait quand même de debugger pendant cinq heures – je m’aidais de ChatGPT. Aujourd’hui, ça paraît complètement obsolète maintenant qu’il y a Claude Code, etc., directement dans ton éditeur. Mais je copiais-collais directement l’erreur que j’avais, je copiais limite tout mon fichier – pas les fichiers où il y avait les clés API – mais tous les fichiers. Je disais : « Attention, cette brique, là j’ai cette erreur, etc. »
Et ChatGPT me disait : « Tiens, l’erreur, parce que ça peut être ça, ça peut être ça, ça peut être ça, à toi de voir. » Donc là, j’allais dans mon fichier, je corrigeais, refresh sur le serveur local, bam ! Ah là, ça marche. Et j’ai fait ça pendant deux, trois mois avec ChatGPT en mode vraiment sale. C’est considéré comme sale je pense aujourd’hui, mais j’ai appris à coder avec lui.
Guillaume Pitel : C’est super intéressant, on y reviendra peut-être plus tard. Mais moi, j’en parlais hier avec mon collègue Manu, on posait la question : comment est-ce qu’on apprend un nouveau langage, nous qui avons une grosse expérience des langages, et comment est-ce que des jeunes, entre guillemets, arrivent aujourd’hui à se lancer dans un langage ? Parce qu’en fait, la barrière à l’entrée… alors elle n’a pas vraiment changé, mais ce qui a changé, c’est la barrière à la réalisation d’un truc impressionnant.
On rigolait, il disait : « Moi, quand j’ai commencé, je faisais un cube en 3D, des gens derrière qui regardaient me disaient : ‘Mais c’est magnifique, comment t’as fait, c’est super fluide !' » Et tout aujourd’hui, c’est un claquement de doigts. Alors faire un truc qui impressionne, soit les autres, soit toi-même en dev, c’est pas si évident.
Et d’un certain côté, l’IA peut peut-être aider à faire ses premiers pas. Parce qu’en fait, la clé vraiment pour réussir à démarrer dans un langage, c’est d’avoir un problème à résoudre. Si tu n’as pas un truc à coder, tu n’as pas de raison de développer un truc. Et l’un des premiers trucs qui nous arrive à plusieurs personnes chez nous, c’est : tu as un paquet de datas, tu dois les traiter, comment tu fais ? Tu les mets dans Excel, tu les fais à la main ou tu développes un truc. Bref, on reviendra là-dessus après.
La création de PageRadar : un outil d’alerting SEO tout-en-un

Guillaume Pitel : Tu as commencé à en parler, du coup il va falloir aller plus en détail. C’est un site que tu as lancé il y a combien de temps ?
Samir Belabbes : Je l’ai lancé en mai 2025.
Guillaume Pitel : Tu as une vision très large du champ des possibles autour du SEO, du web, de la présence, etc. Est-ce que tu peux nous détailler un petit peu : qu’est-ce que fait PageRadar ? Une liste de features. À qui c’est destiné ? Est-ce que c’est les super experts, est-ce que c’est monsieur ou madame tout le monde ? Qu’est-ce qui différencie un peu des concurrents ? Et puis effectivement, les Free Tools que tu as développés par ailleurs pour ta propre notoriété, ta visibilité, et puis aussi pour servir un petit peu la communauté, surtout pour les gens qui démarrent d’ailleurs, parce que souvent les gens qui démarrent ont besoin de ces free tools.
Samir Belabbes : Au tout départ, juste rapidement sur la création. Juste après avoir fait mon premier projet avec Laravel, qui était un projet perso programmatique, j’étais encore chez NorthStar en janvier. Mon boss était un peu fatigué d’avoir tout le temps des sites qui soient instables en termes de vitesse. Des fois, on avait des pages Internet qui subitement prenaient cinq secondes à charger, des fois c’était toute une partie du site, etc.
Et il me disait : « J’aimerais bien avoir des alertes de page lente, etc. » Donc là, je me suis dit : « Bon, je vais essayer de faire un truc. » Il m’a dit ça lundi : « Donne-moi cinq jours. » Le vendredi, je me suis rendu compte que ce n’était pas possible de le faire en cinq jours. Du coup je me suis dit : « Attends, t’inquiète pas, j’ai bossé dessus. » Pendant six mois, de janvier à mai 2025, j’ai sorti le SaaS dans un état… c’est pire qu’une bêta, c’est pire qu’une alpha, ce n’était pas terrible.
J’ai itéré petit à petit. Donc la première feature, c’était le monitoring de performance. C’est très simple, je ne vais pas dire que c’est du rocket science. J’utilise l’API de PageSpeed Insights, j’utilise l’API de Crux pour des pages ou pour des groupes de pages, ça peut être intéressant. Donc ça permet de monitorer pour n’importe quel site, plus je pense, des typologies de pages. Tu as envie de monitorer ta typologie catégorie produits pour un e-commerce ? Tu vas monitorer cinq pages produit qui vont être les pages un peu types, les pages qui font le plus de trafic peut-être, ta homepage, et voilà toutes les pages qui sont intéressantes pour toi. Donc ça, c’est la première feature.

Tu as ton dashboard et entre jour à jour, si tu as une des métriques qui baisse, tu vas recevoir une alerte. Avec cette feature, j’ai compris que le plus dur, ça va être la finesse et la granularité des alertes, parce que tu peux très facilement envoyer des alertes qui sont comme un appel au loup. Tu cries au loup, mais en fait il n’y a pas vraiment d’alerte correcte. Les Core Web Vitals, c’est hyper dépendant du device de l’utilisateur, de son pays, de son réseau, etc. Mais voilà, ça permet de faire une espèce de contrôle régulier. Tu te connectes tous les jours, tu vois si ton site est rapide ou pas, tu sais exactement quelle métrique pose problème, le style, c’est lent ou pas. Et si tu veux, tu actives des alertes pour ton site.
Donc là, j’ai commencé sur une feature. On est en 2025 et les Core Web Vitals existent depuis 2018. Donc je me suis dit : ça ne va pas être suffisant de faire un outil comme ça qui est juste un wrapper de PageSpeed. Je me suis dit : très simple, je vais ajouter des features de monitoring petit à petit, et je vais essayer de voir ce qui marche tout simplement. Je vais créer des features de monitoring qui sont utiles pour moi, qui sont utiles pour NorthStar, et s’il y en a qui sont particulièrement intéressantes pour les utilisateurs, j’appuierai dessus, je les affinerai, j’irai plus dans le détail et j’irai plus loin dans la qualité du produit.
Les différentes features de PageRadar
Donc là, j’ai commencé à ajouter après, très simple, genre du uptime monitoring. Je vais ping tous les jours ou toutes les heures tes pages et je vais voir si elles sont en 200, 500, 404, etc. Ce n’était pas resté utilisé pour NorthStar parce qu’on avait beaucoup d’instabilité sur ça.

Et après j’ai ajouté petit à petit le parsing de page. Tous les jours, ça fait un diff pour voir qu’est-ce qui a changé dans tes pages. Ça peut, par exemple, te servir pour monitorer un concurrent, savoir qu’est-ce qu’il a changé sur sa page et toi qu’est-ce que tu peux changer. Ou par exemple, nous, on parlait beaucoup des opérateurs avec qui on travaillait : Betclic, Winamax, etc. Si eux ils ont changé quelque chose sur leurs offres de bonus, de paris sportifs, etc., j’ai mon alerte directement. Donc là, j’ai fait du curl HTTP, parsing HTML avec un diff.
Et après, j’ai ajouté le check de robots.txt. C’est un diff tous les jours : qu’est-ce que j’ai ajouté dans mon robots.txt ? J’ai fait monitoring de sitemap : monitorer tous les jours, est-ce qu’il y a des nouvelles pages, etc. ? Est-ce qu’elle répond en 200 ou pas ?

Et petit à petit, je me suis un peu éloigné du SEO. J’ai ajouté monitoring de Reddit. Donc à chaque fois qu’il y a une mention de marque dans Reddit ou un mot-clé, un ping et tu as un topic qui apparaît. Donc là, ça peut servir si tu as envie d’avoir de la visibilité dans Reddit, qui est en contrat avec Google et qui, du coup, lui aussi est l’un des sites les plus gros au monde. Je pense que c’est top 10.
Après j’ai fait du monitoring de lien d’affiliation. Ça va monitorer toute la chaîne de redirection d’affiliation, vérifier qu’ils sont en 200.
J’ai fait aussi un truc de broken links. Tu peux vérifier si tu as des liens cassés sur une page ou sur un sitemap complet, et je t’envoie une alerte quand il y a un nouveau lien cassé.
La philosophie : l’alerting avant tout
Et voilà, c’est un peu l’idée. Les gens qui viennent généralement, ils ont une feature en tête qui leur plaît et ils vont vouloir utiliser celle-là parce qu’ils avaient vraiment le problème de : « Ah, mon robots.txt, quelqu’un change quelque chose et je ne suis pas au courant, je ne le sais pas et je me rends compte trois jours après. » Ou « dans mon site web, des fois j’ai des liens cassés et je ne m’en rends pas compte, je m’en rends compte deux semaines après. » Donc en fait, c’est tout le temps des gens qui viennent en mode : « J’aimerais bien avoir de l’alerte. » Voilà, c’est vraiment la frustration et le problème de : « Je veux de l’alerting et je veux être au courant dès qu’il y a un problème sur une de mes pages. »
Donc moi, c’est ça que j’avais en tête. Ça commence à avoir de la traction. Là, je commence à avoir 5 à 10 inscrits par jour. Évidemment, tout le monde ne se convertit pas, c’est le plus dur et c’est là où j’essaie un peu d’affiner et de contacter les gens et de voir : pourquoi tu t’es inscrit ? Qu’est-ce qui t’a intéressé ? Pourquoi tu n’es pas allé plus loin ? Est-ce que la version gratuite ça te suffit, etc. ?
L’idée, c’est de faire un petit outil de monitoring SEO qui ne veut pas révolutionner, mais qui est focalisé sur l’alerte. Plus tard, je ferai peut-être monitorer les backlinks. Quand un nouveau backlink arrive, tu le sais. Quand il disparaît ou qu’on t’enlève ton backlink que tu as payé cher, tu as une alerte. Mais toujours autour de cette idée d’alerter, parce que je pense qu’il y a beaucoup d’outils qui font un peu tout. Tu vois, Ahrefs, SEMrush, etc., ils font du ranking, etc. Mais quand un marché est saturé, il faut trouver une sous-niche et être le premier dans cette niche. Et moi, du coup, c’est cette idée de faire un outil d’alerting tout-en-un et à chaque fois de le faire évoluer selon ce que les gens veulent.
Les Free Tools : créer de la valeur pour les utilisateurs
Samir Belabbes : Sur la partie Free Tool maintenant, c’est, je pense, quelque chose qui est indispensable aujourd’hui quand on veut avoir un minimum de visibilité et quelque chose qui permet d’être facilement partagé et repartagé et qui plaît aux gens. Tout le monde aime bien avoir, quand il va au marché, un petit sample gratuit, un petit échantillon de saucisson ou de fromage. Un free tool, je pense, c’est un peu pareil. Ça permet de rendre service aux gens. Il y a quand même beaucoup de recherches sur des mots-clés : « checker », « redirect checker », « status code checker », etc.
Quand on fait un partage sur les réseaux sociaux, généralement, les gens, ça leur plaît, ils mettent ça en favoris. Du coup, interaction sur la page quand ils viennent, parce que souvent c’est des formulaires, etc., ils peuvent configurer le truc. Ils vont rester sur la page parce que peut-être ils vont le réutiliser plus tard, ils vont peut-être revenir parce qu’ils l’ont mis en favori et ils en ont besoin dans une semaine. Et tout ça, ça fait des interactions d’utilisateurs, et ça, c’est pas quelque chose qu’on peut falsifier. On peut le faire avec des outils tiers où les utilisateurs vont aller répliquer les scénarios : « va sur mon site, clique là, etc. » Mais ça, c’est du factice et ça ne m’intéresse pas, moi.
Je veux des utilisateurs à travers le monde qui ont tous, pour chaque free tool, un besoin différent. Il y en a un qui va extraire les domaines d’une liste de domaines, par exemple s’il fait des backlinks. Et à chaque fois, ça va être la même utilisation : ils viennent, ils scrollent, tac, ils restent cinq minutes, des fois 10 minutes, 15 minutes. Et tout ça, c’est de la data qui au bout d’un moment va impacter positivement le site. Si tu as plein d’utilisateurs qui restent 10 secondes, le signal est nul. Et ça, c’est un peu peut-être le cas pour des sites d’affiliation avec du contenu de base qualité.
Mais un site qui va proposer beaucoup de free tools, il va y avoir vraiment des temps sur la page qui sont de 5 à 10 minutes avec 100 événements, 150 événements sur la page. Et tout ça, au bout d’un moment, plusieurs mois, je sens que ça fait effet et que c’est positif dans mes rankings. Ça va m’aider, en plus du contenu de qualité, en plus de l’autorité et des mentions que je fais, etc. C’est ce truc un peu invisible qui, je pense, est hyper important.
Et ça nécessite de sortir un peu du cerveau SEO qui va plus penser à une checklist, mais de se dire : qu’est-ce que je peux faire qui est utile aux gens ? Et plus je fais ça, et plus je sens que les gens viennent, reviennent, mettent en favori, ils en parlent autour d’eux, etc.
Exemple concret : l’agrégateur de news SEO
Dernièrement, j’ai fait un agrégateur de news, c’est-à-dire qu’aujourd’hui des news SEO qui font des articles de blog, etc., j’ai pris 12 sources et tous les quatre heures, je vais parser leur flux RSS. Je vais prendre les derniers articles, je fais un ORDER BY date, je prends le plus récent, je prends l’image, etc. Et hop, je l’affiche dans mon agrégateur. Et ça fait un agrégateur qui permet aux SEO de venir et tous les jours de faire leur veille sur une page au lieu d’ouvrir 15 pages différentes, etc. C’est une petite utilisation, mais je suis arrivé le matin…
Le processus de création de ça, c’est des fois tout bête. J’arrive le matin, j’avais la flemme de me connecter à Feedly que j’utilise, qui est un flux RSS personnalisé aussi. Je me dis : « Je vais créer le mien, je vais faire un flux RSS pour les SEO. » Et donc là je partage, et voilà, toutes les semaines il y a 5 000 personnes qui viennent dessus parce que ça leur est vraiment utile. Et tout ça, ça va dans le sens de faire un outil qui est utile.
Donc ça nécessite, je pense aujourd’hui, quand on fait un produit / SaaS, de se dire vraiment : « OK, je pose mon cerveau SEO à côté et je fais quelque chose d’utile. »
L’annuaire des user agents IA
Donc j’ai fait plusieurs free tools. L’un d’eux, du coup, c’est la liste et une espèce de petit annuaire des user agents IA. J’avais vu un site qui faisait une liste des user agents, je me dis : « C’est très cool, mais par contre c’est moins… » Il faut faire un vrai annuaire, je pense, avec de vraies pages, etc. Parce qu’aujourd’hui on a beaucoup de data sur les user agents, et on avait un peu moins de data sur les user agents IA.
Donc je me suis dit : « Je vais faire une page, je vais faire une espèce de petit annuaire, je vais prendre plein de sources, je vais prendre le radar de Cloudflare, je vais prendre le top 30 qui est sur ces requêtes. » Et j’ai essayé d’analyser : OK, c’est quoi les différents types de bots ? À quoi ils servent ? Est-ce que je vais mettre un lien vers leur documentation, etc. ?
Et voilà, j’ai fait mon maxi prompt dans Claude. Je l’ai généré dans Claude, d’abord la version desktop. Et après, moi je suis dans Claude Code, donc dans mon éditeur de code, j’ai directement mon terminal avec Claude à qui je parle. Je lui ai donné le prompt de Claude qui a fait un peu le cahier des charges de l’annuaire que j’aimerais avoir : des différentes sources, des types de bots qu’on va mettre, des filtres qu’on va mettre, etc. Et ensuite Claude Code m’a généré, et voilà au bout de plusieurs essais d’affinage, etc., la page.
Donc ça, à chaque fois, moi je fais hyper attention au local. Je veux que tout soit parfait, je veux que le lien interne soit parfait, je veux que graphiquement ce soit bien et assez agréable à lire et utiliser. Et pour IbouBot, par contre, je l’ai mis manuellement parce que l’avantage, c’est que je suis tout seul, donc je suis petit, je ne suis pas une grosse boîte qui fait 100 millions. Du coup, dès qu’il y a un nouveau truc, je peux le mettre en cinq minutes.
Et à l’époque, c’était Sylvain qui communiquait un peu sur LinkedIn sur IbouBot. Moi, je trouvais ça cool. Je venais de créer mon espèce de petit annuaire de user agents IA que je mets à jour tous les mois. J’ai eu… j’ai mis à jour du coup mon annuaire avec IbouBot. Tu m’as contacté il y a un mois, je crois, du coup j’ai changé l’annuaire avec la description qui allait bien.
Et voilà, du coup, à chaque fois j’essaie de mettre à jour et de faire mon petit artisan, on va dire, à un petit niveau. J’ai conscience que je ne peux pas concurrencer des gros outils SEO, par contre je peux faire de la bonne qualité à mon niveau sur des outils que je trouve utiles et sur des outils gratuits aussi que je trouve utiles pour les gens. Voilà, c’est ma démarche.
L’expérience du web et l’évolution des moteurs de recherche
Guillaume Pitel : Comment tu as vécu l’évolution du web et des moteurs de recherche depuis que tu t’y intéresses ?
Samir Belabbes : Alors, j’ai commencé vraiment à m’y intéresser vers 2007-2008. À cette époque-là, Google était déjà dominant, mais il y avait encore Yahoo qui se battait un peu. MSN Search qui devenait Bing. C’était encore une époque où on pouvait imaginer qu’il y aurait de la concurrence.
Ce qui m’a le plus marqué, c’est la professionnalisation du SEO. Au début, c’était vraiment du Far West : tu bourrais des mots-clés, tu faisais des liens en masse, et ça marchait. Puis Google a commencé à devenir vraiment intelligent avec Panda, Penguin, tous ces algorithmes qui ont changé la donne.
Guillaume Pitel : Et tu as vu arriver les premiers crawlers IA ?
Samir Belabbes : C’est récent. En fait, pendant longtemps, les crawlers c’était assez simple : Google Bot, Bing Bot, quelques crawlers spécialisés pour les réseaux sociaux, les agrégateurs de news. Et puis soudainement, avec l’explosion de l’IA générative, on a vu débarquer de nombreux nouveaux acteurs.
ChatGPT Bot, Claude Bot, Perplexity, Anthropic… Tous ces crawlers qui aspirent du contenu pour entraîner leurs modèles ou pour alimenter leurs systèmes de RAG (Retrieval-Augmented Generation). Et là, c’est devenu beaucoup plus complexe à gérer pour les propriétaires de sites.
Guillaume Pitel : Qu’est-ce qui pose problème avec ces crawlers IA ?
Samir Belabbes : Plusieurs choses. D’abord, ils sont souvent très agressifs. Ils crawlent énormément de pages, très rapidement, sans toujours respecter le robots.txt. Ça peut mettre à mal ton infrastructure si tu n’es pas préparé.
Ensuite, il y a la question de la valeur échangée. Quand Google Bot crawle ton site, tu sais qu’en échange tu vas avoir du trafic depuis Google. C’est un deal acceptable. Mais quand un crawler IA aspire ton contenu pour entraîner un modèle qui va ensuite répondre aux questions des gens sans les envoyer sur ton site, là c’est plus compliqué à justifier.
Guillaume Pitel : C’est vrai que c’est un vrai débat actuellement.
Samir Belabbes : Oui, et c’est pour ça que sur PageRadar, j’essaie de documenter tout ça. Je donne les informations sur comment bloquer ces crawlers si tu veux, comment les limiter, mais aussi comment les autoriser de manière contrôlée. Parce qu’au final, l’IA fait partie de l’avenir du web, que ça nous plaise ou non.
L’arrivée de l’IA générative et son impact
Guillaume Pitel : Justement, parlons de l’arrivée de l’IA générative. Comment tu l’as vécue en tant que professionnel du web ?
Samir Belabbes : Alors, au début, j’étais assez sceptique. Quand ChatGPT est sorti fin 2022, j’ai trouvé ça impressionnant techniquement, mais je ne voyais pas vraiment l’impact que ça allait avoir sur le SEO et sur le web en général.
Et puis très vite, j’ai réalisé que c’était un vrai game changer. Parce que ça change fondamentalement la façon dont les gens cherchent de l’information. Avant, tu tapais des mots-clés dans Google, tu cliquais sur des liens, tu parcourais des pages. Maintenant, tu poses une question à ChatGPT ou à Perplexity, et tu as une réponse directe.
Guillaume Pitel : Et ça a changé ta façon de travailler ?
Samir Belabbes : Complètement. Déjà, j’utilise l’IA tous les jours maintenant pour coder, pour analyser des données, pour rédiger du contenu. C’est devenu un outil indispensable.
Mais au-delà de ça, j’ai dû repenser toute ma stratégie SEO. Parce qu’il ne s’agit plus seulement d’être bien positionné sur Google. Il faut aussi penser à comment ton contenu va être utilisé par les IA, comment il va être cité, comment il va être présenté dans les réponses générées.
Guillaume Pitel : Tu penses que ça va tuer les moteurs de recherche traditionnels ?
Samir Belabbes : Non, je ne pense pas. Je pense qu’il va y avoir une cohabitation. Les moteurs de recherche traditionnels vont évoluer, ils intègrent déjà de l’IA dans leurs résultats. Regarde Google avec Bard, Bing avec Copilot.
Mais il y aura toujours besoin d’aller sur les sources directement pour certaines choses. Pour des achats, pour des informations officielles, pour des contenus spécifiques. L’IA ne va pas tout remplacer, elle va compléter.
L’utilisation de Claude et des outils IA pour le développement
Guillaume Pitel : Tu mentionnais utiliser l’IA pour coder. Tu peux nous en dire plus ?
Samir Belabbes : C’est un outil qui a vraiment changé ma façon de travailler en tant que développeur. J’utilise principalement Claude, avec l’agent de code. C’est un outil incroyable.
Avant, je passais mon temps à copier-coller dans ChatGPT, à reformuler mes prompts, à essayer de faire comprendre le contexte. Maintenant, avec Claude directement intégré dans l’IDE, via la ligne de commande ou via des outils comme Windsurf ou Cursor, c’est fluide.
Guillaume Pitel : C’est quoi la différence principale ?
Samir Belabbes : Déjà, Claude a accès à tout ton code. Tu peux faire des commandes comme /add pour ajouter des fichiers au contexte, ou @web pour chercher de la documentation en ligne. Et ensuite, il peut directement éditer tes fichiers, créer de nouveaux fichiers, exécuter des commandes.
Par exemple, je lui dis : « Crée-moi un système d’authentification avec Laravel, avec les migrations, les modèles, les contrôleurs et les vues. » Et il le fait. Évidemment, je vérifie tout, je ne laisse pas passer du code sans le lire, mais ça me fait gagner un temps fou.
Guillaume Pitel : Et ça change vraiment ta productivité ?
Samir Belabbes : Complètement. Quand je suis passé de faire des copier-coller avec ChatGPT à utiliser le prompt directement dans le terminal de PhpStorm… J’utilise PhpStorm, je sais que je devrais peut-être utiliser VSCode mais j’ai fait le choix de payer pour cet outil, et c’est remarquable. J’ai gagné énormément en productivité par rapport à faire les choses manuellement.
Et pour des développeurs, ça multiplie par 10 votre efficacité. Ça vous permet très rapidement de refactorer votre application, de trouver rapidement des détails qui vous auraient échappé. Et comme vous avez l’expertise, vous savez exactement ce que vous voulez faire, comment le faire, et vous allez relire tout le code généré par Claude.
Guillaume Pitel : Il y a d’autres fonctionnalités que tu utilises ?
Samir Belabbes : Oui, il y a une fonctionnalité récente qui s’appelle Claude Skills. En fait, tu peux lui apprendre à faire une tâche spécifique. C’est comme une recette. Tu peux lui apprendre, par exemple, via des API à créer un serveur, à le provisionner, etc. Et ça devient un skill. Comme ça, tu n’as pas à le refaire, c’est une façon d’automatiser et de ne pas répéter constamment les mêmes actions.
Tu peux même lui faire faire tes tests unitaires. Tu lui expliques ce que tu veux tester. J’ai parlé avec des développeurs, ils m’ont dit que c’est ce qui leur prenait le plus de temps et qui était le plus fastidieux. Aujourd’hui, en le guidant, il a accès à toutes les migrations, tous tes modèles, etc. Tu lui fais générer tes tests unitaires, tu vérifies bien la qualité du code produit, mais si tu as la connaissance, tu sais que ce qu’il fait sera fonctionnel, conforme à tes standards ou pas. Et si ce n’est pas le cas, tu nuances avec lui, tu affines et tu discutes simplement.
Réflexion sur la valeur des outils et la technologie
Guillaume Pitel : Il y a juste un point sur lequel je veux revenir avant qu’on termine, c’est ce que tu as dit : tu n’es pas un pigeon parce que tu paies PhpStorm. Il y a quelque chose de très important : la technologie, ça se paie parce qu’il y a du temps, des gens ont travaillé derrière.
PageRadar, il faut le payer, et il faut que tu te rémunères. Il faut qu’il y ait des gens qui paient ça. Même si demain JetBrains était racheté par Adobe, même si demain Adobe décide que c’est gratuit et que ton outil est intégré dedans, ce que tu fais est aussi intégré dedans, ce serait terrible pour toi.
Et VSCode, le fait que ce soit gratuit, c’est une vraie question à se poser : est-ce que tu dois absolument utiliser les outils gratuits, ou est-ce que tu dois payer les outils sur lesquels les gens ont fait un véritable effort ?
Microsoft peut se permettre de payer des développeurs pour VSCode. Ils veulent que les gens développent pour ce sur quoi ils génèrent des revenus. Ils ont de l’argent sur Windows, donc ils se sont dit : « Visual Studio est de moins en moins utilisé en version payante, les gens ne payent plus la licence. » Ils ont fait Visual Studio Community, ils ont fait des offres pour les étudiants, parce qu’à côté il y avait des gens qui proposaient des éditeurs gratuits.
Mais potentiellement, quand tu es une entreprise, quand tu gagnes de l’argent, il faut rémunérer ces outils. C’est pareil pour les connaissances, Wikipédia, il faut contribuer. Il ne faut pas considérer qu’on est naïf parce qu’on donne à Wikipédia. Au contraire, tu permets… C’est d’ailleurs la même chose pour le journalisme.
C’est très philosophique, mais à un moment donné, il faut se poser des questions. Quand le produit est gratuit, pourquoi ? Que ce soit Chrome qui collecte une quantité phénoménale d’informations.
Les monopoles, ce sont de vrais problèmes pour l’innovation. Pourquoi ? Parce que justement avec VSCode, Microsoft va peut-être mettre en difficulté JetBrains qui édite PhpStorm, qui édite IntelliJ, qui édite de nombreux outils. Et eux, ils n’ont que ça, il faut qu’ils travaillent, il faut qu’ils en vivent.
C’est pareil avec nous, avec nos outils. Il y a des outils moins chers. Souvent, quand un outil est gratuit, c’est que quelqu’un paie derrière. Ce sont des investisseurs qui mettent de l’argent en capital pour essayer d’éliminer la concurrence, et c’est franchement mauvais pour tout le monde.
Dans le commerce, tu n’as pas le droit de vendre à perte. Il faut se poser la question : le fait que VSCode soit gratuit, que tel ou tel outil soit gratuit… C’est gratuit ! Claude a une offre gratuite limitée, parce que sinon ils ne pourraient pas tenir financièrement.
Les prix de l’outillage, c’est vraiment une question importante. Parce que si c’est 100 fois plus cher…
Samir Belabbes : Tu ne vas peut-être pas payer 20 000 euros par mois pour avoir Claude.
Guillaume Pitel : Si c’est 10 fois plus cher, 200, 2 000 peut-être. Aujourd’hui les ChatGPT, etc., ils perdent tous de l’argent.
Samir Belabbes : Ils perdent tous énormément d’argent.
Guillaume Pitel : Et c’est extrêmement coûteux en ressources.
Guillaume Pitel : Écoute, merci énormément, c’était super intéressant. J’étais agréablement surpris d’avoir fait ta connaissance par hasard et moi je ne suis vraiment pas déçu de cette interview. Donc, bravo et merci, on se dit au revoir et à bientôt.
Samir Belabbes : Merci à toi Guillaume, c’était un plaisir !




