ChatGPT est un chatbot doté d’une intelligence artificielle qui peut suivre des instructions et mener à bien des activités telles que la rédaction d’un essai. Avant de choisir comment l’utiliser pour le contenu et le SEO, il y a beaucoup de choses à apprendre.

La notion d’utilisation du contenu de ChatGPT pour le SEO doit être explorée en raison de l’incroyable qualité du contenu.

Pourquoi ChatGPT peut remplir de telles fonctions

En un mot, ChatGPT est un grand modèle d’apprentissage, un sous-ensemble de l’apprentissage automatique.

Un modèle de grand apprentissage est un type d’intelligence artificielle qui a été formé sur d’énormes quantités de données et qui peut anticiper le mot qui viendra après dans une phrase.

Le nombre de tâches qu’il peut accomplir dépend de la quantité de données sur lesquelles il a été entraîné (comme la rédaction d’articles).

Les grands modèles de langage acquièrent parfois des compétences inattendues.

L’université de Stanford décrit comment GPT-3 a pu traduire un texte d’une langue à l’autre sans avoir été particulièrement entraîné à le faire, grâce à une augmentation des données d’entraînement.

Les grands modèles de langage comme GPT-3 (et GPT-3.5, qui est à la base de ChatGPT) ne sont pas formés pour effectuer des tâches particulières.

Ils reçoivent une formation approfondie dans une variété de sujets qu’ils peuvent ensuite appliquer à d’autres domaines.

Cela est comparable à la façon dont les gens apprennent. Par exemple, même si une personne n’a jamais appris explicitement à fabriquer une table, elle peut utiliser les informations qu’elle a acquises en apprenant les bases de la menuiserie pour en construire une.

Le GPT-3 fonctionne comme le cerveau humain en ce sens qu’il possède une base de connaissances générales qui peut être utilisée pour diverses activités.

L’article sur le GPT-3 de l’université de Stanford explique :

Les humains sont « généralement » intelligents et peuvent apprendre n’importe quoi, de composer des poèmes à jouer au football en passant par remplir des déclarations d’impôts. Contrairement aux moteurs d’échecs, qui traitent un problème spécialisé.

GPT-3 se rapproche de cette intelligence générale par rapport à la plupart des systèmes d’IA actuels.

InstructGPT, un modèle de langage important qui a appris à suivre les instructions des gens et à fournir des réponses détaillées à des questions difficiles, est également intégré à ChatGPT.

ChatGPT peut recevoir des instructions pour rédiger un article sur presque n’importe quel sujet et peut le faire selon la méthode indiquée en raison de sa capacité à suivre des instructions.

Il est capable de produire des essais qui respectent les restrictions sur le nombre de mots et l’inclusion d’éléments particuliers du sujet.

Pour Le Contenu Et Le Seo Utiliser Chatgpt

Six faits de ChatGPT à prendre en compte

Le ChatGPT ayant été formé sur un large éventail de contenus accessibles au public, il est capable de rédiger des dissertations sur presque tous les sujets.

Mais avant de choisir d’utiliser ChatGPT pour un projet de SEO, il est crucial d’être conscient de ses limites.

L’inconvénient majeur est l’incapacité de ChatGPT à produire des données correctes. Comme l’algorithme ne fait que prédire les mots qui doivent venir après le mot précédent dans une phrase d’un paragraphe sur un sujet particulier, il est erroné. Il ne se soucie pas d’être exact.

Toute personne désireuse de produire un contenu de haute qualité devrait y prêter une attention particulière.

1. Conçu pour éviter des types de contenu spécifiques

Par exemple, ChatGPT est expressément configuré pour ne pas produire de texte sur les thèmes de la violence, du sexe explicite et des contenus dangereux comme les guides de fabrication d’engins explosifs.

2. Ignorance de l’actualité

Le fait qu’il ignore tout du contenu produit au-delà de 2021 constitue une autre restriction.

Dans son état actuel, ChatGPT peut donc ne pas être utile si votre contenu doit être actuel et nouveau.

3. A des préjugés prédéfinis

Le fait qu’on lui enseigne à être gentil, digne de confiance et inoffensif est une restriction cruciale dont il faut être conscient.

Ce ne sont pas de simples idéaux ; le mécanisme est intentionnellement biaisé dans cette direction.

Il semble que la programmation de la bonté empêche la négativité de se manifester dans les résultats.

C’est très bien, mais cela modifie aussi légèrement la pièce qui pourrait autrement être neutre.

En un sens, il faut prendre le volant et dire directement à ChatGPT d’aller dans la direction souhaitée.

Voici une illustration de la façon dont le parti pris modifie le résultat.

J’ai demandé à ChatGPT de composer deux histoires, l’une dans le style de Raymond Carver et l’autre dans celui de l’auteur de romans policiers Raymond Chandler.

Les fins heureuses des deux romans ne correspondaient pas au style des deux auteurs.

J’ai dû donner des instructions spécifiques à ChatGPT pour qu’il évite les fins heureuses et qu’il évite de clore l’histoire afin d’obtenir un résultat correspondant à mes attentes, car c’est ainsi que les histoires de Raymond Carver se terminent souvent.

Le fait est que des biais existent dans ChatGPT et qu’il faut être attentif à la façon dont ils peuvent affecter les résultats.

4. ChatGPT a besoin d’instructions très précises

Pour que ChatGPT produise un contenu de meilleure qualité ayant une meilleure probabilité d’être très original ou d’adopter un certain point de vue, des instructions claires sont nécessaires.

Plus les instructions sont nombreuses, plus le résultat sera complexe.

Cela présente à la fois un avantage et un inconvénient dont il faut tenir compte.

La probabilité que le résultat soit identique à celui d’une autre requête augmente avec le nombre d’instructions dans la requête de contenu.

J’ai dupliqué la requête et le résultat que d’autres utilisateurs de Facebook avaient publiés à titre de test.

J’ai posé à ChatGPT une question exactement identique et le programme a généré un essai entièrement original en utilisant le même format.

Bien que les articles soient différents, ils avaient une structure similaire et couvraient des sous-thèmes connexes, mais ils étaient entièrement rédigés dans des mots distincts.

Il est logique que ChatGPT ne se plagie pas lui-même, car il est conçu pour sélectionner des termes totalement aléatoires lorsqu’il anticipe le prochain mot d’un article.

Cependant, les limites de la simple demande « Donne-moi ça » sont mises en évidence par le fait que des demandes similaires donnent lieu à des articles comparables.

5. Est-il possible d’identifier le contenu de ChatGPT ?

Depuis de nombreuses années, les scientifiques de Google et d’autres entreprises développent des algorithmes permettant d’identifier avec précision le contenu produit par l’IA.

Il existe d’autres études sur le sujet, mais je n’en citerai qu’une, datant de mars 2022, qui a utilisé les résultats de GPT-2 et GPT-3.

Adversarial Robustness of Neural-Statistical Features in Detection of Generative Transformers est le titre de l’étude de recherche (PDF) .

Le but de l’expérience était de déterminer quel type d’analyse était capable de repérer le contenu généré par l’IA qui utilise des techniques destinées à éviter la découverte.

Les chercheurs ont expérimenté plusieurs tactiques, notamment l’ajout de fautes d’orthographe et l’utilisation d’algorithmes BERT pour remplacer des mots par des synonymes.

Ils ont constaté que même lorsqu’un texte avait été produit à l’aide d’un algorithme destiné à éviter la détection, les caractéristiques statistiques du texte produit par l’IA, telles que les scores de l’indice Gunning-Fog et de l’indice Flesch, pouvaient être utilisées pour déterminer si le texte avait été généré artificiellement.

6. Filigrane invisible

Le fait que les chercheurs d’OpenAI aient conçu un filigrane cryptographique pour aider à l’identification du contenu produit par les produits d’OpenAI comme ChatGPT est plus intriguant.

Une conversation d’un chercheur d’OpenAI, que l’on peut retrouver dans une vidéo intitulée Scott Aaronson Talks AI Safety, a récemment été portée à l’attention des lecteurs.

Selon le chercheur, les méthodes d’IA éthiques comme le filigrane peuvent devenir des normes industrielles, un peu comme Robots.txt a établi une norme pour le crawling moral.

Il a déclaré :

« …nous avons observé au cours des 30 dernières années que les grandes entreprises de l’Internet peuvent s’accorder sur des normes minimales spécifiques, que ce soit par crainte de répercussions juridiques, par désir d’être considéré comme un participant éthique, ou pour toute autre raison.

Robots.txt est un exemple simple : si vous ne voulez pas que les moteurs de recherche indexent votre site web, vous pouvez le dire, et les principaux moteurs de recherche le respecteront.

Dans le même ordre d’idées, on pourrait imaginer que quelque chose comme le filigrane devienne la norme dans l’industrie, et que quiconque souhaite être considéré comme un acteur responsable l’inclue si nous sommes en mesure de le démontrer et de montrer que cela fonctionne, que c’est bon marché, que cela n’affecte pas la qualité du résultat, que cela ne nécessite pas beaucoup de calcul, etc.

En se basant sur la cryptographie, le chercheur a créé un système de filigrane. Toute personne possédant le code secret peut vérifier un document pour déterminer s’il porte le filigrane numérique indiquant qu’il a été produit par une IA.

Le code peut prendre la forme d’un choix de mots ou d’une ponctuation, par exemple.

Il a clarifié les principes du filigrane et sa signification :

« Jusqu’à présent, mon principal projet a été un outil permettant de filtrer statistiquement les résultats d’un modèle textuel comme GPT.

Fondamentalement, chaque fois que GPT génère un grand corps de texte, nous voulons qu’il y ait un signal secret subtil, vérifiable ultérieurement, dans les choix de mots qui, autrement, ne seraient pas détectés.

Nous voulons qu’il soit considérablement plus difficile de prétendre qu’un résultat de GPT est généré par un humain.

Cela pourrait être utile pour réduire le plagiat académique ainsi que d’autres types de production de propagande de masse, comme le spamming de blogs avec des commentaires apparemment pertinents en faveur de l’invasion de l’Ukraine par la Russie, sans avoir besoin d’une ferme à trolls basée à Moscou.

ou l’utilisation du style d’écriture de quelqu’un d’autre pour l’accuser faussement.

Toutes ces tâches pourraient être rendues plus difficiles, non ?

Selon l’étude, le filigrane déjoue les tentatives algorithmiques d’éviter la détection.

Toutefois, il ajoute que le filigrane peut être déjoué :

« Maintenant, tout cela peut être déjoué avec un effort suffisant.

Nous ne serons pas en mesure de dire, par exemple, si vous avez utilisé une autre IA pour traduire le résultat de GPT.

Le chercheur a déclaré que l’intention est d’introduire le filigrane dans une version ultérieure de GPT.

Faut-il utiliser l’IA pour le SEO ?

Le contenu IA est détectable

Beaucoup affirment que Google n’a aucun moyen de savoir si une information a été produite par l’IA.

Étant donné que l’identification de l’IA est un défi qui a été en grande partie résolu, je trouve incompréhensible que l’on puisse conserver ce point de vue.

Il est possible d’identifier un contenu même s’il utilise des méthodes anti-détection (comme l’indique le document de recherche dont j’ai donné le lien ci-dessus).

Depuis de nombreuses années, les chercheurs étudient la manière d’identifier les informations produites par des machines, en particulier les contenus traduits d’une autre langue.

Le contenu généré automatiquement enfreint-il les règles de Google ?

En avril 2022, John Mueller, de Google, a déclaré que le contenu généré par l’IA était contraire aux règles de Google.

« Pour nous, ceux-ci seraient essentiellement toujours considérés comme du contenu créé automatiquement, une catégorie qui est présente dans les Directives pour les webmasters pratiquement depuis le début.

Et les individus ont créé du contenu automatiquement de nombreuses façons différentes. Pour nous, l’utilisation de technologies d’apprentissage automatique pour créer du contenu est fondamentalement équivalente à la réorganisation manuelle de mots, à la recherche de synonymes ou à l’utilisation d’heuristiques de traduction comme le faisaient autrefois les gens. Ce genre de choses.

Bien que nous utilisions encore du contenu créé automatiquement, ce qui signifie qu’il viole toujours les directives pour les webmasters, je soupçonne que la qualité du contenu est peut-être un peu plus élevée qu’avec les outils vraiment dépassés. Par conséquent, nous les classerions dans la catégorie des spams.

La partie du contenu « généré automatiquement » du site Web des développeurs de Google concernant le spam a été récemment mise à jour.

Elle a été réalisée en octobre 2022 et révisée vers la fin du mois de novembre 2022.

Les modifications portent sur une clarification de ce qui constitue un spam dans le contenu autogénéré.

À l’origine, il était indiqué :

« Le contenu créé automatiquement (ou « auto-généré ») est un contenu qui a été généré automatiquement sans ajouter suffisamment de valeur ou sans fournir quelque chose d’original ; »

Cette déclaration a été modifiée par Google pour inclure le mot « spammy » :

« Le contenu « auto-généré » ou « spammy » est créé automatiquement par un programme informatique sans apporter quoi que ce soit de nouveau ou de valeur adéquate ; ».

Cette mise à jour semble préciser que ce n’est pas parce que quelque chose est généré mécaniquement qu’il s’agit nécessairement de spam. Ce contenu est gênant car il n’apporte pas de valeur ajoutée et présente souvent des caractéristiques « spammy ».

À un moment donné, ChatGPT pourrait inclure un filigrane.

Enfin, le chercheur d’OpenAI a déclaré que le filigrane sera « idéalement » inclus dans la mise à jour de GPT une fois que ChatGPT sera publié.

Par conséquent, si ChatGPT n’est pas actuellement doté d’un filigrane, celui-ci pourrait être ajouté à l’avenir.

Les meilleures applications de l’IA pour le SEO

L’application optimale des outils d’IA consiste à faire évoluer le SEO de manière à augmenter la productivité. En général, cela implique de déléguer les recherches et analyses laborieuses à une IA.

Étant donné que Google déclare expressément que cela ne va pas à l’encontre de ses critères, résumer des sites Web pour construire une méta-description peut être un usage autorisé.

Il pourrait être intéressant d’utiliser ChatGPT pour produire un résumé ou un aperçu du contenu.

Si la création de contenu est déléguée à une IA sans que sa qualité, son exactitude et son utilité aient été vérifiées au préalable, sa distribution telle quelle pourrait ne pas être l’utilisation la plus efficace de l’IA.

mardi 31 janvier 2023, 00:41