L’idée semble contre-intuitive, tant les prouesses techniques nous éblouissent tous les jours. Pourtant, des observateurs pointent aujourd’hui un risque de régression, ou du moins une stagnation des modèles de langage (LLM). Et si les fleurons de l’IA générative perdaient de leur superbe ? Passons cette hypothèse au Digitaloscope.
Fondamentalement, les IA sont des systèmes idiots qui simulent l’intelligence à force d’entraînement. La recette est connue : absorber des volumes colossaux de données pour restituer une version statistiquement recombinée de l’information. Quelle que soit la question, la réponse est une moyenne des savoirs analysés, basée sur des calculs de probabilités.
Lorsqu’une IA vous répond, elle fait un pari. Si elle échoue, elle s’excuse sans sourciller. Pire : face à un vide d’information, elle peut combler les lacunes par des hallucinations (chiffres inventés, faits imaginaires) parce que la probabilité statistique l’y pousse. Jusqu’ici, l’augmentation de la puissance de calcul et du volume de données permettait de masquer ces failles. Mais cette courbe de progression rencontre aujourd’hui des obstacles majeurs.
Les IA génératives sont les enfants du web. Elles n’ont forgé leur intelligence qu’à partir des contenus publics exposés explicitement par des humains. Elles n’ont vu que ce que l’on a accepté de leur montrer. Ça limite forcement le spectre de connaissances acquises. Imaginez un élève enfermé dans une bibliothèque dont les portes seraient closes : une fois tous les livres lus, sa marge de progression devient nulle.
À ce plafond de verre s’ajoute une forme de consanguinité numérique. Puisque le web est désormais inondé de contenus générés par des IA, ces modèles finissent par apprendre de leurs propres productions. Ce cercle vicieux — l’IA qui se nourrit de l’IA — menace de diluer la qualité de l’information et d’appauvrir la richesse sémantique des réponses.
Le temps de la vampirisation gratuite du web touche à sa fin. De nombreux acteurs réagissent pour protéger leur capital intellectuel en tentant de restreindre l’accès à leurs contenus. Google, par exemple, restreint désormais la visibilité des résultats profonds à 10 pages (vs illimité avant) pour protéger son écosystème. Ce verrouillage a deux conséquences :
La première est une perte de fraîcheur et de variété des connaissances, les IA accédant moins facilement aux nouvelles connaissances publiées en temps réel.
La seconde est un déséquilibre idéologique dangeureux : si seules les plateformes ouvertes (comme X) restent accessibles, le cerveau de l’IA risque de se spécialiser dans ces seuls discours. L’exemple de Grok, l’IA d’Elon Musk, est frappant : dopée aux flux de X, elle a multiplié les dérives et les propos polémiques, reflétant les biais de sa source unique.
Face au spectre de l’appauvrissement, les laboratoires d’IA ne restent pas passifs. Ils déploient plusieurs stratégies pour continuer à éduquer leurs modèles.
Cela commence par le contournement des barrières numériques.
Historiquement, le web fonctionnait sur un pacte de courtoisie via le fichier robots.txt, qui permet aux sites d’indiquer aux robots ce qu’ils peuvent indexer. On sait que certaines IA font fi de ces restrictions. Reddit a ainsi ouvertement ciblé Anthropic – l’éditeur de Claude –, l’accusant de contourner ces protocoles pour aspirer le contenu de ses forums. Ces derniers constituent l’une des bases de données conversationnelles les plus riches au monde : un capital en or que l’entreprise n’est pas prête à laisser dilapider sans contrepartie.
L’autre stratégie vise à acheter le savoir qu’on aspirait gratuitement avant, en vue d’en sécuriser la disponibilité. Ainsi, en signant des accords de licence avec des groupes de presse comme Le Monde, OpenAI s’assure non seulement une donnée fiable, vérifiée et structurée, mais aussi une protection contre de futurs procès pour plagiat.
Pour pallier la saturation du web visible, une troisième stratégie consiste à intégrer l’humain au cœur du processus d’apprentissage via le RLHF[1]. Ce procédé de renforcement par feedback humain s’appuie sur des intermédiaires comme Scale AI, qui recrutent des experts de haut niveau (scientifiques, linguistes, juristes) pour valider ou corriger les productions des IA. Fonctionnant sur un modèle de marketplace où l’on vient acheter les services d’un coach sur telle ou telle thématique, on assiste ici à une forme d’ubérisation de cerveaux. Il faut évidemment espérer que ces IA poursuivent leur progression vers le meilleur. Car sinon un paradoxe inquiétant pourrait se produire : nous déléguons de plus en plus nos capacités d’analyse aux machines ; si celles-ci s’appauvrissent faute de carburant humain de qualité et qu’elles deviennent de plus en plus bêtes, où ira l’humanité ?
[1] Reinforcement Learning from Human Feedback
En vous inscrivant à la newsletter vous acceptez de recevoir des mails de Digital Mag sur son actualité et ses offres en cours. Vous pouvez à tout moment vous désinscrire dans la partie basse des Newsletters envoyées.