© All rights reserved. Powered by YOOtheme.

« Ce qui se cache derrière le fonctionnement de ChatGpt »

 

Dans cette Vidéo, David Louapre, vulgarisateur scientifique, nous explique le fonctionnement de ChatGpt. La vidéo date de 2023 et se base sur GPT3.5 qui a évolué depuis. Cela permet tout de même d’en comprendre les fondements.

Durée la vidéo 27 minutes 23

GPT diffère de ChatGpt.

ChatGpt est le produit commercial d’OpenAI et Gpt , le modèle d’intelligence artificielle qui lui sert de base.

ChatGPT est un chatbot” ou “agent conversationnel”. Les chatbots existent depuis longtemps et fonctionnent par détection de mot-clé.

GPT signifie Generative Pre-trained Transformer c’est-à-dire « modèle de manipulation du langage naturel entraîné à chercher en permanence le prochain mot d’un texte ». C’est de la “complétion automatique” qui doit fonctionner à l’échelle d’un texte entier.

Le modèle est entraîné avec des textes existants.

Pour compléter, le modèle ne cherche pas à dire quelque chose de vrai (il ne connaît pas la vérité), ne cherche pas à forcément reproduire un texte existant mais une réponse “plausible” c’est-à-dire qui ne dépareillerait pas avec tout ce qu’il a pu ingurgiter de textes existants.

Les données de GPT3 sont construites sur du texte de “Common Crawl” c’est-à-dire ramassé sur internet, des bases de données de livres et tout wikipédia en anglais. Certaines sources ont eu plus de poids que d’autres dans l’entraînement.

Le modèle est figé: il n’y a pas de mémoire des conversations précédentes et les corpus de textes sont d’une certaine date. Il cherche une réponse “raisonnable” c’est-à-dire qui ne dépareille pas trop avec le corpus d’entraînement. Chat GPT peut donc écrire des paragraphes entiers de choses qui n’existent pas!

Il n’est pas vraiment adapté pour faire un chatbot, c’est-à-dire qu’on ne peut pas vraiment lui poser des questions puisque son truc c’est de compléter une  phase ou un groupe de mots.

Pour améliorer son efficacité, il est possible de faire un “pré prompt” destiné à contextualiser le genre de texte qu’on souhaite le voir générer. Par exemple: “ceci est une conversion entre un prof bienveillant et son élève”

Le fine tuning (le réglage fin) consiste à prendre un modèle déjà entraîné comme GPT et de la spécialiser avec des textes choisis et qui ressemble à ce qu’on attend de lui.

En combinant pré prompt & fine tuning, on arrive à des résultats plus proches de ce qui est attendu d’un chat bot.

Pour obtenir de ChatGpt des réponses encore plus pertinentes,  open IA a utilisé en plus l’apprentissage par renforcement avec feedback humain.

Open AI a ainsi créé “instruct GPT” qui a été “fine tuné” à partir de GPT en l’exposant à des réponses rédigées par des humains et qui correspondent à ce qu’on attend d’un chatbot utile et bienveillant.

En d’autres termes, à partir de réponses fournies par ChatGPT a des questions, cela consiste à faire évaluer ces réponses par des humains.

Là où ChatGpt est particulièrement mauvais, c’est lorsqu’on lui demande de citer ses sources. Ce sont des références inventées. ChatGpt génère des textes plausibles dont les mots collent bien ensemble mais il ne raisonne pas.

Titre original
Ce qui se cache derrière le fonctionnement de Chat Gpt
Ouvrir
Auteur original
David Louapre
Ouvrir
Résumé par
Sabine Lesenne

Contact:
info@numeriquement-responsable.org

Partenaire:

Tous droits réservées © 2023 Numériquement responsable.