Formation à GPT3 et ChatGPT
Musclez le contenu + SEO
Intelligence artificielle générative

Le prompt engineering, le prompt ingeniering et les plombiers prompteurs

Avez-vous besoin d'un prompt engineer ou d'un plombier prompteur ou d'acquérir cette compétence ?

Vous avez forcément entendu parler de ce nouveau métier qui serait tellement recherché : le prompt engineering.

Le prompt engineering est l'art de poser des questions aux outils d'IA générative comme ChatGPT, Midjourney ou Bing Create afin d'obtenir exactement les réponses que l'on souhaite de ChatGPT ou les images dans le cas de Midjourney des milliers d'autres services en ligne d'IA génératives.

Il existe des prompts simples.

Exemple: Qu'est-ce que l'intelligence émotionnelle ?

ChatGPT répondre avec une réponse synthétique en 4 ou 5 paragraphes.

Il existe des prompts plus complexes comme celui-ci

"Je veux que tu agisses en tant qu'assistant à la prononciation de l'anglais pour les personnes parlant le turc. Je vous écrirai des phrases et vous ne répondrez qu'à leur prononciation, et rien d'autre. Les réponses ne doivent pas être des traductions de mes phrases mais uniquement des prononciations. Les prononciations doivent utiliser les lettres latines turques pour la phonétique. N'écrivez pas d'explications sur les réponses. Ma première phrase est "quel temps fait-il à Istanbul ?"

On le voit, donc un prompt n'est pas nécessaire difficile, mais il doit être précis et correspondre à ce que l'outil utilisé (ChatGPT, Bard, Bloom, Perplexity.ai) peut comprendre.

La maîtrise des prompts au sein des entreprises est devenue nécessaire car elle permet à un professionnel de tirer partie de tout le potentiel des outils d'intelligence artificielle générative comme ChatGPT.

Mais, il y a de plus en plus de méprise sur ce qu'est le prompt engineering, littéralement "l'ingénierie du prompt", comme il fallait suivre des études d'ingénieur pour bien "prompter" ChatGPT.

En réalité, tous les professionnels doivent désormais savoir prompter (c'est à dire interroger) ces nouveaux outils pour être efficace, mais pas forcément être des experts des prompts compliqués.

Ce n'est donc, pas une compétence d'ingénieur.

Ce n'est pas, non plus, forcément un nouveau métier, contrairement à ce que l'on lit.

Sauf dans un cas précis, que nous avons développé dans le cadre de notre formation "L'impact de ChatGPT pour les agences: faire monter ses équipes en compétences et transformer son agence en agence augmentée"

Voici une histoire pour comprendre le prompt engineering dans le détail.

Hier, Nicolas de Pomereu d'Aligre, me demandait dans un post, quelle solution nous avions trouvé pour analyser 3000 avis clients avec l'API de ChatGPT ?

Avant-hier, Emmanuel Vivier disait que c'était 4 années de travail sur la data (collecte, formatage, enrichissement, tuyautage...) chez Carrefour qui avait permis à l'un de leur prestataire de créer, Hopla, une version personnalisée de ChatGPT capable de suggérer des recettes à bases d'ingrédients vendus par Carrefour.

Avant-avant-avant-hier, une développeuse me demandait pourquoi l'API de ChatGPT ne répondait pas à toutes ses requêtes (y compris celles qui ne contenaient pas d'erreurs).

Le dénominateur entre tout cela, c'est la plomberie de prompt.

Les agences doivent transformer tous leurs collaborateurs en experts du prompts: pour que ChatGPT leur donne une idée géniale à proposer à un client, pour que Midjourney ou Stable Diffusion leur génère l'image dont il rêve, pour Loudly leur écrive une petite musique cohérente avec la vidéo à illustrer...

Ca, c'est ce que j'appelle une compétence, mais un métier contrairement à ce que l'on lit ici et là.

A côté de cela, les agences doit créer des postes de plombiers prompteurs.

Et, ça, c'est un métier.

Ces plombiers sauront comment créer un chatbot à base de ChatGPT qui aura ingurgité la base de données produits d'une entreprise comme Carrefour.

Ces plombiers sauront gérer les refus de réponses de l'API et relancer les requêtes qui auront échoué une première fois.

Ces plombiers sauront aussi comme faire analyser 3000 avis clients par ChatGPT.

L'une des principales limites de l'API d'OpenAI est le nombre de mots qu'elle accepte de traiter (le nombre de tokens pour être précis) au sein d'une requête . Dans chaque requête que vous envoyez à l'API, vous ne pouveez envoyer plus d'un certain nombre de mots. En conséquence, si vous lui demandez d'analyser 30 avis pas trop longs, cela passe. Si vous lui en envoyez 3000, là, ça coince. Il faut donc trouver une solution technique lors du requêtage de l'API, pour contourner cette limite. Nous, Neodia/24pm Academy, avons trouvé des solutions en travaillant pendant deux jours. Au final, la solution c'est une série de "prompts pyramidaux" un peu compliqués, mélangés à du code.

Plombier prompteur, c'est un métier.

Besoin de renfort pour faire monter en puissance toutes vos équipes en compétence sur l'IAG générative ?

Contactez-nous.

Search