Les modèles LLM comme ChatGPT sur le point de se multiplier
Le succès rencontré par ChatGPT depuis 2022 a changé la perception de l'IA car les services reposant sur des LLM sont, aujourd'hui, réellement, capables d'échanger les humains (faute d'orthographe en moins).
Ils ont moins d'inspiration, ne comprennent pas ce qu'ils écrivent, mais peuvent fournir des réponses d'une relative qualité à de nombreuses questions.
Ils sont aussi capables du code pour faciliter le travail des développeurs. Ils possèdent encore des marges de progression, comme en atteste le lancement de GPT-4, et ils sont susceptibles de transformer la société comme peu d'autres technologies pourraient le faire, en automatisant potentiellement toute une série de tâches professionnelles - en particulier chez les cols blancs - que l'on aurait pu considérer auparavant comme impossibles.
De nombreuses autres entreprises - notamment Google, Apple, Meta, Baidu et Amazon, entre autres - vont probablement lancer des services concurrents de ChatGPT ou intégrer des chatbots dans leurs applications. Les LLM sont déjà présents dans votre moteur de recherche si vous êtes un utilisateur de Bing, et ils le seront bientôt dans Google.
Mais cette déferlante génère des effets de bord : ces technos peuvent être utlisées pour le spam, la désinformation, la création de logiciels malveillants, le harcèlement... Il n'y a pas de réponse adéquat à ces dangers, même si les développeurs des LLM affirment qu'empêcher ces utilisations malveillantes fait partie de leur priorité Ils passent des mois et des mois à travailler pour réduire ces potentielles utilisations malveillantes, manuellement avant le lancement. Sam Altman, PDG d'OpenAI, fait partie des nombreuses personnes qui s'inquiètent du fait que les gouvernements n'agissent pas assez rapidement pour mettre en place des bornes légales à l'utilisation de ces LLM.
Pour l'instant, les éditeurs des LLM qui sont une poignée ont la main sur l'usage qui peut être fait de leur techno.
Mais qu'arriverait-ils si n'importe quelle équipe de cybercriminels pouvait créer sa propre techno ?
Qu'arriverait-il si un gouvernement étranger utilisait sa techno de LLM pour générer encore plus de messages de désinformation sur Twitter et même pour organiser des discussions 100% articicielles entre ses milliers de faux profils pour simuler de courant d'idées (anti occidental évidemment) ?
Nous allons bientôt le savoir car des étudiants de Stanford ont démontré que l'on pouvait créer un concurrent de chatGPT pour moins de 1000 dollars.