Formation à GPT3 et ChatGPT
Musclez le contenu + SEO
Intelligence artificielle générative

Le Frontier Model Forum pour gérer les dérives de l'IA ?

Google, OpenAI, Microsoft et Anthropic ont créé le Frontier Model Forum.

Il s'agit d'une structure pour gérer les dérives de l'IA générative, mais qui véhiculera peut-être des valeurs qui ne sont pas les nôtres.

Ce qui interpelle

1/ Parmi les fondateurs de ce club théoriquement ouvert

  • 0% d'européens
  • 0% d'acteurs du LLM Open Source tels que Meta (LLama), Stabibility.ai, Bloom ou Hugging Face
  • Le fait que Meta, leader des LLM Open Source (notamment avec la sortie, il y a quelques jours, de LLama2, la version conversationnelle de LLama)

ne fasse partie partie du club des fondateurs intérroge

2/ On a l'impression que ce 'forum' vise à éviter la mise en place d'une législation pour réguler l'IA

Les objectifs affichés

  1. Advancing AI safety research to promote responsible development of frontier models, minimize risks, and enable independent, standardized evaluations of capabilities and safety.
  2. Identifying best practices for the responsible development and deployment of frontier models, helping the public understand the nature, capabilities, limitations, and impact of the technology.
  3. Collaborating with policymakers, academics, civil society and companies to share knowledge about trust and safety risks.
  4. Supporting efforts to develop applications that can help meet society’s greatest challenges, such as climate change mitigation and adaptation, early cancer detection and prevention, and combating cyber threats.

La partie sur le soutien aux applications d'IA visant à limiter le réchauffement climatique sent un peu le greenwashing dans la mesure où les trois types d'actions concrètes annoncées ne font plus référence qu'à la gestion des risques liés à l'IA.

1. Identifying best practices

Promote knowledge sharing and best practices among industry, governments, civil society, and academia, with a focus on safety standards and safety practices to mitigate a wide range of potential risks.

2. Advancing AI safety research

Support the AI safety ecosystem by identifying the most important open research questions on AI safety. The Forum will coordinate research to progress these efforts in areas such as adversarial robustness, mechanistic interpretability, scalable oversight, independent research access, emergent behaviors and anomaly detection. There will be a strong focus initially on developing and sharing a public library of technical evaluations and benchmarks for frontier AI models.

3.  Facilitating information sharing among companies and governments: Establish trusted, secure mechanisms for sharing information among companies, governments and relevant stakeholders regarding AI safety and risks. The Forum will follow best practices in responsible disclosure from areas such as cybersecurity.

Donc, attention, car derrière les intentions louables de ce club, on voit poindre une tentative de moralisation de l'IA, même pas alignée sur les valeurs américaines, mais uniquement sur celles d'une quelques sociétés de la côté ouest.

Search