Les LLMs d'Apple Intelligence utilisable gratuitement par vos applications mobiles

Les modèles d'IA d'Apple embarqués dans les iphones pourront être utilisés gratuitement par les applications mobiles que vous développez et fonctionneront sans connexion à internet.
J'ai déjà parlé du développement des modèles que je qualifiais de frugaux, qui n'ont pas besoin de serveurs ultra-puissants pour tourner et pouvant fonctionner en local sur de "simples" smartphones ou ordinateurs de bureaux
Dans cette perspective, Apple vient d'annoncer que ses systèmes d’exploitation iOS 26, iPadOS 26, macOS Tahoe 26... permettront aux développeurs d'utiliser gratuitement des modèles d'IA générative, en local, donc, sans que l'utilisateur ait besoin d'être connecté à internet.
aca
Donc, moyennant quelques lignes de code via SWIFT (moins que lorsque l'on recourt aux APIs des grands fournisseurs de LLMs ?), les entreprises peuvent imaginer embarquer dans leurs applications mobiles des fonctions de:
1. Résumés de réunion, rédaction assistée, correction grammaticale, suggestions de texte, ré-organisation de notes prises durant une réunion
2. Recherche en langage naturel dans des documents, emails ou fichiers locaux et dans des photos (dont le contenu serait, donc, automatique indexé ?)
3. Assistant de formation, création à la volée de quiz personnalisés à partir des documents de l'utilisateur, réponses sur les documents consultés par l'élève
4. Analyse des données de santé captées par l'iphone, suggestions personnalisées, suivi intelligent des habitudes en la matière, et ce, en local et en confidentialité
5. Création d’images et Genmoji, aide à l’écriture de poèmes, histoires..
6. Recherche d’objets ou de produits en utilisant l’appareil photo ou des images stockées
7. Lancement automatique de certains outils présents dans le téléphone
Avantages théoriques
Les données personnelles restent sur l’appareil : officiellement, aucune information sensible n’est envoyée vers un serveur externe
Comme c'est le "petit" LLM local qui travaille et qu'il n'y a pas d'aller retour avec le cloud, la consommation d'énergie devrait être réduite (à moins que l'explosion des usages n'annule ces gains)
Comme la réponse sera générée en local, elle arrivera plus rapidement
Les développeurs réaliseront des économies car ils n'auront pas besoin de payer les appels au LLM comme c'est le cas des LLMs accessibles via API ou hébergés sur un serveur privé
Officiellement, les appels à ces LLMs impacteront peu l'autonomie. J'attends de voir.