Aucune annonce révolutionnaire ni d’effet « waouh ! » comme Apple sait parfois en faire. Lors de sa conférence annuelle « WWDC » (Worldwide developer conference), qui s’est tenue ce lundi à son siège de Cupertino au cœur de la Silicon Valley (USA), la marque californienne a opté pour une stratégie moins agressive faite de petites touches successives. Il était temps, tellement Google, Microsoft et autre Samsung ont pris de l’avance, fonçant têtes baissées dans l’aventure de l’intelligence artificielle, semblaient avoir pris de court la marque à la pomme.

Apple passe donc la vitesse supérieure mais choisit d’y aller à son propre rythme en proposant une IA du quotidien qui s’attache d’abord, et avec le maximum de simplicité, à résoudre les problèmes rencontrés par les utilisateurs. Apple Intelligence, dont les prémices ont été présentées l’an dernier à la même époque et se limitaient jusqu’à présent, pour la plupart des possesseurs d’iPhone, à la création d’émojis animés et à la gomme magique sur les photos, va s’immiscer sur tous les produits de la marque.

L’outil va profiter d’un tout nouveau système d’exploitation, qu’il faudra désormais nommer par l’année de son déploiement (iOS 26 pour l’iPhone), dopé à l’IA mais aussi entièrement revu dans son design, baptisé « Liquid Glass » et fait d’effets visuels misant sur la transparence.

Une traduction en direct qui promet d’être fluide et réactive

Gemini, l’IA de Google, le fait déjà, mais le logiciel « Live Translation » qui débarque à l’automne promet d’être beaucoup plus fluide et réactif. Sur un iPhone ou un iPad, pendant un appel en FaceTime, un simple coup de fil ou à la réception de messages sous forme de texte, il traduit immédiatement ce que dit l’interlocuteur pour conserver une conversation suivie et sans à-coups.

La démo réalisée ce mardi à Cupertino a permis de se rendre compte de la puissance de la solution qui, Apple le promet, n’a pas besoin d’une connexion à Internet pour fonctionner ! Une mère de famille française y expliquait dans la langue de Molière une astuce de cuisine à une jeune femme américaine qui, instantanément, pouvait lui rétorquer avoir tout compris dans sa propre langue.

La fonction permettant d’identifier un objet via l’appareil photo évolue également et fait aussi appel à l’IA. Accessible à partir de n’importe quelle application, puisqu’il suffit de faire un screenshot de ce qui est présent à l’écran, puis de sélectionner du bout du doigt l’objet que l’on souhaite, elle lance une recherche sur le Web pour retrouver le même objet en ligne, pour l’acheter ou en savoir davantage sur lui. La manœuvre est simplissime et ne demande pas l’ouverture, fastidieuse, de plusieurs applications.

Un coach sportif dans l’Apple Watch…

L’arrivée de l’IA dans l’univers Apple prend le même chemin sur la Watch. Sous la forme, par exemple, d’un coach sportif vocal qui viendra encourager, via une voix artificielle, les efforts et les défis sportifs accomplis, ou encore assurer un suivi en temps réel des performances en direct pendant une course à pied. Toujours sur la montre, le système de notification peut désormais se montrer automatiquement plus discret si, après avoir analysé l’environnement sonore autour de l’appareil, il se rend compte qu’il y règne un précieux silence. De quoi éviter la honte de bips-bips trop intrusifs lors d’un moment de recueillement par exemple.

Sur Mac, et grâce au nouveau système d’exploitation « Tahoe », les conversations engagées avec un agent IA promettent d’être beaucoup plus simples. Une fonctionnalité permet en effet de faire des prompts sans avoir de connaissances particulières.

Accessible via Spotlight, l’outil de recherche d’un Mac, et de façon assistée avec des suggestions de mots-clés qui apparaissent. Il sera possible, par ce biais, de réaliser des « routines », des enchaînements de commandes directement accessibles en un clic. La promesse de ne plus se casser les dents sur une IA qui semble ne rien comprendre à ce qu’on lui demande, situation malheureusement rencontrée trop fréquemment par celles et ceux qui se frottent pour la première fois à un agent conversationnel artificiel.

Toutes ces nouveautés sont disponibles dès ce mardi pour les développeurs d’applications et seront implantées dans les fonctionnalités du prochain iPhone (17 ou 26 ?) à la rentrée prochaine.