AIJB

Pourquoi votre iPhone devient plus intelligent sans que Apple voie vos données

Pourquoi votre iPhone devient plus intelligent sans que Apple voie vos données
2025-11-11 journalistiek

San Francisco, dinsdag, 11 november 2025.
Imaginez : votre téléphone comprend exactement ce que vous voulez dire, sans qu’un serveur entende jamais un mot de votre conversation. C’est au cœur d’Apple Intelligence, désormais actif sur iPhone, iPad et Mac depuis novembre 2025. Ce qui frappe le plus ? La majorité du traitement d’IA se fait entièrement en local sur votre appareil – vos mots, vos photos et vos messages restent sécurisés sur votre écran. Aucune donnée envoyée vers le cloud. Seule la technologie conçue pour protéger votre vie privée est désormais meilleure que jamais : des résumés automatiques aux suppressions d’individus indésirables dans des photos avec une simple commande textuelle. Et la meilleure nouvelle ? Elle fonctionne déjà en néerlandais, avec une fonctionnalité élargie enfin pleinement disponible. La question n’est plus de savoir si l’IA est sûre, mais plutôt de savoir combien vite vous pouvez en tirer parti.

La technologie derrière Apple Intelligence : locale, sécurisée et intelligente

Apple Intelligence n’est pas une IA classique basée sur le cloud, mais un système qui fonctionne principalement directement sur l’appareil. Cela signifie que presque toutes les opérations de traitement du texte, de la parole et des images ont lieu sur votre iPhone, iPad ou Mac – sans jamais envoyer de données personnelles vers un serveur [1]. La technologie utilise la Neural Engine des puces Apple Silicon, comme la M1 et les versions ultérieures, ainsi que le modèle d’IA développé par Apple pour fonctionner en local. Ces modèles sont conçus pour fonctionner dans les contraintes d’un appareil mobile, tout en dépassant dans des tests internes les performances du petit modèle de Mistral AI, de Microsoft et de Google [2]. La plupart des actions d’IA, comme la réécriture d’un courrier, le résumé d’un message ou la suppression d’objets indésirables dans une photo, s’effectuent sans aucune connexion au cloud. Seules les tâches complexes, telles que la réponse à des questions nécessitant une grande puissance de calcul, utilisent un service cloud sécurisé, chiffré bout à bout : Apple’s Private Cloud Compute, qui fonctionne uniquement sur des serveurs Apple Silicon et où aucune donnée personnelle n’est stockée [1][3]. Cela souligne la priorité d’Apple en matière de vie privée, au cœur de sa stratégie d’IA [2][3].

Ce que les journalistes peuvent faire maintenant : du résumé à l’analyse d’image

Pour les journalistes, Apple Intelligence est un outil puissant au quotidien. La fonction « Aide à l’écriture » (Writing Tools) dans les applications Notes et Messages permet aux utilisateurs de réécrire, simplifier ou résumer du texte avec une simple indication [1]. Par exemple, une version brute d’un entretien peut être saisie, et le système génère en quelques secondes un résumé concis des points clés [4]. En pratique, cela permet d’économiser du temps lors de la rédaction d’articles ou du traitement de grandes quantités de contenu. De même, la fonction « Réduire les interruptions » (Reduce Interruptions) filtre les notifications selon leur contenu et leur urgence, permettant aux journalistes de se concentrer sans être dérangés par des messages moins pertinents [1]. Pour le journalisme visuel, Visual Intelligence est un véritable changement de jeu : avec la caméra de l’iPhone ou de l’iPad, un utilisateur peut scanner une image, et le système identifie des objets, des plantes, des animaux, voire une adresse sur une affiche, et peut automatiquement créer un événement au calendrier ou lancer une recherche Google [1][4]. La fonction « Apple Clean Up » permet de supprimer une personne vêtue de vêtements flashy d’une photo en disant simplement : « Supprime cette personne avec le manteau rouge » [1]. Toutes ces fonctionnalités fonctionnent localement, ce qui signifie qu’aucune photo ni texte n’est jamais envoyé vers le cloud [3].

Le rôle de ChatGPT et l’élargissement des possibilités créatives

Apple Intelligence intègre non seulement ses propres développements d’IA, mais aussi des forces externes. Depuis iOS 18.2, une intégration avec ChatGPT 4 est disponible, utilisée pour répondre à des questions complexes que l’IA locale ne peut pas traiter, comme le résumé d’un long texte ou la génération d’un scénario [1][4]. Cette intégration est gratuite, mais les utilisateurs disposant d’un abonnement ChatGPT Plus peuvent lier leur compte existant pour accéder à des fonctionnalités supplémentaires, comme la création de contenu dans plusieurs langues [1]. La fonction « Image Playground » permet aux utilisateurs de générer des images à partir de descriptions textuelles, par exemple : « un journaliste avec un casque argenté dans une situation de guerre urbaine » [1][4]. Ces images sont entièrement générées en local et peuvent être utilisées directement dans un article ou une publication sur les réseaux sociaux. Apple a également mis l’accent sur la prévention des deepfakes : toutes les générations d’images dans Image Playground sont automatiquement étiquetées avec un badge « créé par IA », afin que les utilisateurs sachent ce qu’ils voient [1][4]. Dans le secteur créatif, cela est essentiel pour la transparence et la confiance. La fonction Genmoji permet aux utilisateurs de créer leurs propres emoji à partir de textes, par exemple : « une vache tenant un microphone pendant qu’il pleut » [1][4]. Ces emoji sont immédiatement utilisables dans les messages et peuvent embellir le langage des journalistes sur les réseaux sociaux.

Le prix de la vie privée : précision, limites et dilemmes éthiques

Bien que Apple Intelligence protège la vie privée des utilisateurs d’une manière inédite, une difficulté persiste concernant la précision et la responsabilité. En décembre 2024, la BBC a rapporté qu’Apple Intelligence avait mal résumé un article d’actualité : elle affirmait que Luigi Mangione s’était suicidé, ce qui était faux [2]. En outre, des informations erronées ont été diffusées sur le vainqueur du Championnat du monde de darts PDC, et une histoire personnelle a été injustement attribuée à Rafael Nadal [2]. Apple a réagi en désactivant temporairement les résumés d’alertes basés sur l’IA dans iOS 18.3, et n’a réactivé la fonction qu’en iOS 26 beta 4, avec une mention claire : « Résumé par Apple Intelligence » [2]. Cela souligne que même le meilleur système d’IA peut commettre des erreurs, surtout lorsqu’il traite des informations d’actualité en constante évolution. Par ailleurs, une poursuite judiciaire aux États-Unis affirme que Apple a « induit en erreur des millions de consommateurs en prétendant que certaines fonctionnalités étaient disponibles alors qu’elles ne l’étaient pas » [2]. Le fossé entre le marketing et la réalité reste un risque. En outre, des limites techniques existent : en novembre 2025, Apple Intelligence ne fonctionne pas encore en néerlandais pour toutes les fonctionnalités, comme la traduction en direct dans l’application Téléphone ou FaceTime, et la Siri avancée avec connaissance contextuelle n’est prévue que pour le printemps 2026 [1]. La fonction « Réduire les interruptions » n’est également pas encore entièrement disponible en néerlandais en 2025 [1]. [alert! ‘Les fonctionnalités en néerlandais ne sont pas encore entièrement disponibles en 2025’]

L’avenir de l’IA dans le journalisme : jusqu’où s’étend la responsabilité ?

Apple Intelligence n’est pas seulement une avancée technologique, mais aussi une question morale. Le focus sur le traitement local est une réfutation forte des modèles cloud d’autres entreprises, comme ChatGPT, où les données sont souvent stockées et utilisées pour former les modèles [1][3]. Apple affirme que son IA « a été conçue pour protéger la vie privée en traitant les données localement, sans avoir besoin de les envoyer vers le cloud » [4]. Mais que se passe-t-il si un journaliste utilise une génération d’IA pour rédiger un article ? L’article reste-t-il crédible ? Et comment le lecteur peut-il détecter si un texte, une image ou un enregistrement audio a été généré par une IA ? C’est là que se croisent innovation et responsabilité. Apple a déjà un plan pour marquer les contenus générés par l’IA à l’avenir, mais son efficacité dépend de la cohérence et de la transparence [1]. L’entreprise travaille également à étendre ses capacités en IA : les 10 et 11 novembre 2025, plusieurs annonces d’emploi ont été publiées pour des ingénieurs en IA, des ingénieurs en apprentissage automatique et des designers UX, avec une attention portée à Siri, aux applications créatives et aux systèmes d’agents dans plusieurs langues, y compris le néerlandais [5]. Cela indique qu’Apple Intelligence n’est pas figé, mais se développe rapidement – aussi dans la réalité du monde de l’actualité [5].

Sources