Calcul IA privé de Google : équilibrer la puissance du cloud et la confidentialité des données

27

Google intensifie son jeu en matière de confidentialité avec le lancement de Private AI Compute, un nouveau système conçu pour exécuter ses modèles avancés d’IA Gemini tout en garantissant la sécurité des données des utilisateurs. Cette décision intervient alors que les préoccupations croissantes des consommateurs concernant la confidentialité des données alimentent la demande d’outils permettant aux utilisateurs d’exploiter de puissantes capacités d’IA sans compromettre leurs informations.

Semblable au Private Cloud Compute d’Apple (introduit en 2024), Private AI Compute vise à combler le fossé entre le traitement sur l’appareil et la puissance informatique du cloud. Le traitement sur l’appareil offre une forte confidentialité, car les données ne quittent jamais l’appareil de l’utilisateur, mais il peut être limité par la puissance de traitement de l’appareil.

Private AI Compute relève ce défi en permettant aux modèles d’exploiter l’infrastructure cloud de Google sans jamais exposer les données brutes des utilisateurs. Google souligne que ce système fonctionne dans un environnement matériel scellé et vérifié, cryptant tous les échanges de données entre les appareils et son cloud. Considérez-le comme une pièce sécurisée et verrouillée dans le cloud où les informations sensibles restent sous contrôle strict.

Pourquoi est-ce important ?

L’essor des applications d’IA soulève des questions cruciales sur la manière dont nos informations personnelles sont utilisées. Les gens hésitent de plus en plus à confier leurs conversations privées, leurs e-mails ou leurs données professionnelles confidentielles aux processus de formation à l’IA. Private AI Compute répond directement à ces préoccupations en offrant un moyen d’exploiter de puissants modèles basés sur le cloud tout en garantissant la protection des données.

Google souligne que cette approche offre le meilleur des deux mondes :

  • Puissantes capacités cloud : Les utilisateurs peuvent bénéficier de la vitesse et de la sophistication des modèles d’IA avancés de Google sans avoir à investir dans du matériel spécialisé et coûteux sur leurs appareils.
  • Protection de la confidentialité sur l’appareil : Les données ne quittent jamais l’appareil de l’utilisateur ni n’entrent dans un état dans lequel elles pourraient être consultées ou utilisées par Google à des fins autres que la tâche spécifique à accomplir (comme générer des résumés dans l’application Recorder).

Comment ça marche ?

Private AI Compute s’appuie sur le Secure AI Framework existant de Google et exploite des TPU (Tensor Processing Units) conçus sur mesure, ainsi que de nouveaux Titanium Intelligence Enclaves. Ces enclaves agissent comme des « îlots » informatiques hautement sécurisés au sein de l’infrastructure cloud de Google, appliquant un cryptage de bout en bout et des normes de sécurité strictes pour protéger les données des utilisateurs tout au long du cycle de vie du traitement.

Premiers pas : améliorations des repères magiques et de l’enregistreur

Private AI Compute alimentera dans un premier temps certaines fonctionnalités des produits Google. Tout d’abord, Magic Cue, un nouvel assistant basé sur l’IA qui arrive sur le Pixel 10, et des fonctionnalités mises à jour dans l’application Recorder. Ces améliorations utiliseront des modèles cloud pour des tâches telles que générer des résumés plus perspicaces et proposer des suggestions utiles tout en garantissant que les conversations restent privées.

Google considère Private AI Compute comme une étape cruciale vers sa vision d’expériences d’IA « utiles, personnelles et proactives » qui respectent la vie privée des utilisateurs. À mesure que l’IA s’intègre de plus en plus dans nos vies, il sera primordial de trouver cet équilibre entre capacités puissantes et sécurité des données.