Google révolutionne les sous-titres avec l’IA
Google franchit un nouveau cap dans l’accessibilité avec sa fonctionnalité innovante Sous-titres Expressifs. Dévoilée récemment, cette avancée utilise l’intelligence artificielle pour transformer les sous-titres traditionnels en une expérience dynamique et immersive. Plus qu’une simple transcription, ces sous-titres transmettent l’intensité des paroles, les sons d’arrière-plan et les émotions exprimées, rendant le visionnage plus vivant que jamais.
Des sous-titres qui « parlent » aux utilisateurs
Imaginez une personne vous souhaitant un « JOYEUX ANNIVERSAIRE » avec enthousiasme : avec les Sous-titres Expressifs, le texte apparaîtra en majuscule pour retranscrire cette énergie. Les descriptions de sons ambiants comme des applaudissements, de la musique, ou encore des soupirs et halètements viendront enrichir le contenu pour une expérience sensorielle améliorée.
Cette nouveauté s’intègre à la fonctionnalité Live Caption, déjà présente sur Android, qui génère en temps réel des sous-titres pour vidéos, appels téléphoniques ou messages audio. Fonctionnant hors connexion, directement sur l’appareil, elle est utilisable partout, même en mode avion.
Une réponse à des usages en pleine évolution
Si les sous-titres étaient historiquement destinés aux personnes sourdes ou malentendantes, leur utilisation s’est largement démocratisée. Regarder des vidéos sans le son dans les transports, suivre un film dans une langue étrangère, ou encore mieux comprendre un dialogue rapide : autant de situations où ils deviennent indispensables. Selon une étude de Preply, 70 % des membres de la génération Z regardent aujourd’hui la télévision avec des sous-titres.
Cependant, les contenus comme les diffusions en direct, les vidéos sur les réseaux sociaux ou les messages personnels intègrent rarement des sous-titres préchargés. Les Sous-titres Expressifs viennent ainsi combler un vide, en offrant une expérience riche et contextuelle pour ce type de contenu.
L’IA au cœur de l’innovation
Développée par les équipes d’Android en collaboration avec Google DeepMind, cette technologie s’appuie sur des modèles avancés d’IA pour identifier une vaste gamme de sons et de nuances vocales. Selon Angana Ghosh, directrice de la gestion des produits Android, « cette innovation utilise l’IA pour créer des solutions accessibles qui prennent en compte les expériences vécues par les personnes en situation de handicap. »
La fonctionnalité est disponible dès maintenant aux États-Unis, en anglais, sur tous les appareils compatibles avec Android 14 ou ultérieur.
D’autres avancées pour l’accessibilité : Lookout et Gemini
En parallèle, Google améliore son application Lookout, dédiée aux personnes aveugles ou malvoyantes. Désormais, Lookout intègre l’arabe, utilise les modèles Gemini pour enrichir les descriptions d’images, et propose un mode de questions-réponses pour interagir davantage avec le contenu visuel.
Google renforce aussi l’intégration des extensions Gemini dans Android, facilitant l’accès à des applications comme Spotify, Utilities et les appels téléphoniques via son assistant virtuel.
Les appareils Pixel en première ligne
Les utilisateurs de smartphones Pixel profitent, quant à eux, de mises à jour exclusives. Parmi elles :
- Gemini Saved Info : mémorise vos préférences pour des réponses plus pertinentes.
- Pixel Screenshots : sauvegarde des informations (cartes, billets) via des captures d’écran organisées automatiquement.
- Simple View : améliore la navigation avec des polices agrandies, un affichage simplifié et une meilleure sensibilité tactile.
Une accessibilité plus humaine grâce à l’IA
Avec les Sous-titres Expressifs, Google transforme non seulement l’expérience des utilisateurs sourds ou malentendants, mais répond aussi aux nouveaux usages des contenus sans son. En combinant technologie et accessibilité, Google redéfinit la manière dont nous consommons les vidéos, qu’il s’agisse d’un message personnel ou d’une diffusion en direct. Une innovation qui, une fois de plus, met l’IA au service d’un quotidien plus inclusif.