Google Multitasking : rechercher des photos et des vidéos

À tous ceux qui se demandent à quoi sert l'Intelligence Artificielle (IA) dans la vie de tous les jours (si le Chat GPT ou le nouveau Google Bard ne suffisaient pas), la société de Mountain View a répondu aujourd'hui en annonçant d'importantes améliorations à notre façon de faire de la recherche tous les jours, en surmontant – grâce à l'IA – toutes les barrières linguistiques et logistiques.

Au cri de "Votre appareil photo est le prochain clavier" ou "Si vous pouvez le voir, vous pouvez le rechercher" , grâce à Google Lens, les appareils photo des téléphones portables Android deviennent désormais de véritables outils de recherche (les utilisateurs d'iPhone ont pour ouvrir l'application Google et cliquez sur la caméra dans la chaîne de recherche).Fondamentalement, tout ce que nous encadrons avec le téléphone portable peut être recherché et trouvé. En plus d'être traduit, dans le cas des textes, en 133 langues.

Par exemple, si je vois une paire de lunettes qui me plaît, je l'encadre et je clique sur la photo pour accéder à la recherche Google qui renvoie des informations et des options d'achat. Soit, je vois une plante dont je ne connais pas le nom, je l'encadre et j'ai tout de suite accès à des sites spécialisés qui m'expliquent de quelle plante il s'agit.

De toute évidence, cette recherche ouvre une multitude de possibilités, du shopping à la compréhension de quelque chose d'inconnu, par exemple si nous sommes à l'étranger, à savoir sans même avoir à demander quel est le nom du délicieux dessert que nous observons depuis les fenêtres de une pâtisserie, par exemple.

Dans les mois à venir, il sera également possible d'utiliser Lens pour les choses que nous voyons sur l'écran mobile. Grâce à la fonction « Rechercher votre écran » sur les appareils Android du monde entier, il sera possible de lancer une recherche à partir de ce que nous voyons dans une photo ou une vidéo sur le Web et dans nos applications préférées, telles que les applications de messagerie et de vidéo, sans avoir à quitter l'application ou l'expérience spécifique.

Imaginez que quelqu'un vous envoie une vidéo WhatsApp de ses vacances à Londres. Peut-être avez-vous vu un monument en arrière-plan qui vous a intrigué, pour en savoir plus, appuyez et maintenez enfoncé le bouton d'alimentation ou le bouton Accueil de votre téléphone Android, pour appeler l'assistant Google, puis appuyez sur « écran de recherche ». Lens identifiera le bâtiment et renverra toutes les informations sur ce lieu.

Pas seulement en ligne, trouver près de chez moi

Si on veut chercher autour de soi ce qu'on a vu, la recherche multitâche permet aussi de prendre une photo avec l'option "près de moi" , pour identifier par exemple un commerce de quartier où l'on peut acheter quoi nous cherchons. Cette option est actuellement disponible en anglais aux États-Unis, mais sera déployée dans le monde entier dans les mois à venir.

Enfin, il sera bientôt possible d'introduire des variables dans la recherche multitâche.Par exemple, je vois une table carrée que j'aime bien, mais j'aimerais qu'elle soit ronde. Je prends la photo, lance la recherche et ajoute une autre option (forme, couleur, taille différente, etc.). Le but de toutes ces innovations, comme l'explique Prabhakar Raghavan, vice-président senior de Google, est de rendre l'expérience de recherche aussi simple et complète que possible dans le respect de la devise du géant technologique : "Améliorer la vie du plus grand nombre de personnes possible ".

Et Google Maps devient immersif

Oublions les cartes traditionnelles - dont nous sommes déjà infiniment reconnaissants de nous avoir guidés jusqu'à aujourd'hui - car aujourd'hui Chris Phillips, VP & General Manager de Geo (division Google Maps) annonce une innovation qui va tout changer. Cartes immersives (Live View).

Combien de fois en suivant des indications, même si précises, avons-nous pris le mauvais côté ou sorti ? C'est normal et ça arrive à tout le monde, mais ça n'arriverait pas s'il y avait une correspondance entre la route tracée sur la carte et ce que nos yeux voient.Ainsi, en plus de lancer prochainement la Réalité Augmentée pour les cartes de Florence et de Venise, nous pourrons bientôt planifier nos déplacements au millimètre près en sachant exactement à quoi ressemble la rue, l'endroit que nous voulons atteindre et tous les lieux, même à l'intérieur , que notre chemin implique.

Fondamentalement, en combinant toutes les images existantes des différents endroits sur Terre, Google Maps pourra nous donner une vision 3D des villes, complétée par la reconstruction des espaces intérieurs (par exemple, les musées, les restaurants, les centres commerciaux, Aéroports et Gares).

Le voyage avant le voyage

Grâce aux progrès de l'intelligence artificielle et de la vision par ordinateur, la visualisation immersive fusionne des milliards d'images Street View et d'images aériennes pour créer un modèle numérique incroyablement riche du monde. Mais cela ne s'arrête pas là. Maps est toujours un enfant de Google, donc la visualisation 3Dsera également en mesure de fournir des informations utiles telles que la météo, le trafic et la fréquentation d'un lieu.

Par exemple, si nous prévoyons une visite au Rijksmuseum d'Amsterdam, nous pouvons survoler virtuellement le bâtiment et voir où se trouvent, par exemple, les entrées du musée. Avec le curseur temporel, nous pouvons voir à quoi ressemble la zone à différents moments de la journée et demander quel temps il fera. Nous pouvons également identifier les endroits les plus fréquentés, afin que vous disposiez de toutes les informations dont vous avez besoin pour décider où et quand vous rendre. Et si nous savons que nous irons à l'heure du déjeuner, nous pouvons explorer les restaurants à proximité et même jeter un coup d'œil à l'intérieur pour avoir rapidement une idée de l'endroit avant de réserver.

Le monde en 3D

Cela ressemble à de la science-fiction mais ce n'est que de la science. Comme Google l'explique : « Pour créer ces scènes réalistes, nous utilisons Neural Radiance Fields (NeRF), une technique d'IA avancée qui transforme des images ordinaires en représentations 3D.Avec NeRF, nous pouvons recréer avec précision tout le contexte d'un lieu, y compris l'éclairage, la texture des matériaux et l'arrière-plan. Tout cela permet de comprendre si l'éclairage tamisé d'un bar est la bonne ambiance pour une soirée galante ou si la vue d'un café en fait l'endroit idéal pour un déjeuner entre amis" .

Dites adieu aux mauvaises surprises au mauvais endroit.

Ce type de recherche est actuellement disponible à Londres, Los Angeles, New York, San Francisco, Paris et Tokyo (pour Android et iPhone). Les prochaines villes seront Barcelone, Dublin et Madrid. Et puis Live View s'étendra à 1 000 nouveaux aéroports, gares et centres commerciaux (les endroits où il est plus facile de se perdre ou de chercher des toilettes) à Barcelone, Berlin, Francfort, Londres, Madrid, Melbourne, Paris, Prague, Sao Paulo, Singapour, Sydney, Taipei et Tokyo. À l'heure actuelle, il couvre déjà les aéroports des États-Unis, de Zurich et de Tokyo.

Plus d'actualités Maps

Comme nous l'avons mentionné, la possibilité d'explorer les villes et les rues en temps réel, d'identifier les lieux et les entreprises avec la réalité augmentée affectera d'abord les villes de Venise et de Florence en Italie. Permettre à ceux qui les visitent d'accéder instantanément à de nombreuses informations utiles telles que l'emplacement d'une pharmacie, s'il y a un restaurant à proximité, sa fréquentation, sa cote, etc. tout simplement en encadrant une rue.

Mais parmi les nouveaux développements, une attention particulière est accordée à la durabilité des voyages. Si Google Maps est déjà capable de recommander l'itinéraire le plus durable sur le plan écologique, il élargira bientôt son offre spécifiquement pour les voitures électriques - avec des itinéraires ad hoc et des bornes de recharge, aux vélos - avec des itinéraires anti-smog, pour les piétons et ceux qui utiliser les transports en commun. Améliorant également l'indication de l'itinéraire en temps réel sur la carte et ajoutant des photos utiles lorsque vous devez faire un virage ou trouver un bâtiment.

Itinéraire en un coup d'œil

Avec les directions en un coup d'œil, vous pouvez ensuite suivre votre trajet directement depuis l'aperçu de l'itinéraire ou depuis l'écran de verrouillage. Vous pouvez voir les heures d'arrivée estimées et le prochain virage, des informations qui n'étaient auparavant visibles qu'en déverrouillant le téléphone, en ouvrant l'application et en utilisant le mode de navigation complet. Et si nous décidons d'emprunter un autre itinéraire, notre trajet sera automatiquement mis à jour. Les directions en un coup d'œil commenceront à être déployées dans le monde entier sur Android et iOS dans les mois à venir, et seront également compatibles avec les activités en direct sur iOS 16.1.

Ceux qui aiment se perdre sereinement ou suivre les étoiles peuvent continuer à le faire sans problème.

Articles intéressants...