



Google a profité d'un événement à Paris pour dévoiler certaines des dernières avancées de l'IA dans ses produits Search et Maps.
L'événement de dernière minute a été largement considéré comme une réponse à l'intégration par Microsoft des modèles d'OpenAI dans ses produits. Pas plus tard qu'hier, Microsoft a organisé un événement encore plus impromptu au cours duquel il a annoncé qu'une nouvelle version du chatbot ChatGPT d'OpenAI - basée sur GPT-4 - sera intégrée au navigateur Edge et au moteur de recherche Bing.
Google devait faire un grand nombre d'annonces sur l'IA lors de sa conférence des développeurs d'E/S en mai. L'événement de cette semaine a ressemblé à une tentative précipitée et grossière de Google pour rappeler au monde (ou, plus probablement, aux investisseurs) qu'il est également un leader de l'IA et qu'il n'a pas été laissé pour compte.
OpenAI aurait déclenché la sonnette d'alarme chez Google avec ChatGPT. À l'invitation du PDG de Google, Sundar Pichai, les fondateurs de l'entreprise - Larry Page et Sergey Brin - sont revenus pour une série de réunions afin d'examiner la stratégie de produits d'IA de Google.
À la suite de ces réunions, il aurait été décidé que Google accélérerait son processus d'examen de l'IA afin de pouvoir déployer des solutions plus rapidement. Au milieu de ces rapports et du licenciement par Google de chercheurs en éthique de haut niveau, beaucoup craignent que l'entreprise ne précipite des produits dangereux sur le marché.
Prabhakar Raghavan, SVP chez Google, a dirigé les débats. Dans son allocution d'ouverture, il a déclaré que l'objectif de Google est « d'améliorer considérablement la vie du plus grand nombre de personnes possible ». Tout au long de l'événement, divers intervenants ont semblé vraiment vouloir pousser le récit selon lequel Google ne prendrait pas de risques.
"En ce qui concerne l'IA, il est essentiel que nous apportions des modèles au monde de manière responsable", a déclaré Raghavan.
Recherche Google
La recherche est le pain quotidien de Google. La menace qu'un Bing amélioré par ChatGPT pourrait représenter pour Google semble avoir été ce qui a provoqué une telle alarme au sein de l'entreprise.
"La recherche est toujours notre plus gros coup de lune", a déclaré Raghavan. Ajoutant, "la lune continue de bouger."
Google a utilisé cette section pour mettre en évidence certaines des avancées qu'il a réalisées en arrière-plan et dont la plupart ne sont pas conscients. Cela a inclus l'utilisation de la traduction automatique pour ajouter deux douzaines de nouvelles langues à Google Translate au cours de l'année écoulée.
Un autre produit qui continue d'être amélioré par l'IA est Google Lens, qui est maintenant utilisé plus de 10 milliards de fois par mois.
"La caméra est le prochain clavier", explique Raghavan. "L'ère de la recherche visuelle est arrivée."
Liz Reid, vice-présidente de l'ingénierie chez Google, a pris la parole pour fournir une mise à jour sur ce que fait l'entreprise dans ce domaine.
Google Lens est étendu pour prendre en charge le contenu vidéo. Un utilisateur peut activer Lens, toucher quelque chose sur lequel il souhaite en savoir plus dans un clip vidéo (comme un point de repère), et Google affichera plus d'informations à ce sujet.
"Si vous pouvez le voir, vous pouvez le rechercher", explique Reid.
La recherche multiple est une autre amélioration impressionnante de la recherche visuelle que Google a montrée. La fonctionnalité permet aux utilisateurs de rechercher à la fois une image et du texte. Par exemple, vous pouvez essayer de trouver une chaise ou un vêtement spécifique dans une couleur différente.
Google allait donner une démo en direct de multi-recherche mais a maladroitement perdu le téléphone. Heureusement, la société affirme qu'elle est désormais disponible dans le monde entier, vous pouvez donc l'essayer vous-même.
Peu d'entreprises ont accès à autant d'informations sur le monde et ses citoyens que Google. Au-delà des arguments de confidentialité, cela permet à l'entreprise d'offrir des services puissants qui se complètent.
Reid dit que les utilisateurs pourront prendre une photo de quelque chose comme un article de boulangerie et demander à Google de trouver un lieu à proximité de Google Maps où la personne pourra mettre la main sur un équivalent. Google indique que cette fonctionnalité sera bientôt disponible pour les images sur les pages de résultats de recherche mobile.
Barde
Prabhakar a repris la scène pour discuter de la réponse de Google à ChatGPT.
Le service d'IA conversationnelle de Google s'appelle Bard et est alimenté par LaMDA (Language Model for Dialogue Applications).
LaMDA est un modèle basé sur Transformateurune architecture de réseau neuronal que Google Research a inventée et open source en 2017. Au lieu de s'appuyer sur des réponses prédéfinies comme les anciens chatbots, LaMDA est formé au dialogue pour des interactions naturelles plus ouvertes et peut fournir des informations à jour à partir de la toile.
Dans un exemple d'interaction, Prabhakar a demandé à Bard ce qu'il devrait considérer lors de l'achat d'une nouvelle voiture. Il a ensuite demandé les avantages et les inconvénients d'une voiture électrique. Enfin, il a demandé à Bard de l'aider à planifier un road trip.

Bard est désormais disponible pour les testeurs de confiance, mais Prabhakar dit que Google va vérifier qu'il respecte la « barre haute » de l'entreprise en matière de sécurité avant un déploiement plus large.
La société dit qu'elle adopte NORA (No One Right Answer) pour des questions telles que "Quelle est la meilleure constellation à rechercher lors de l'observation des étoiles?" comme c'est subjectif. L'IA générative sera utilisée dans de tels cas pour apporter plusieurs points de vue aux résultats, ce qui semble assez similaire à ce qu'elle fait dans Google News depuis un certain temps pour aider à résoudre les problèmes de biais.
Prabhakar poursuit en soulignant que le potentiel de l'IA générative va bien au-delà du texte. Le SVP souligne que Google peut utiliser l'IA générative pour créer une vue à 360 degrés d'articles comme des baskets à partir d'une poignée d'images seulement.
Le mois prochain, Google commencera à intégrer des développeurs pour son API Generative Language afin de les aider à accéder à de puissantes fonctionnalités. Initialement, l'API sera alimentée par LaMDA. Prabhakar dit qu'"une gamme de modèles" suivra.
Google Maps
Chris Phillips, responsable du groupe Geo de Google, est monté sur scène pour donner un aperçu de certaines des améliorations de l'IA que la société apporte à Google Maps.
Phillips dit que l'IA "alimente la prochaine génération de Google Maps". Google utilise l'IA pour fusionner des milliards d'images Street View et du monde réel afin de transformer des cartes 2D en "vues multidimensionnelles" qui permettront aux utilisateurs de survoler virtuellement les bâtiments s'ils planifient une visite.
Cependant, le plus impressionnant est la façon dont l'IA permet à Google de prendre des images 2D d'emplacements intérieurs et de les transformer en 3D que les gens peuvent explorer. Un exemple fourni de cas où cela pourrait être utile est de vérifier un restaurant avant un rendez-vous pour voir si l'éclairage et l'ambiance générale sont romantiques :

Des améliorations supplémentaires sont apportées à la "Recherche avec Live View", qui utilise la RA pour aider les gens à trouver des choses à proximité comme les guichets automatiques.
Lorsque vous recherchez des choses comme des cafés, vous pouvez voir s'ils sont ouverts et même à quel point ils sont généralement occupés à partir de la vue AR.

Google dit qu'il fait sa plus grande expansion de la vue en direct en intérieur aujourd'hui. La vue en direct intérieure s'étend à 1000 nouveaux aéroports, gares et centres commerciaux.
Enfin, Google aide les utilisateurs à faire des choix de transport plus durables. Phillips dit que Google veut "faire le choix durable, le choix facile".
Les nouvelles fonctionnalités de Google Maps pour les propriétaires de véhicules électriques faciliteront la planification des trajets en tenant compte du trafic, du niveau de charge et de la consommation d'énergie. Les recommandations d'arrêt de charge seront améliorées et un filtre de charge "très rapide" aidera les propriétaires de véhicules électriques à choisir un endroit où ils peuvent se recharger rapidement et être en route.
La marche est encore plus durable que la conduite d'un véhicule électrique. Google rend les itinéraires à pied plus « lisibles » à partir de l'aperçu de votre itinéraire. La société affirme qu'elle sera déployée à l'échelle mondiale sur Android et iOS au cours des prochains mois.
Prabhakar reprend la scène pour souligner que Google est "25 ans dans la recherche" mais taquine que, à certains égards, "ne fait que commencer". Il poursuit en disant que plus est en préparation et que "le meilleur est encore à venir".
Google I/O 2023 est devenu encore plus excitant.
(Photo par Mitchell Luo sur Unsplash)

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.
Source