Tout révélé, y compris Gemini AI, Android 15 et plus | Dmshaulers

Tout ce qui a été annoncé lors de Google I/O 2024, y compris Gemini AI, Project Astra, Android 15 et plus

À la fin de I/O, la conférence annuelle des développeurs de Google au Shoreline Amphitheatre de Mountain View, le PDG de Google, Sundar Pichai, a révélé que la société avait dit « IA » 121 fois. C’était essentiellement l’essentiel du discours d’ouverture de deux heures de Google : intégrer l’IA dans chaque application et service Google utilisé par plus de deux milliards de personnes dans le monde. Voici toutes les grandes mises à jour du grand événement de Google, ainsi que quelques annonces supplémentaires intervenues après le discours d’ouverture.

Gémeaux Pro

Google

Google a annoncé un tout nouveau modèle d’IA appelé Gemini 1.5 Flash, qui, selon lui, est optimisé pour la vitesse et l’efficacité. Flash se situe entre le Gemini 1.5 Pro et le Gemini 1.5 Nano, qui est le plus petit modèle de la société fonctionnant localement sur l’appareil. Google a déclaré avoir créé Flash parce que les développeurs souhaitaient un modèle plus léger et moins cher que Gemini Pro pour créer des applications et des services basés sur l’IA, tout en conservant certains éléments, comme une longue fenêtre contextuelle d’un million de jetons qui distinguent Gemini Pro des modèles concurrents. Plus tard cette année, Google doublera la fenêtre contextuelle de Gemini pour la porter à deux millions de jetons, ce qui signifie qu’il sera capable de traiter deux heures de vidéo, 22 heures d’audio, plus de 60 000 lignes de code ou plus de 1,4 million de mots en même temps.

Projet AstraProjet Astra

Google

Google a présenté le projet Astra, une première version d’un assistant universel alimenté par l’IA, qui, selon le PDG de DeepMind, Demis Hassabis, était la version de Google d’un agent IA “qui peut être utile dans la vie de tous les jours”.

Dans une vidéo qui, selon Google, a été tournée en une seule prise, un utilisateur d’Astra se promène dans le bureau de Google à Londres, levant son téléphone et pointant la caméra vers diverses choses – un haut-parleur, du code sur un tableau blanc et par une fenêtre – et ayez une conversation naturelle avec l’application sur son apparence. Dans l’un des moments les plus impressionnants de la vidéo, elle indique correctement à l’utilisateur où elle a laissé ses lunettes auparavant, sans que l’utilisateur ne les récupère jamais.

La vidéo se termine par un rebondissement : lorsque l’utilisateur trouve et porte les lunettes manquantes, nous apprenons qu’ils disposent d’un système de caméra intégré et qu’ils sont capables d’utiliser le projet Astra pour tenir une conversation de manière transparente avec l’utilisateur, indiquant peut-être que Google pourrait être travaille sur un concurrent des lunettes intelligentes Ray Ban de Meta.

Demander des photosDemander des photos

Google

Google Photos était déjà intelligent lorsqu’il s’agissait de rechercher des photos ou des vidéos spécifiques, mais avec l’IA, Google passe au niveau supérieur. Si vous êtes abonné à Google One aux États-Unis, vous pourrez poser à Google Photos une question complexe telle que « montre-moi la meilleure photo de chaque parc national que j’ai visité » lors du lancement de la fonctionnalité dans les prochains mois. Google Photos utilisera les informations GPS ainsi que son propre jugement sur ce qui est « le mieux » pour vous présenter des options. Vous pouvez également demander à Google Photos de générer des légendes pour publier les photos sur les réseaux sociaux.

HélasHélas

Google

Les nouveaux moteurs de création multimédia de Google basés sur l’IA s’appellent Veo et Imagen 3. Veo est la réponse de Google à Sora d’OpenAI. Il peut produire des vidéos 1080p de « haute qualité » pouvant durer « plus d’une minute », a déclaré Google, et peut comprendre des concepts cinématographiques comme un timelapse.

Imagen 3, quant à lui, est un générateur de texte en image qui, selon Google, gère mieux le texte que sa version précédente, Imagen 2. Le résultat est le modèle texte en image de la plus haute qualité de l’entreprise avec des « niveaux de détail incroyables » pour ” des images photoréalistes et réalistes » et moins d’artefacts – ce qui les oppose essentiellement au DALLE-3 d’OpenAI.

recherche Googlerecherche Google

Google

Google apporte de grands changements dans le fonctionnement de la recherche. La plupart des mises à jour annoncées aujourd’hui, par ex. la possibilité de poser des questions très complexes (« Trouvez les meilleurs studios de yoga ou de Pilates à Boston et d’afficher des détails sur leurs offres d’introduction et le temps de marche depuis Beacon Hill. ») et d’utiliser la recherche pour planifier les repas et les vacances gagnées ne seront disponibles que si vous inscrivez-vous à Dig Search Labs, la plate-forme de l’entreprise qui permet aux utilisateurs d’essayer des fonctionnalités expérimentales.

Mais une nouvelle fonctionnalité importante que Google appelle AI Overviews, que la société teste depuis un an maintenant, est enfin déployée auprès de millions de personnes aux États-Unis. La recherche Google présentera désormais par défaut les réponses générées par l’IA en plus des résultats, et la société affirme qu’elle proposera cette fonctionnalité à plus d’un milliard d’utilisateurs dans le monde d’ici la fin de l’année.

Gémeaux sur AndroidGémeaux sur Android

Google

Google intègre Gemini directement dans Android. Lorsqu’Android 15 sortira plus tard cette année, Gemini connaîtra l’application, la photo ou la vidéo que vous exécutez, et vous pourrez l’afficher en superposition et lui poser des questions spécifiques au contexte. Où cela laisse-t-il Google Assistant, qui fait déjà cela ? Qui sait! Google n’en a pas du tout évoqué lors du discours d’aujourd’hui.

Google n’est pas tout à fait prêt à déployer la dernière version du système d’exploitation de la smartwatch, mais il promet de grandes améliorations de la durée de vie de la batterie lorsqu’elle arrivera. La société a déclaré que Wear OS 5 consommerait 20 % d’énergie en moins que Wear OS 4 si un utilisateur courait un marathon. Wear OS 4 a déjà amélioré la durée de vie de la batterie des montres intelligentes qui le prennent en charge, mais il pourrait encore être bien meilleur dans la gestion de l’alimentation d’un appareil. Google a également fourni aux développeurs un nouveau guide sur la façon d’économiser de l’énergie et de la batterie afin qu’ils puissent créer des applications plus efficaces.

L’aperçu développeur d’Android 15 existe peut-être depuis des mois, mais il reste encore des fonctionnalités à venir. Theft Detection Lock est une nouvelle fonctionnalité d’Android 15 qui utilisera l’IA (la voilà encore) pour prédire les vols de téléphones et déverrouiller les choses en conséquence. Google affirme que ses algorithmes peuvent détecter les mouvements associés au vol, tels que ceux associés à la saisie du téléphone et au vissage, au vélo ou à la fuite. Si un combiné Android 15 détecte l’une de ces situations, l’écran du téléphone se verrouillera rapidement, ce qui rendra beaucoup plus difficile l’accès du pirate informatique à vos données.

Il y a également eu de nombreuses autres mises à jour. Google a déclaré qu’il ajouterait des filigranes numériques aux vidéos et textes générés par l’IA, rendrait Gemini disponible dans la barre latérale de Gmail et Docs, alimenterait un coéquipier virtuel d’IA dans Workspace, écouterait les appels téléphoniques et détecterait si vous êtes trompé en réalité. du temps et bien plus encore.

Suivez dès maintenant toute l’actualité de Google I/O 2024 ici!

Mise à jour le 15 mai à 14 h 45 HE : Cette histoire a été mise à jour après sa publication pour inclure des détails sur les nouvelles annonces d’Android 15 et WearOS 5 faites après le discours d’ouverture d’I/O 2024.

Leave a Reply

Your email address will not be published. Required fields are marked *