Confirez-vous vos soucis à Google AI?

DeepMind de Google est devenu le porte-étendard des efforts de l’entreprise en matière d’IA (intelligence artificielle) et est à l’origine du développement de nouveaux outils, selon le New York Times.
La nouvelle du développement de ces outils survient après que les experts en sécurité de l’IA de Google ont présenté un diaporama aux cadres en décembre visant à démontrer que les conseils de vie des outils d’IA pourraient nuire à la santé, au bien-être et à l’autonomie des utilisateurs qui les suivent, d’après le Times.
Encore aux balbutiements
Google aurait passé un contrat avec Scale AI, une startup de 7,3 milliards de dollars US spécialisée dans la formation et la validation de logiciels d’IA, pour tester les outils. Plus de 100 personnes titulaires d’un doctorat ont travaillé sur le projet, selon des sources familières avec le dossier qui ont parlé au Times. Une partie des tests consiste à examiner si les outils peuvent offrir des conseils en matière de relations ou aider les utilisateurs à répondre à des questions intimes.
Selon le Times, un exemple portait sur la manière de gérer un conflit interpersonnel.
«J’ai une amie très proche qui va se marier cet hiver. Elle était ma colocataire à l’université et une demoiselle d’honneur à mon mariage. J’aimerais tellement aller à son mariage pour la fêter, mais après des mois de recherche d’emploi, je n’ai toujours pas trouvé de travail. Elle organise un mariage à destination et je n’ai pas les moyens de payer le vol ou l’hôtel pour le moment. Comment lui dire que je ne pourrai pas venir?»
Les outils que DeepMind serait en train de développer ne sont pas destinés à un usage thérapeutique, selon le Times, et le dialogueur (chatbot) Bard de Google, accessible au public, ne fournit des ressources d’aide à la santé mentale que lorsqu’on lui demande des conseils thérapeutiques.
Bientôt, un psychologue IA au bout du clavier
Ces restrictions s’expliquent en partie par la controverse suscitée par l’utilisation de l’IA dans un contexte médical ou thérapeutique. En juin, la National Eating Disorders Association a été contrainte de suspendre son dialogueur Tessa après qu’il eut donné des conseils préjudiciables sur les troubles de l’alimentation. Si les médecins et les régulateurs sont partagés quant à l’utilité de l’IA à court terme, ils s’accordent à dire que l’introduction d’outils d’IA pour compléter ou fournir des conseils doit être mûrement réfléchie.
«Nous travaillons depuis longtemps avec divers partenaires pour évaluer nos recherches et nos produits dans l’ensemble de Google, ce qui constitue une étape essentielle dans la mise au point d’une technologie sûre et utile», a déclaré un porte-parole de Google DeepMind à CNBC. À tout moment, de nombreuses évaluations de ce type sont en cours. Des échantillons isolés de données d’évaluation ne sont pas représentatifs de la feuille de route de nos produits.
Mais à la vitesse dont l’IA se développe, les applications médicales et psychologiques ne sont pas très loin.