Will Smith qui mange du spaghetti, un nouveau cauchemar de l’intelligence artificielle [VIDÉO]

S’il y a un sujet chaud en techno ces temps-ci, c’est bien l’intelligence artificielle et les modèles accessibles au grand public. Les internautes génèrent n’importe quoi: une image du pape François avec un gros manteau, des travaux d’école ou même de faux événements historiques.
• À lire aussi: Intelligence artificielle: pourquoi des experts réclament une pause de six mois?
• À lire aussi: Les indices qui trahissent les images générées par IA
Ce n’est pas que le côté divertissant de l’IA qui fait jaser, toutefois. Il y a de nombreux enjeux éthiques importants à surveiller, dont son impact sur le marché du travail, son utilisation malveillante et les «graves risques pour la société et l’humanité». Mais, c’est pas dans cet article qu’on va en parler. Pour peut-être la dernière fois au sujet de l’IA, on vous montre quelque chose de profondément niaiseux: Will Smith qui mange du spaghetti. (Pour le côté sérieux de l'IA, cliquez ici).
Générés par Modelscope, un modèle qui transforme une demande texte en vidéo, les extraits de Will Smith qui mange des pâtes ont été publiés sur Reddit et dénichés par Vice. Le résultat est de mauvaise qualité et loin d’être réaliste, ce qui explique un peu sa popularité. C’est cauchemardesque.
Le modèle chinois Modelscope Text2Video, accessible sur Hugging Face, génère des clips de quelques secondes seulement. J’ai tenté de générer une vidéo de Céline Dion qui fait la danse des canards, mais l’outil est complètement débordé à l’instant. Et ça risque d’être pire dans les prochains jours, car le buzz sur le Web se fait sentir.
Le code du modèle est toutefois offert sur GitHub, alors attendez-vous à voir des créations semblables sur Reddit et Twitter. Les clips de Will Smith sont loin d’être les seuls qui circulent, aussi. Il fallait s’attendre à des vidéos de Bigfoot!
Il ne s’agit pas du seul modèle qui génère des vidéos, non plus. Gen-1 de Runway peut déjà générer des clips à partir de vidéos existantes. Gen-2, qui devrait être déployé «bientôt», pourra générer des vidéos à partir de texte. Mais, c’est le résultat «low-res» de Modelscope Text2Video qui captive les internautes; le look épuré de Runway est un peu plus sérieux.
Et c’est sérieux, l’IA. C’est tellement sérieux que les experts veulent qu’on ralentisse son évolution. Mais, ça ne veut pas dire qu’on va arrêter de voir des trucs chaotiques comme Will Smith qui mange un bon repas italien en attendant que Skynet prenne le dessus.
3 extraits de Pedro Pascal qui danse, générés par Gen-1 de Runway