
Tik Tok a retiré de sa plateforme une série de vidéos générées par l’intelligence artificielle (IA) mettant en scène un homme peinant à trouver un emploi au Canada et tenant des propos à connotation raciste.
Une enquête de CBC News

À la suite d’une enquête de l’équipe d’investigation visuelle de CBC News, TikTok a supprimé le compte «Unemployed flex», invoquant une violation de ses règles communautaires. Selon le média social, il n’était pas suffisamment clair que ce contenu avait été créé par IA.
Entre doute et crédulité

Josh – ce jeune homme blanc dans la vingtaine, montrant ses aventures à la recherche d’un travail et se plaignant du rôle des immigrants dans le marché du travail – n’est pas réel. Certains utilisateurs de TikTok ont remarqué que les vidéos étaient produites par l’IA, le déclarant dans les commentaires. Toutefois, d’autres ont été dupés, et donnaient des conseils à l’avatar.
Plusieurs internautes ont réagi

Plusieurs internautes ont aussi réagi au contenu qu’ils percevaient comme étant raciste, croyant que la personne derrière ce message existait réellement. Dans certains cas, Josh — le personnage fictif — leur a même répondu dans les commentaires pour se défendre, renforçant ainsi l’illusion.
Des propos à connotation raciste

Dans une vidéo, on peut voir le jeune homme se plaindre des personnes originaires d’Inde, qui, d’après lui, auraient pris tous les emplois disponibles, notamment chez Tim Hortons. «Tim Hortons vient de me demander si je parle le pendjabi, alors que je suis encore plus blanc que leur beignet à la crème Boston!», dit Josh dans une vidéo.
Tim Hortons dénonce les vidéos

Dans un communiqué, Tim Hortons a déclaré que la propagation de vidéos de ce genre était frustrante et préoccupante pour l’entreprise, ajoutant qu’elle avait eu du mal à les faire retirer.
Josh critique la politique d’immigration du Canada

Dans une autre vidéo, Josh critique la politique d’immigration du Canada, se demandant pourquoi autant de personnes sont admises dans le pays alors qu’il n’y a pas assez d’emplois pour tous le monde. «Je n’arrive pas à croire que j’ai perdu le travail au profit d’une personne qui parle à peine l’anglais», ajoute le personnage d’IA.
Un placement publicitaire subconscient

L’entreprise à l’origine de ce compte Tik Tok est Nexa, qui développe des logiciels utilisés par d’autres compagnies pour recruter du personnel. Dans les vidéos de Josh, le logo de Nexa apparait dans le décor. Le fondateur et PDG de l’entreprise, Divy Nayyar, a déclaré dans une entrevue avec CBC News que cette méthode est un placement publicitaire subconscient.
Le PDG de Nexa s'exprime

M. Nayyar a déclaré au média vouloir s’amuser avec l’idée, selon lui partagée par certains, que les Indiens envahissent le marché de l’emploi. Il affirme avoir créé le personnage de Josh pour connecter avec «humour» avec ceux enclin à partager cette opinion: de jeunes diplômés à la recherche d’un emploi.
«Contraire à l'éthique», selon Markus Giesler

«Ce type […] de narration hautement polarisante est typique de groupes d’extrême droite», a affirmé Markus Giesler, professeur de marketing à l’Université York, lors d’une entrevue avec CBC News. «Qu’une entreprise adopte un ton de campagne comme celui-ci pour attirer des clients est extrêmement problématique, totalement contraire à l’éthique, et du jamais vu», poursuit-il.
Veo3 de Google

M. Nayyar a expliqué que son entreprise a entre autres utilisé Veo de Google pour créer ce contenu. La version la plus récente du logiciel, Veo3, lancée en mai, permet de produire à partir de simples textes des vidéos bien plus réalistes que les versions précédentes. Des indices évidents comme des personnages ayant des doigts en trop ou des incohérences physiques sont désormais rares avec Veo3. De plus, l’audio se rapproche de véritables voix humaines, et les mouvements des lèvres sont bien synchronisés.
Un manque d’étiquetage clair

TikTok n’a pas commenté le message controversé des vidéos. La plateforme a seulement indiqué que le filigrane «Veo» qui était affiché en bas à droite des vidéos de Josh, n’était pas conforme à ses règles. Le média social a indiqué que les vidéos générées par l’IA présentant des scènes réalistes doivent être signalées par une étiquette, une légende, un filigrane ou un autocollant plus explicites.
Le «bon sens» du public

Nayyar affirme avoir voulu produire du contenu très réaliste, assumant que le public utiliserait son bon sens pour deviner qu’il était produit par l’IA. Il prétend que TikTok étiquette automatiquement ce type de contenu, ce qui est faux: les étiquettes ne sont pas automatiques, rapporte CBC News.
Des tactiques de marketing émotionnel

«L’IA permet désormais de produire plus facilement que jamais des vidéos de personnes à l’apparence réelle, véhiculant des messages haineux qui trouvent un public sur les réseaux sociaux. C’est une utilisation irresponsable des tactiques de marketing émotionnel. Il ne faut pas cautionner cela», s’inquiète M. Giesler.