
Tibo Inshape \ Photo : @ DR
Depuis fin octobre, Tibo InShape et Sora 2 font la une des réseaux sociaux. L’influenceur français, connu pour ses vidéos sur la musculation et la motivation, a accepté que son visage soit modélisé en 3D pour être utilisé dans l’application d’intelligence artificielle Sora 2. Mais l’expérience a vite tourné au scandale : des internautes ont créé des deepfakes racistes où son image prononce des propos insultants, dont le mot « bougnoule ».
Cette affaire soulève des questions majeures sur la responsabilité des créateurs, les dérives des outils d’IA et la protection de l’image publique.
Tibo InShape et Sora 2 : quand l’IA s’empare des visages publics
Une collaboration à l’origine volontaire
Tibo InShape, suivi par plus de 10 millions d’abonnés sur YouTube, s’est récemment associé à Sora 2, une application d’OpenAI spécialisée dans la génération de vidéos réalistes. L’objectif : permettre aux utilisateurs de créer des contenus avec des avatars ultra-réalistes, basés sur des scans 3D de visages réels.
Le vidéaste a accepté de prêter son image, pensant offrir une expérience amusante et innovante à sa communauté. Sur le papier, le projet semblait maîtrisé : un mélange d’innovation technologique et d’engagement communautaire.
L’ampleur inattendue du phénomène
Rapidement, le visage de Tibo InShape est devenu viral sur TikTok et X (Twitter). Des centaines d’utilisateurs ont généré des scènes absurdes, humoristiques ou parodiques. Mais certaines vidéos ont franchi une limite.
Des deepfakes montrent Tibo InShape tenir des propos injurieux et racistes, notamment le mot « bougnoule », terme fortement discriminatoire. Ces vidéos, partagées massivement, ont créé un véritable malaise et suscité une polémique nationale.
Quand la dérision vire au dérapage : l’ombre du racisme
Une diffusion incontrôlée
Le problème majeur vient de l’absence de contrôle sur les contenus générés. Sora 2 ne restreint pas la manière dont les avatars peuvent être utilisés. N’importe quel internaute peut donc créer un scénario mettant en scène Tibo InShape dans des contextes choquants.
Certains utilisateurs s’en sont servis pour diffuser des propos racistes ou violents, exploitant la ressemblance troublante entre la voix et l’image de l’influenceur et la réalité.
Des réactions indignées sur les réseaux
La réaction ne s’est pas fait attendre. Sur X, TikTok et Reddit, de nombreux internautes ont dénoncé ces vidéos comme dangereuses et irresponsables. D’autres ont pris la défense de Tibo InShape, rappelant qu’il n’avait jamais tenu de tels propos et que tout cela relevait de la manipulation par IA.
Plusieurs personnalités du web ont également appelé à réglementer l’usage de l’intelligence artificielle, soulignant la frontière de plus en plus floue entre la satire et la diffamation numérique.
Les deepfakes, nouveau fléau numérique
Une technologie fascinante mais à double tranchant
Les deepfakes sont des contenus synthétiques générés par des réseaux de neurones. Ils peuvent reproduire la voix, les expressions faciales et les gestes d’une personne réelle avec une précision impressionnante.
Si cette technologie ouvre des perspectives créatives dans le cinéma ou la publicité, elle devient dangereuse lorsqu’elle sert à propager de fausses informations ou des insultes. Dans le cas de Tibo InShape et Sora 2, l’outil est détourné à des fins moqueuses voire haineuses.
Un vide juridique préoccupant
En France, la législation reste floue concernant les deepfakes. Le Code pénal sanctionne l’usurpation d’identité et la diffamation, mais il ne prévoit pas encore de cadre précis pour les vidéos générées par IA.
Cela laisse un vide juridique que certains exploitent pour créer du contenu viral sans conséquence immédiate. L’affaire Tibo InShape Sora 2 illustre parfaitement ce manque de régulation.
La responsabilité des plateformes et des créateurs
Faut-il blâmer Sora 2 ?
Sora 2, en tant qu’outil d’intelligence artificielle, fournit la technologie mais n’exerce pas de contrôle sur la façon dont elle est utilisée. L’entreprise invoque la liberté de création et l’impossibilité de filtrer tous les contenus.
Cependant, cette neutralité technique est de plus en plus contestée. Les spécialistes de l’éthique de l’IA rappellent que les plateformes ont un devoir de modération, surtout lorsqu’il s’agit de contenus discriminatoires.
Tibo InShape, victime malgré lui
L’influenceur se retrouve dans une position délicate. Bien qu’il ait volontairement autorisé l’usage de son image, il n’a aucun moyen de contrôler les dérives. Sa réputation se trouve associée à des propos qu’il n’a jamais prononcés.
Ce cas souligne les dangers d’une exposition publique non maîtrisée : à l’ère des IA génératives, l’image d’une célébrité peut être utilisée contre elle en quelques secondes.
Les risques sociétaux des deepfakes
Une menace pour la confiance et la vérité
Les deepfakes brouillent la frontière entre le vrai et le faux. Ils fragilisent la crédibilité des médias et la confiance du public.
Quand une image ou une voix peut être imitée à la perfection, il devient difficile de distinguer la réalité de la fiction. Cette situation alimente la désinformation, la haine en ligne et le harcèlement.
Des conséquences psychologiques réelles
Pour les personnalités concernées, l’impact peut être considérable. Outre la perte d’image, ces deepfakes peuvent provoquer un stress important, des menaces, et une stigmatisation injuste.
Dans le cas de Tibo InShape, certains internautes ont réellement cru que l’influenceur avait tenu ces propos. Ce malentendu a entraîné des vagues d’insultes et de critiques.
Vers une régulation nécessaire de l’intelligence artificielle
Des appels à encadrer l’usage des IA génératives
Face à la multiplication des scandales liés aux deepfakes, de nombreux acteurs politiques et juridiques demandent une législation plus stricte.
L’Union européenne prépare déjà le AI Act, un cadre réglementaire destiné à limiter les usages dangereux de l’intelligence artificielle. L’affaire Tibo InShape Sora 2 pourrait accélérer ce mouvement.
Éduquer les utilisateurs et protéger les images publiques
La prévention passe aussi par l’éducation. Les internautes doivent comprendre comment fonctionne l’IA et apprendre à vérifier la source des vidéos qu’ils regardent.
De leur côté, les influenceurs et personnalités publiques devraient être plus prudents avant de prêter leur image à des plateformes dont les politiques de modération restent floues.
Tibo InShape et Sora 2 : un cas d’école pour l’avenir du numérique
Cette affaire marquera probablement un tournant. Elle met en lumière l’écart croissant entre la vitesse d’innovation technologique et la capacité de la société à encadrer ses usages.
Tibo InShape n’est ni le premier ni le dernier à voir son image détournée. Mais son cas illustre l’urgence de protéger les individus à l’ère des intelligences artificielles génératives.
Entre fascination et dérive, l’IA façonne un futur où chaque image peut être manipulée — et où la vérité devient une notion fragile.
Conclusion
La polémique Tibo InShape Sora 2 dépasse largement le cadre du divertissement. Elle interroge notre rapport à la technologie, à la liberté d’expression et à la responsabilité numérique.
Dans un monde où chacun peut créer un deepfake en quelques minutes, la vigilance collective devient essentielle. La frontière entre créativité et nuisance n’a jamais été aussi mince.
À propos de l'auteur
En savoir plus sur News Wall.news
Subscribe to get the latest posts sent to your email.




