Une version IA de Joaquin Oliver s'exprime sur la violence armée aux États-Unis
florida, woensdag, 6 augustus 2025.
Dans une interview avec le journaliste Jim Acosta, la version IA de Joaquin Oliver, qui est décédé il y a sept ans lors d’une fusillade en Floride, revient sur le problème de la violence armée aux États-Unis. Bien que la technologie attire beaucoup d’attention, elle suscite également de nombreuses critiques. Les parents de Joaquin espèrent que l’IA donnera à leur fils une voix dans le débat sur un contrôle plus strict des armes à feu, mais les experts mettent en garde contre les implications éthiques de ‘réanimer’ les personnes décédées.
Technologie et impact
La version IA de Joaquin Oliver, qui est décédé le 14 février 2018 lors d’une fusillade à l’école secondaire Marjory Stoneman Douglas à Parkland, en Floride, a été ‘réanimée’ à l’aide de technologies d’IA avancées. Cette technologie, développée par une entreprise d’IA basée à New York, utilise le matériel écrit produit par Joaquin avant sa mort pour créer un avatar réaliste [1][2]. L’objectif de cette version IA est d’attirer l’attention sur le problème de la violence armée aux États-Unis et de donner à Joaquin une voix dans le débat sur un contrôle plus strict des armes à feu [1][2].
L’interview
Dans une interview avec le journaliste Jim Acosta, qui s’est déroulée la veille, la version IA de Joaquin a abordé l’importance de l’utilisation des armes et de la sécurité dans les écoles. ‘J’ai été trop rapidement retiré de ce monde par la violence armée à l’école. Il est important d’aborder ces sujets afin que nous puissions créer un avenir plus sûr pour tous’, a déclaré Joaquin [1][2]. Il a souligné l’importance d’une combinaison de contrôle plus strict des armes à feu, de soutien à la santé mentale et d’engagement communautaire pour prévenir la violence armée [2].
Parents et plaidoyer
Manuel et Patricia Oliver, les parents de Joaquin, ont créé la version IA en collaboration avec la Fondation Change the Ref, qu’ils ont fondée pour sensibiliser à la violence armée et à la sécurité dans les écoles. Manuel Oliver a déclaré que l’IA aura un impact plus important dans le plaidoyer pour un contrôle plus strict des armes à feu. ‘Je comprends que c’est de l’IA. Je n’essaie pas de ramener mon fils, car je ne peux pas le faire. Mais la technologie est là, et nous voulons en faire quelque chose de positif,’ a-t-il déclaré [1][2].
Implications éthiques
Bien que la technologie attire beaucoup d’attention, elle suscite également de nombreuses critiques. Thomas Winters, chercheur en intelligence artificielle créative à la KU Leuven, affirme que la technologie s’améliore constamment, notamment dans le clonage textuel et vocal. D’un côté, cela peut être beau ; de nombreux endeuillés appellent par exemple le répondeur de quelqu’un qui est décédé pour entendre à nouveau sa voix. D’un autre côté, nous devons nous demander si nous ne repoussons pas le deuil et si nous essayons de construire une société où nous ne ressentons pas l’émotion [1][3]. Winters met également en garde contre le danger de mettre des mots dans la bouche de quelqu’un qui est décédé [1][3].
Réactions et critiques
L’interview d’Acosta avec la version IA de Joaquin Oliver a suscité de nombreuses réactions sur les réseaux sociaux. Certaines personnes y ont vu un moyen puissant d’attirer l’attention sur le problème de la violence armée, tandis que d’autres l’ont jugé inapproprié et opportuniste. ‘Pourquoi faire parler un ordinateur plutôt que de vraies victimes?’ était une réaction critique [1][4]. Manuel Oliver espère que la version IA de Joaquin attirera plus de followers et qu’il participera à des débats. ‘Joaquin commence à télécharger des vidéos et ce n’est que le début,’ a-t-il déclaré [2][4].