April 1, 2023

En 1996, à l’âge de 10 ans, j’ai joué à un jeu vidéo chez un ami appelé Spycraft : le grand jeu. Dans le jeu, vous incarnez un agent de la CIA enquêtant sur un complot d’assassinat ; vous avez la possibilité de prendre une photo pour tromper le suspect lors de l’interrogatoire. Le processus a excité mon esprit de 10 ans, à tel point que je me suis souvenu de la puissance de ce mini-jeu il y a toutes ces années. Bien qu’il soit flou et pixélisé, l’éditeur de photos qui est apparu dans le Espionnage c’était un peu ce que deviendrait un jour Adobe Photoshop. En 1996, cela ressemblait à de l’espionnage et de la supercherie de haute technologie. En 2023, c’est complètement banal. Retoucher une photo n’est ni difficile ni coûteux, plus maintenant. N’importe qui peut le faire, et par conséquent, nous en sommes tous venus à accepter que nous ne pouvons faire confiance à aucune image que nous voyons.

La technologie Deepfake a déjà prouvé que nous ne pouvons pas faire confiance même aux enregistrements vidéo ou audio. Et la prévalence de l’intelligence artificielle générative n’a fait que faciliter la création de tels deepfakes. Nous devons tous nous habituer à cette nouvelle réalité – et vite.

Genna Bain, épouse de feu YouTuber John “TotalBiscuit” Bain, publié sur Twitter la semaine dernière à propos du nouveau défi auquel il est confronté grâce aux progrès de la technologie de l’IA : “Aujourd’hui, c’était amusant. Je suis confronté à la décision de supprimer tout le contenu de mon défunt mari d’Internet. Les gens pensent apparemment qu’il est acceptable d’utiliser sa bibliothèque pour former des IA vocales afin de promouvoir leurs commentaires sociaux et leurs opinions politiques.” En réponse, elle a reçu la sympathie et les appels des fans de son mari pour préserver son héritage en ligne.

Mais voici le problème. Il n’y a aucun moyen pratique pour que Genna Bain ou toute autre personne dans sa position puisse empêcher de manière adéquate quiconque de créer une vidéo ou un clip audio profondément faux de John Bain. Seulement un plusieurs minutes de son sont nécessaires pour entraîner l’intelligence artificielle à imiter la voix ; pour les vidéos deepfake, vous avez principalement besoin de séquences plus d’expressions faciales et d’angles. Donc, si vous vouliez vous empêcher d’apparaître comme un deepfake, vous devriez effacer chaque enregistrement visuel et audio de votre existence, ce qui est si presque impossible pour quiconque utilise un smartphone que cela pourrait tout aussi bien être impossible. C’est encore plus vrai pour une personnalité publique comme Bain, qui a joué dans des émissions et des podcasts que sa femme ne supprime pas nécessairement, et dont le visage et la voix sont déjà gravés à jamais dans les disques durs de ses fans du monde entier. monde.

Dans les années 1990 et 2000, Photoshop permettait aux gens de coller des visages de célébrités sur le corps nu d’autres personnes, et en 2018, le public a appris comment la technologie de l’IA peut être utilisée pour faire pornographie vidéo qui semblait mettre en vedette des célébrités. Depuis lors, la technologie est devenue de plus en plus disponible. “l’application deepfake gratuite” de Google fournira de nombreuses options pour le logiciel d’édition. En 2023, cette technologie est probablement encore utilisée pour produire du porno de célébrités, tout comme elle l’était en 2018, mais les gens l’utilisent également aujourd’hui pour faire dire des conneries aux célébrités. Internet a toujours fonctionné sur le porno, mais aussi sur les mèmes, donc il s’ensuit.

Si vous devenez suffisamment célèbre, vous serez ainsi déshumanisé et objectivé, et vos propres fans seront surpris et confus si vous vous retenez. Vous ne pouvez pas l’arrêter non plus. Mais ce n’est pas un article où j’essaie de convaincre les gens de se sentir désolés pour les gens célèbres. (C’est aussi une bataille perdue d’avance, bien que j’essaie parfois de la combattre.) C’est plutôt un article où j’essaie de convaincre les gens de ne pas croire la vidéo et l’audio qu’ils voient et entendent.

Il nous a fallu beaucoup de temps pour nous habituer à l’existence de Photoshop. Voir une image astucieusement truquée peut toujours induire en erreur une personne intelligente et raisonnable en lui faisant croire quelque chose qui n’est pas vrai. C’est dans la nature humaine de vouloir croire en quelque chose qui semble réel ; après tout, voir c’est croire, n’est-ce pas ? Cela étant dit, j’ai vu l’essor de Photoshop, donc je pense que nous nous y adapterons également.

Je ne sais pas à quoi ressemble l’avenir ni de quels types de réglementations nous aurons besoin pour faire face à cette situation. Mais je sais une chose : c’est déjà là. Nous vivons dans un monde où ce type de contrefaçon est non seulement possible, mais ridiculement facile. Maintenant, nous devons accepter que c’est là et avancer dans une réalité où notre scepticisme s’étend pour inclure encore plus de types de trucs.

Mais bon, au moins les mèmes seront super.





7918 9676 5258 7899 4516 3944 4558 0363 8082 4630 4890 4091 2022 7529 FREE TIKTOK FOLLOWERS

Leave a Reply

Your email address will not be published. Required fields are marked *