Introduction
Tout le monde ne parle que de ça. Dans les salles de classe, les salles de réunion, les journaux télévisés et à table, l’intelligence artificielle (IA) domine les conversations. Vu toute l’attention qu’elle suscite, on pourrait penser qu’il s’agit d’une technologie totalement nouvelle. Pourtant, l’IA existe sous diverses formes depuis des décennies. La différence, c’est qu’elle est désormais accessible à presque tout le monde. L’IA peut nous aider à mieux rédiger nos e-mails, stimuler notre créativité, améliorer notre productivité et même nous entraîner dans de délicieuses aventures de création de mèmes. Ce n’est pas parce qu’un contenu est généré par l’IA qu’il est nocif.
Les deepfakes sont des contenus multimédias générés par l’IA, qui représentent l’image ou la voix d’une personne, voire une personne entièrement fictive.
Ils peuvent être utilisés à des fins positives, comme l’utilisation de votre voix pour créer des podcasts ou des vidéos qui donnent vie à l’histoire.
Mais que se passe-t-il lorsque cet outil tombe entre de mauvaises mains ? C’est à ce moment-là que les deepfakes deviennent dangereux. Les deepfakes peuvent facilement être utilisés pour manipuler les gens et leur faire croire de fausses informations.
Ce guide s’adresse à tous ceux qui cherchent à comprendre le paysage des deepfakes générés par l’IA et à savoir comment se protéger, eux et leurs proches, contre ces escroqueries.
Qu’est-ce qu’un deepfake ?
À l’ère des réseaux sociaux et des vidéos virales, il est de plus en plus difficile de faire confiance à ce que l’on voit en ligne. C’est là qu’interviennent les deepfakes : des vidéos ou des images qui semblent incroyablement réalistes, mais qui sont en fait habilement manipulées par l’IA.
Imaginez votre célébrité préférée jouant dans un film qu’elle n’a jamais tourné, ou une personnalité politique donnant un discours qu’elle n’a jamais prononcé. C’est le pouvoir des deepfakes. Les deepfakes sont réalisés à partir de vidéos ou de photos existantes et, avec l’aide de l’IA, peuvent échanger des visages, modifier des voix ou même faire dire ou faire à des personnes des choses qu’elles n’ont jamais dites ou faites.
Si certains deepfakes sont inoffensifs (comme cette vidéo ridicule de votre chat qui parle), d’autres ont un côté plus sombre. Ils peuvent être utilisés pour diffuser de fausses informations, manipuler des élections ou même ruiner des réputations. Il est donc d’autant plus important de faire preuve d’esprit critique à l’égard des contenus multimédias et de réfléchir à deux fois avant de partager quoi que ce soit qui semble trop beau pour être vrai.
Les outils d’IA générative tels que ChatGPT, Google Gemini (anciennement Google Bard) ou Sora montrent comment l’IA peut créer des textes, des œuvres d’art, des vidéos et même imiter la parole humaine. Mais si la technologie a progressé, l’éthique de l’utilisation de deepfakes générés par l’IA n’en est qu’à ses débuts.
Voici quelques exemples de l’impact de deepfakes préjudiciables :
- Une vidéo deepfake d’une célébrité faisant la promotion d’un produit à son insu peut vous inciter à effectuer un achat ou à soutenir un article et à perdre de l’argent en conséquence.
- Un clip audio deepfake modifiant le discours d’une personnalité politique pourrait vous amener à changer complètement d’avis sur le soutien à apporter à certains politiques.
- Des vidéos trompeuses peuvent facilement devenir virales et entraîner la diffusion de fausses informations, même si ce contenu n’est pas du tout réel.
- Les simulations vocales générées par l’IA sont populaires sur les réseaux sociaux et font souvent l’objet de blagues aux dépens de célébrités, de politiques et d’autres personnalités publiques.
- D’autres fraudes vocales générées par l’IA utilisent des messages vocaux ou des clips audio envoyés par SMS pour cibler des individus en clonant les voix de leurs proches, qui ont généralement besoin d’une aide financière pour se sortir d’une situation délicate.
Pour lutter contre ces escroqueries, il est important de comprendre comment elles fonctionnent. En vous tenant informé, vous serez mieux à même de repérer les contenus multimédias frauduleux et vous réduirez les risques de vous faire piéger.
Comprendre le fonctionnement des deepfakes
Les deepfakes, qui combinent “« deep learning »” (apprentissage profond) et “« fake »” (faux), sont des créations numériques sophistiquées dans lesquelles une personne dans une image ou une vidéo existante est remplacée par quelqu’un d’autre. Cette technologie s’appuie sur de puissantes techniques d’intelligence artificielle et d’apprentissage automatique pour produire ou modifier un contenu vidéo de manière à ce qu’il montre quelque chose qui ne s’est pas réellement produit. Voici un aperçu de la manière dont les deepfakes sont créés et de la technologie qui les sous-tend.
- Collecte de données
La première étape de la création d’un deepfake consiste à rassembler suffisamment de données visuelles et audio de la personne que vous souhaitez imiter. Cela implique généralement la collecte de nombreuses images et vidéos sous différents angles, dans différentes conditions d’éclairage et avec différentes expressions. Ces données permettent d’entraîner les modèles d’IA à comprendre et à reproduire les nuances des caractéristiques faciales et vocales de la cible. - Modèles d’apprentissage automatique
Au cœur de la technologie deepfake se trouvent des modèles d’apprentissage automatique connus sous le nom d’auto-encodeurs et de réseaux antagonistes génératifs (GAN). Un auto-encodeur apprend à compresser les données en une représentation plus petite et plus dense, puis à les décompresser pour rétablir leur forme initiale. Dans le contexte des deepfakes, il permet d’échanger les visages en réduisant les données à haute dimension (comme les images) en un code à plus basse dimension qui peut ensuite être modifié et transformé à nouveau en image.
Les GAN se composent de deux parties : un générateur et un discriminateur. Le générateur crée des images, tandis que le discriminateur les évalue. Au fil du temps, le générateur apprend à fabriquer des faux plus précis, et le discriminateur devient plus apte à repérer les faux. Ce processus contradictoire améliore la qualité des résultats générés, rendant les deepfakes plus réalistes. - Entraînement du modèle
Les données collectées sont utilisées pour entraîner les modèles d’IA. Ce processus consiste à ajuster les paramètres des réseaux neuronaux jusqu’à ce qu’ils puissent reproduire de manière convaincante les caractéristiques faciales et vocales de la cible. L’entraînement d’un modèle deepfake nécessite une puissance de calcul importante et peut prendre des jours, voire des semaines, en fonction de la complexité des données et de la qualité souhaitée du résultat. - Création de la vidéo
Une fois le modèle correctement entraîné, il peut être utilisé pour créer la vidéo deepfake. Il convient de fournir au modèle des données sous forme de vidéos ou d’images pour remplacer le visage ou la voix d’une personne. L’IA traite ensuite les données, en introduisant dans la vidéo les caractéristiques apprises du visage ou de la voix de l’autre personne, créant ainsi un faux qui semble réel. - Perfectionnement
Les résultats initiaux peuvent encore présenter des imperfections telles que des clignements d’yeux non naturels, une mauvaise synchronisation des lèvres ou des mouvements faciaux saccadés. Un post-traitement et un perfectionnement supplémentaires à l’aide d’outils de montage vidéo peuvent aider à corriger ces défauts pour rendre la vidéo finale plus crédible.
Utilisations courantes des deepfakes
Les deepfakes sont de plus en plus utilisés dans divers secteurs, à des fins bénéfiques et malveillantes. Ils sont couramment employés dans le domaine du divertissement pour créer des effets spéciaux réalistes, dans l’éducation pour générer des contenus attrayants, et par les cybercriminels pour propager des escroqueries et de la désinformation, ce qui pose d’importants problèmes sur le plan éthique et de la sécurité. Voici un aperçu des utilisations les plus courantes et les plus percutantes des deepfakes aujourd’hui.
- Divertissement et médias
Dans le monde du divertissement, les deepfakes sont utilisés de manière impressionnante. Les cinéastes et les producteurs de vidéos utilisent la technologie deepfake pour rendre les acteurs plus jeunes, ressusciter les performances d’acteurs décédés ou améliorer les effets visuels dans les films et les émissions de télévision. Cette technologie offre une grande souplesse créative et permet de repousser les limites de la réalisation traditionnelle. - Personnalisation du contenu
Les deepfakes sont étudiés pour leur potentiel de personnalisation du contenu dans le domaine du marketing et de la publicité. Par exemple, une publicité pourrait présenter une version deepfake d’une célébrité parlant différentes langues, ce qui rendrait le contenu plus compréhensible pour des publics divers. De même, les messages vidéo personnalisés utilisant des deepfakes peuvent créer des expériences uniques pour les clients, ce qui peut accroître l’engagement et la fidélité de ces derniers. - Éducation et formation
Dans les contextes éducatifs, les deepfakes peuvent être utilisés pour proposer des expériences d’apprentissage interactives. Imaginez des personnages historiques animés, donnant des conférences sur leur vie et leur époque, ou des scientifiques expliquant des théories complexes à la première personne. Cela peut rendre l’apprentissage plus attrayant et plus accessible, en particulier pour les personnes ayant une mémoire visuelle. - Art et critique sociale
Les artistes et les activistes utilisent la technologie deepfake pour produire des œuvres d’art et des critiques sur des questions sociales qui suscitent la réflexion. En modifiant ou en réimaginant des événements, les deepfakes peuvent remettre en question les perceptions des spectateurs et susciter des discussions sur la réalité, la technologie et l’éthique. Ces projets visent souvent à mettre en évidence les dangers potentiels de la technologie deepfake tout en explorant ses possibilités artistiques. - Recherche et développement
Les chercheurs utilisent des deepfakes dans des domaines tels que la psychologie et la technologie de reconnaissance faciale. En générant diverses expressions faciales, mouvements et scénarios, ils peuvent étudier le comportement humain, les réactions émotionnelles et l’efficacité des systèmes de reconnaissance faciale dans diverses conditions.
Création de la technologie deepfake
La technologie deepfake est née des progrès de l’apprentissage automatique et de l’intelligence artificielle, en particulier dans le domaine des réseaux neuronaux profonds. Initialement développées pour améliorer la reconnaissance d’images et le traitement du langage, ces techniques ont été réutilisées pour créer des contenus multimédias synthétiques réalistes. On obtient alors des vidéos et des clips audio très convaincants qui peuvent imiter des personnes réelles.
La technologie deepfake s’est fait connaître du grand public vers 2017, lorsqu’un développeur utilisant le pseudonyme “DeepFakes” a commencé à publier de fausses vidéos pour adultes à l’aspect réaliste représentant des célébrités sur Reddit. Cela a non seulement attiré l’attention des médias, mais a également conduit au développement d’un logiciel de création de deepfakes facile à utiliser. Des outils comme FakeApp et, plus tard, des applications plus avancées, ont permis à des utilisateurs ordinaires de créer des deepfakes sans connaissances techniques approfondies, ce qui a considérablement réduit leur difficulté d’accès.
Pourquoi les deepfakes sont-ils dangereux ?
L’un des principaux dangers posés par les deepfakes est l’érosion constante de la confiance. À mesure que la technologie progresse, il devient de plus en plus difficile de distinguer le vrai du faux.
Fausses informations
Les deepfakes sèment le scepticisme et rendent difficile de croire ce que nous voyons et entendons en ligne. Ce scepticisme croissant a des conséquences importantes sur la manière dont nous consommons l’information et interagissons avec les contenus multimédias. Les deepfakes gagnant en sophistication, il est de plus en plus difficile de distinguer les contenus réels des contenus manipulés, non seulement pour les particuliers, mais aussi pour les entreprises qui dépendent des supports numériques pour leur communication et leur marketing. Les conséquences peuvent être dramatiques. Les gens peuvent, sans le savoir, partager des faussetés ou y répondre, provoquant ainsi le chaos et portant atteinte à leur propre réputation et à celle des autres.
En outre, la prolifération des deepfakes peut éroder la confiance du public dans les sources d’information légitimes. À mesure que les gens se méfient de plus en plus des contenus falsifiés, ils risquent également de ne plus croire des informations réelles et factuelles, ce qui entraînera une crise plus générale de la crédibilité de l’information.
Pour relever ces défis, il est essentiel que les développeurs de technologies, les législateurs et les organisations de médias collaborent à la mise au point de solutions permettant de détecter et de signaler les deepfakes. Des campagnes de sensibilisation du public peuvent également informer les gens de l’existence et des dangers des deepfakes, en leur donnant les moyens d’évaluer de manière critique les contenus multimédias qu’ils consomment.
Violations de la vie privée
À l’ère numérique, l’avènement de la technologie deepfake a créé une nouvelle frontière dans le domaine des violations de la vie privée, présentant des défis uniques qui repoussent les limites de l’éthique et de la légalité. Les deepfakes, contenus multimédias synthétiques dans lesquels l’image d’une personne est remplacée par celle d’une autre, deviennent de plus en plus sophistiqués et accessibles, ce qui soulève de sérieuses inquiétudes quant au respect du droit à la vie privée.
Imaginez que vous vous réveillez un jour et qu’une vidéo circule en ligne vous montrant en train de dire ou de faire des choses que vous n’avez jamais dites ou faites. Ce scénario n’appartient plus au domaine de la science-fiction. Pour beaucoup, c’est une réalité dérangeante. Les victimes de deepfakes font souvent l’expérience d’une violation profonde de leur vie privée, et l’impact psychologique peut être grave, entraînant une détresse et un sentiment d’impuissance.
Bouleversement politique
Dans le domaine de la politique, où la confiance et la crédibilité sont primordiales, les deepfakes se sont révélés être un outil puissant pour provoquer des bouleversements importants. Ces manipulations hyperréalistes de contenus audiovisuels peuvent créer de fausses perceptions, susciter des controverses, voire déstabiliser des processus électoraux. Les implications sont profondes et touchent non seulement des politiques, mais aussi des paysages politiques entiers.
Les deepfakes peuvent gravement nuire à la réputation de politiques en les présentant dans des situations ou tenant des propos qui ne correspondent pas à leur personnalité ou qui sont carrément faux. Cette érosion de la confiance peut conduire à une perte de confiance du public non seulement envers les personnes visées, mais aussi envers le système politique dans son ensemble. Lorsque les électeurs ne peuvent pas faire confiance à ce qu’ils voient et entendent, la confiance fondamentale nécessaire à la gouvernance démocratique commence à s’effriter.
Fraude financière
La technologie deepfake peut être utilisée pour la tromperie et la fraude financières. Avec le clonage vocal par l’IA, les attaques de phishing par téléphone sont aujourd’hui plus crédibles que jamais. Les escrocs peuvent utiliser la technologie deepfake pour imiter la voix d’un proche ou d’une personnalité respectée, afin d’inciter les gens à révéler des informations sensibles ou à leur envoyer de l’argent. Les retombées de ce type d’escroqueries peuvent être à la fois financières et émotionnelles.
Les deepfakes dans la publicité sont moins menaçants pour le bien-être des personnes, mais peuvent néanmoins avoir des conséquences financières. En se faisant passer pour des personnes respectées dans des publicités manipulées, les fraudeurs peuvent gagner de l’argent aux dépens de consommateurs peu méfiants et de la réputation des individus pour lesquels ils se font passer.
Lectures connexes :
Comment se protéger des deepfakes ?
Les deepfakes générés par l’IA ne sont pas rares, mais il n’est pas non plus impossible de les prévenir. Dans le paysage numérique actuel, il est essentiel de vous protéger contre les risques liés aux vidéos générées par l’IA. Voici six stratégies clés pour rester en sécurité :
- Informez-vous : tenez-vous informé des capacités de la technologie d’IA, en particulier dans le domaine de la génération de vidéos. Comprendre comment les deepfakes et autres contenus générés par l’IA sont créés peut vous aider à les reconnaître et à atténuer leur impact potentiel.
- Vérifiez les sources : vérifiez toujours la source des vidéos. Si quelque chose vous semble suspect ou trop beau pour être vrai, prenez des précautions supplémentaires avant de le croire ou de le partager.
- Utilisez des plateformes de confiance : dans la mesure du possible, consommez des vidéos provenant de sources et de plateformes réputées qui privilégient l’authenticité et la crédibilité. Soyez prudent lorsque vous regardez des vidéos partagées sur les réseaux sociaux ou sur des sites Web moins connus.
- Protégez vos informations personnelles : soyez prudent lorsque vous partagez des informations personnelles ou que vous participez à des conversations sensibles par le biais d’appels vidéo ou de plateformes de messagerie. Vérifiez l’identité des personnes avant de divulguer des informations sensibles.
- Tenez-vous au courant des nouvelles technologies : les technologies permettant de lutter contre les escroqueries générées par l’IA se multiplient à mesure que celles-ci se développent.
- Tenez-vous au courant des lois et des réglementations : bien que les lois relatives à l’utilisation de deepfakes soient encore en cours d’évolution, certains pays, comme la Chine, exigent que les personnes donnent leur consentement explicite avant que leur visage ne soit utilisé dans des deepfakes. Des initiatives similaires sont déployées dans le monde entier pour établir des lignes directrices en vue d’une utilisation responsable de l’IA et de la technologie deepfake.
Exemples de deepfakes
Les deepfakes malveillants apparaissent à un rythme rapide, à tel point que nous avons créé une page sur laquelle les gens peuvent partager les deepfakes qu’ils ont identifiés afin de nous aider à lutter contre ces escroqueries.
Examinons quelques exemples concrets de deepfakes qui illustrent l’impact de ces escroqueries dans les secteurs de la politique, du divertissement et de la finance.
En 2020, une vidéo deepfake de Nancy Pelosi, alors présidente de la Chambre des représentants des États-Unis, est devenue virale. La vidéo a été modifiée pour donner l’impression que Mme Pelosi avait du mal à s’exprimer, ce qui a suscité des inquiétudes quant à l’utilisation potentiellement abusive de cette technologie à des fins de manipulation politique. Cet incident a mis en évidence la nécessité pour les individus d’être sceptiques face aux vidéos qui semblent trop belles pour être vraies et de prêter attention à la qualité de la vidéo et à la source lorsqu’ils évaluent l’authenticité d’un contenu en ligne.
Les deepfakes sont également utilisés pour diffuser de fausses informations. Un robocall deepfake du président Biden a été envoyé à des milliers d’électeurs du New Hampshire en janvier 2024, juste avant les premières primaires présidentielles de l’État, pour leur dire de rester chez eux et de « garder » leurs votes pour les élections générales de novembre. Ces activités, si elles ne sont pas contrôlées, risquent de perturber les résultats des élections.
Les deepfakes touchent également le secteur du divertissement, en utilisant l’IA pour cloner des célébrités afin de vendre des produits. Début 2024, une vidéo utilisait une représentation de Taylor Swift promettant à ses fans des ustensiles de cuisine gratuits. Mais lorsque les spectateurs ont fourni leurs informations, ils ont été victimes d’un vol d’identité. Des escroqueries similaires ont impliqué les célébrités Kelly Clarkson, Tom Hanks et Hugh Jackman.
Les deepfakes sont également utilisés pour créer des effets visuels réalistes et même pour ramener à la vie des acteurs décédés. Par exemple, dans le film de 2016 “Rogue One: A Star Wars Story”, un deepfake du défunt acteur Peter Cushing a été utilisé pour recréer le personnage de Wilhuff Tarkin, « Grand Moff » de l’Empire galactique. L’utilisation de deepfakes brouille la frontière entre la réalité et la fiction et soulève des questions sur les implications éthiques de l’utilisation de cette technologie.
Comment reconnaître un deepfake ?
Pour repérer les deepfakes, il faut avoir l’œil vif et prêter attention aux détails. Voici quelques indicateurs clés qui peuvent vous aider à distinguer le vrai du faux :
- Examinez attentivement les traits du visage : les deepfakes présentent souvent des incohérences au niveau des yeux des sujets. Soyez à l’affût de clignements de paupières non naturels, de mouvements oculaires mal adaptés ou d’un manque de synchronisation entre les yeux et le reste du visage. Prêtez également attention aux tons et aux textures de peau ; les deepfakes peuvent présenter des transitions abruptes ou un lissage non naturel de la peau.
- Examinez l’arrière-plan : les deepfakes ont parfois du mal à fondre le sujet dans l’arrière-plan. Vérifiez les irrégularités de l’éclairage, des ombres et de la perspective. Remarquez si le sujet semble flotter ou se détacher de l’arrière-plan, ou s’il y a des changements brusques dans l’arrière-plan lorsque la caméra se déplace.
- Soyez à l’affût des divergences audio : les vidéos deepfake peuvent avoir un son qui ne correspond pas tout à fait aux mouvements des lèvres de l’orateur. Recherchez les pauses non naturelles, les changements de tonalité ou les distorsions dans le son. La voix peut également sembler robotique ou manquer des inflexions et des émotions habituelles.
- Tenez compte de la qualité générale : les deepfakes ont souvent une qualité vidéo inférieure à celle des vidéos authentiques. Méfiez-vous de la pixellisation, du flou ou des mouvements non naturels. Les deepfakes peuvent également avoir un aspect “plastique” ou artificiel étant donné qu’ils ont été générés par l’IA.
- Utilisez des outils de détection des deepfakes : plusieurs outils en ligne et applications logicielles sont spécifiquement conçus pour détecter les deepfakes. Ces outils utilisent des algorithmes avancés pour analyser les vidéos et identifier les manipulations potentielles. Bien que rien ne soit infaillible, ces outils peuvent fournir une protection supplémentaire contre les deepfakes.
En étant vigilant et en appliquant ces techniques, vous pouvez améliorer votre capacité à identifier les deepfakes et vous protéger contre la désinformation.
Rappelez-vous que si quelque chose semble trop beau pour être vrai, il vaut la peine d’y regarder de plus près pour en déterminer l’authenticité.
Lecture connexe :
Méthodes de détection des deepfakes
Les deepfakes sont de plus en plus sophistiqués et difficiles à identifier à l’œil nu. Pour y remédier, diverses méthodes ont été mises au point, telles que l’analyse des incohérences dans la synchronisation audiovisuelle, le déploiement d’algorithmes de détection basés sur l’IA et l’examen minutieux des artefacts numériques. Ces techniques sont essentielles pour identifier les contenus manipulés et préserver la confiance dans les médias numériques.
Les bases de la protection contre les deepfakes
Les deepfakes étant de plus en plus perfectionnés et répandus, il est essentiel de vous protéger pour éviter de vous laisser piéger. Voici quelques conseils pratiques pour vous aider à rester vigilant :
- Gardez un œil critique : méfiez-vous des vidéos qui semblent exceptionnellement soignées ou trop belles pour être vraies. Les deepfakes présentent souvent une fluidité non naturelle ou sont dépourvus des imperfections subtiles que l’on trouve dans les images authentiques.
- Examinez la qualité de la vidéo : accordez une attention particulière à la qualité de la vidéo. Les deepfakes peuvent se révéler par des mouvements non naturels, des incohérences dans l’éclairage ou les ombres, ou un manque de détails dans l’arrière-plan.
- Vérifiez la source : vérifiez toujours la source de la vidéo. Provient-elle d’un organe de presse réputé, d’un site Web fiable ou d’un compte de réseau social renommé ? Si la source est inconnue ou douteuse, traitez le contenu avec prudence.
- Tenez compte du contexte : les faux générés par l’IA n’apparaissent généralement pas seuls. Ils sont souvent entourés de texte ou d’un article plus important. Vérifiez que le texte ne comporte pas de coquilles, de fautes de grammaire ou une mauvaise composition globale. Vérifiez si le texte a un sens. Par ailleurs, comporte-t-il, comme les articles de presse légitimes, des informations d’identification, telles que la date, l’heure et le lieu de publication, ainsi que le nom de l’auteur ?
- Évaluez l’information : l’image semble-t-elle trop bizarre pour être réelle ? Trop belle pour être vraie ? Aujourd’hui, non seulement vous ne pouvez pas croire tout ce que vous lisez sur Internet, mais vous ne pouvez pas croire non plus ce que vous y voyez. Si une fausse actualité prétend être vraie, faites des recherches ailleurs. Si l’événement est vraiment digne d’intérêt, d’autres sites connus et réputés en rendront compte et auront procédé à leur propre vérification des faits.
- Vérifiez les distorsions : la plupart des technologies d’IA reproduisent encore mal les doigts et les mains. Elles créent souvent des yeux qui peuvent avoir un aspect sans âme ou mort, ou qui présentent des irrégularités entre eux. En outre, des ombres peuvent apparaître à des endroits où elles n’ont pas l’air naturelles. Le teint peut également sembler inégal. Dans les vidéos deepfake, la voix et les expressions faciales peuvent ne pas correspondre exactement, ce qui donne l’impression que le sujet est robotisé et rigide.
- Utilisez des outils de détection des deepfakes : plusieurs outils logiciels permettent de détecter les deepfakes. Ces outils utilisent des algorithmes avancés pour analyser les vidéos et identifier les manipulations potentielles.
- Restez informé : tenez-vous au courant de la technologie deepfake et de l’évolution de ses capacités. Comprendre comment les deepfakes sont créés et les techniques utilisées pour les repérer vous permettra de juger en connaissance de cause de l’authenticité des contenus en ligne.
Lectures connexes :
- https://www.mcafee.com/ai/news/staying-safe-in-the-age-of-ai/
- https://www.mcafee.com/ai/news/safer-ai-four-questions-shaping-our-digital-future/
- https://www.mcafee.com/ai/news/artificial-intelligence-and-winning-the-battle-against-deepfakes-and-malware/
- https://www.mcafee.com/ai/news/10-artificial-intelligence-buzzwords-you-should-know/
- https://www.mcafee.com/ai/news/how-to-protect-your-privacy-from-generative-ai/