Harry Cohen Tanugi

Le FBI affirme que des personnes utilisent des "deepfakes" pour postuler à des emplois technologiques à distance.

Nous avons vu des exemples de deepfakes utilisés presque pour changer le cours de l'histoire lorsqu'une séquence Zelensky a émergé en mars et a dit à l'armée ukrainienne de déposer les armes au milieu de l'invasion russe. Heureusement, c'était bâclé, et l'armée n'y a pas cru.

Et maintenant, si vous considérez ce qui se passe quand un monde post-covide qui a donné naissance à de nombreuses opportunités d'emplois à distance pour les nomades numériques fusionne avec l'IA, Le FBI Internet Crime Complaint Center (IC3) a la réponse pour vous.

Il s'avère que des personnes utilisent désormais des deepfakes pour se faire passer pour quelqu'un d'autre lors d'entretiens d'embauche pour des postes à distance. Et ce n'est pas le pire.

Le FBI a révélé dans une annonce publique le 28 juin qu'elle a détecté une augmentation du nombre de plaintes faisant état de l'utilisation de "deepfakes" et du vol d'informations personnellement identifiables (IPI). Les "deepfakes" comprennent une vidéo, une image ou des enregistrements manipulés pour faire croire qu'une personne fait quelque chose qui n'a pas été fait. Les postes signalés comprennent également des emplois liés aux technologies de l'information, à la programmation informatique, aux bases de données et aux logiciels. Et certaines de ces offres d'emploi permettent d'accéder aux DPI des clients, à des données financières, à des bases de données informatiques d'entreprise et à des informations exclusives, ce qui pourrait donner lieu à des scénarios indésirables pour les personnes ou les entreprises en question.

Les personnes qui ont choisi d'utiliser des deepfakes pendant les entretiens n'ont probablement pas reconnu que les actions et les mouvements des lèvres sur la caméra ne correspondent pas entièrement à l'audio. Le FBI a également signalé que la toux, les éternuements et d'autres actions similaires ne sont pas synchronisés avec les séquences affichées pendant les entretiens.

Les deepfakes sont-ils l'ennemi ?

En 2020, une étude publiée dans Science du crime a classé les faux contenus audio et vidéo, ou en d'autres termes, les deepfakes, comme la menace de criminalité informatique la plus dangereuse. L'étude suggère que les humains ont une forte tendance à croire leurs propres yeux et oreilles, comme on s'y attend, ce qui donne de la crédibilité aux visuels et aux grands audios. À long terme, il pourrait devenir très facile de discréditer une personnalité publique, de soutirer des fonds en usurpant l'identité de différentes personnes, ce qui pourrait susciter la méfiance à l'égard de ces contenus et entraîner des dommages pour la société.

"Contrairement à de nombreux délits traditionnels, les délits commis dans le domaine numérique peuvent être facilement partagés, répétés et même vendus, ce qui permet de commercialiser des techniques criminelles et de fournir des délits en tant que service. Cela signifie que les criminels peuvent être en mesure d'externaliser les aspects les plus difficiles de leurs crimes basés sur l'IA", a déclaré le premier auteur. Dr. Matthew Caldwell a déclaré.

Maudite technologie, parfois tu es effrayante. Mais ne t'inquiète pas, ce n'est pas toi, c'est nous.



[SOURCE]

menu