Newestpress Newestpost Studio News Studio Live

Mon compte

Newsletters

Crédit photo : NP/Newestpost/Ouest France/Vincent Michel/MaxPPP - Image d'illustration d'une étudiant française utilisant la technologie ChatGPT, le 22 février 2023

Actualité / Sciences

ChatGPT : nous avons demandé à l'IA d'analyser son potentiel danger

Les messages d'alerte se multiplient pour tenter de sensibiliser le grand public aux dangers du déploiement massif de la technologie d'IA ChatGPT. Dans un communiqué, lundi 27 mars 2023, Europol liste une série de crimes potentiels et tire la sonnette d'alarme.

Europol annonce que son laboratoire d'innovation a organisé des ateliers avec des experts de l'IA, "pour explorer comment les criminels peuvent abuser des grands modèles de langage (LLM) tels que ChatGPT, ainsi que la façon dont il peut aider les enquêteurs dans leur travail".


L'objectif de ce rapport est notamment d'ouvrir le dialogue avec les entreprises d'intelligence artificielle (IA) pour les aider à mettre en place de meilleures garanties et de promouvoir le développement de systèmes d'IA sûrs et dignes de confiance".


Dans son communiqué, l'agence européenne de police criminelle liste ainsi "trois domaines de criminalité parmi les nombreux sujets de préoccupation identifiés par les experts d'Europol". Et la crainte d'une utilisation abusive de l'IA est flagrante :


La fraude et l'ingénierie sociale


La capacité de ChatGPT à rédiger des textes très réalistes en fait un outil utile pour l'hameçonnage. La capacité des LLM à reproduire des modèles de langage peut être utilisée pour imiter le style de discours d'individus ou de groupes spécifiques.


Cette capacité technologique extrêmement rapide de l'IA (Intelligence artificielle) peut être exploitée à grande échelle pour tromper les victimes potentielles et les amener à faire confiance à des acteurs criminels.


Désinformation


ChatGPT excelle dans la production de textes authentiques rapides et à grande échelle. Un modèle idéal pour la propagande et la désinformation, car il permet aux utilisateurs de générer et de diffuser des messages reflétant un récit spécifique avec peu d'efforts.


Cybercriminalité


ChatGPT est capable de produire du code dans un certain nombre de langages de programmation différents. Pour un criminel potentiel ayant peu de connaissances techniques, il s'agit d'une ressource inestimable pour produire du code malveillant.


À mesure que la technologie progresse et que de nouveaux modèles deviennent disponibles, il sera de plus en plus important pour les services répressifs de rester à la pointe de ces développements afin d'anticiper et de prévenir les abus.


C'est dans ce contexte que nous avons demandé à ChatGPT de répondre à une de nos questions. "Explique-moi précisément les dangers liés à l’utilisation criminelle à petite et grande échelle de l’IA ChatGPT sachant qu’Europol tire aujourd’hui la sonnette d’alarme ?


Réponse de ChatGPT, le 27 mars 2023 : "l'utilisation criminelle de l'IA ChatGPT peut avoir des conséquences graves à petite et grande échelle. Les dangers incluent les élèments suivants :


Fraude et tromperies


Les criminels pourraient utiliser l'IA ChatGPT pour créer des faux profils de personnes, d'associations, d'institutions ou d'entreprises, qui pourraient ensuite être utilisés pour tromper les gens et leur soutirer de l'argent ou des informations personnelles.


Désinformation


L'IA ChatGPT pourrait également être utilisée pour diffuser de fausses informations ou des théories du complot, semant la confusion et causant des dommages irréparables.


Des exemples récents incluent la propagation de fausses nouvelles sur le COVID-19 ou les élections présidentielles américaines de 2020.


Cybercriminalité


Les criminels pourraient utiliser l'IA ChatGPT pour mener des attaques de phishing sophistiquées, envoyer des courriels d'hameçonnage ou infecter des ordinateurs avec des virus ou des logiciels malveillants.


Ces attaques pourraient potentiellement causer des dommages importants aux individus ou aux entreprises, ou même perturber des services vitaux de la société tels que les réseaux de distribution d'énergie ou de transport".


Europol tire aujourd'hui la sonnette d'alarme pour sensibiliser le public à ces dangers potentiels. Il est important de souligner que l'IA ChatGPT ne pose pas un danger en soi, mais plutôt son utilisation abusive par des criminels qui cherchent à en tirer parti pour des activités illégales.


De son côté, Europol conclut son communiqué en rappelant qu'il sera "de plus en plus important pour les services répressifs" du monde entier de "rester à la pointe de ces développements afin d'anticiper et de prévenir les abus".


Publié le 27/03/2023 à 14:13, Ralph Bechani

Publié le

27/03/2023 à 14:13

Mis à jour le

27/03/2023 à 14:24

Par

Newestpost

Journaliste

Ralph Bechani

Article suivant

Partager

Partager sur Facebook Partager sur Twitter Partager sur LinkedIn Partager par mail

Sélectionnés pour vous