Menaces de l’Intelligence Artificielle
- Républik Sécurité
- il y a 15 heures
- 5 min de lecture
En 2018, une voiture autopilotée a heurté et tué un piéton. En 2023, GPT-4 pouvait manipuler un travailleur pour effectuer une vérification Captcha. Une personne s'est suicidée après une conversation troublante avec un chatbot. En 2023, un avocat a été sanctionné suite à un mémoire juridique, faisant référence à des décisions de justice fabriquées par le chatbot. En 2012, un algorithme défectueux a fait perdre à Knight Capital 440 millions de dollars en 45 minutes, ce qui l'a menée à sa perte. L’intelligence artificielle peut aider l’humain pour de meilleures décisions, mais elle représente une menace potentielle.

1. Intelligence artificielle : les menaces graves
a. Influence et manipulation - Propagation de la désinformation
Les deepfakes désignent des vidéos/images modifiées numériquement représentant une personne en train de dire/de faire quelque chose qu'elle n'a jamais dit/fait en réalité. Cette technologie utilise des algorithmes d'apprentissage pour manipuler des séquences existantes afin de créer un vrai-faux ; cela pourrait créer de fausses preuves dans des affaires judiciaires, accuser à tort des individus de crimes ou se faire passer pour une personnalité politique afin de diffuser de informations erronées. En manipulant les médias, les deepfakes ont le pouvoir de perturber la confiance dans les sources d'information traditionnelles, de semer la confusion et la discorde dans la société et de diffuser des actions de propagande. D’un excellent réalisme, ces vidéos/images truquées sont quasi indétectables. Des escrocs ont utilisé ces faux pour voler de l’argent aux entreprises (fraude au faux président).
b. Sécurité de l’information - Cybercriminalité
Avec l’IA, les cyberattaques sont plus destructrices. La cybercriminalité englobe les activités criminelles utilisant des composantes numériques pour commettre des fraudes, des vols d'identité, des violations de données, des escroqueries, des corruptions de données et d'autres actes malveillants. Les cybercriminels exploitent les faiblesses informatiques pour obtenir un accès non autorisé, voler des informations sensibles, perturber les services et causer des dommages aux individus, aux organisations et aux gouvernements. Ils utilisent des outils d'IA (ChatGPT, …) pour des attaques automatisées de phishing, d'usurpation d'identité, d'ingénierie sociale et de faux chatbots d'assistance à la clientèle. Ainsi, ils envoient des messages vocaux en se faisant passer pour un proche (ami ou un membre de la famille) afin d'obtenir des informations personnelles ou des données bancaires. Le hameçonnage alimentée par l’IA générant des messages personnalisés et automatisés correspond au « spear phishing » en ciblant, avec précision, un panel réduit (ingénierie sociale, orthographe, ton adapté à la cible) pour des escroqueries spécifiques (vente d’œuvre d’art, ...). La corruption de données peut modifier ou introduire délibérément de fausses données pour contourner des systèmes de protection. Le piratage des systèmes contrôlés par l'IA peut perturber les infrastructures (panne d'électricité , engorgement du trafic ou rupture de la logistique alimentaire).
2. Intelligence artificielle : les menaces inquiétantes
a. Piratage de voitures autonomes
En cas de défaillance ou de manipulation externe des algorithmes sophistiqués embarqués dans les voitures autonomes, des accidents graves ou des actes terroristes peuvent se concrétiser. Ces véhicules connectés sont des cibles de choix pour les pirates informatiques. La sécurité et la responsabilité de ces technologies deviennent des questions centrales. Les principales attaques sont des piratages des systèmes de navigation (GPS spoofing/falsifier les signaux GPS, attaques par rejeu), manipulations des capteurs (falsification des données) et des attaques par deepfakes.
b. Robots tueurs ou "armes autonomes létales
Ces systèmes ont la capacité de sélectionner et d'engager des cibles sans intervention humaine et pourraient réduire les pertes humaines dans les zones de conflit et permettre des opérations militaires plus précises et plus efficaces. Mais apparaissent des conséquences inquiétantes (escalade des conflits et pertes civiles). Cela soulève d'importantes questions éthiques, juridiques et de sécurité, car ces armes peuvent prendre des décisions de vie ou de mort sans surveillance humaine. Ces armes vont des drones aux systèmes terrestres capables d'identifier et d'attaquer des cibles de manière autonome. Comme ces systèmes peuvent être piratés ou mal fonctionner, cela suscite un questionnement. L'absence de contrôle humain dans la prise de décision soulève des inquiétudes (responsabilité et risque de violation du droit humanitaire international). Ces drones autonomes pourraient être très dangereux s'ils agissent en masse dans des essaims auto-organisés.
c. Atteinte à la vie privée
L'utilisation de la technologie de reconnaissance faciale constituerait un exemple de surveillance. Cette technologie permet de suivre les mouvements des individus, mais elle pourrait permettre au gouvernement de collecter de nombreuses données pour surveiller les actions, les activités, les relations et les croyances idéologiques des individus. Chaque citoyen serait évalué sur la base de ses comportements (le fait de traverser la rue sans autorisation, de fumer dans des zones non-fumeurs ou de passer du temps à jouer à des jeux vidéo). Lorsque Big Brother observe et prend des décisions sur la base de ces informations, il s'agirait non seulement d'une atteinte à la vie privée, mais aussi d'une oppression sociale. Recueillir des données personnelles afin d'envoyer des messages de menace automatisés correspond à du chantage à grande échelle.
3. Intelligence artificielle : les menaces insidieuses
a. Impacts financiers et économiques - Menaces sur l’emploi
Dans la finance, les algorithmes d'apprentissage automatique sont répandus, les fonds spéculatifs et les sociétés d'investissement s'appuient sur ces modèles pour analyser les actions et les actifs. Ils sont alimentés par des quantités de données pour prendre des décisions de trading. Cependant, il est à craindre que le trading algorithmique ne déclenche une grande crise financière. La manipulation de marchés financiers pourrait corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser/monter une valeur artificiellement, de provoquer un crash financier. L’automatisation par l’IA risque de perturber le monde du travail. Les tâches répétitives et les emplois peu qualifiés sont les plus menacés. Une transition vers une économie fondée sur l’IA nécessiterait une requalification massive des travailleurs. Avec l’automatisation croissante, plusieurs métiers risquent de disparaître, ce qui entraîne des inquiétudes concernant le chômage.
b. Manipulation sociale
Les médias sociaux excellent dans le marketing ciblé en comprenant les préférences et les pensées des individus. Les recommandations existent pour canaliser les spectateurs ou les classements afin d’améliorer le profil des produits ou dénigrer les concurrents. Les algorithmes peuvent orienter les utilisateurs vers des contenus provocateurs et nuisibles afin de révéler l'engagement.
c. Erosion des compétences humaine- Une super intelligence incontrôlable
La perte de contrôle humain apparait à mesure que les machines deviennent plus autonomes ; le rôle de l’humain pourrait s’amoindrir dans certaines prises de décisions critiques et cela peut engendrer une diminution de la capacité à réagir en temps réel en cas de dysfonctionnement ou de situation imprévue. Le cerveau humain, comme tout autre organe, s’adapte aux exigences ou à l’absence d’exigences qui lui sont imposées. L'intelligence artificielle surpasse le cerveau humain : vitesse de calcul, vitesse de communication interne, évolutivité, capacité de mémoire, fiabilité, duplicabilité, modifiabilité, partage de la mémoire et capacités d'apprentissage. Ce risque de perte de contrôle est d’autant plus important avec la course folle de certains acteurs étatiques et privés pour être les premiers à créer une super intelligence qui dépasserait l’humain dans tous les domaines. Sa logique de fonctionnement échapperait à tout opérateur humain et ses capacités de calcul seraient considérablement supérieures à celles de l'humain.
d. Diverses autres menaces
Les robots cambrioleurs, petits robots autonomes, se glissent dans les boîtes aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. L’IA dans la santé pourrait entraîner une diminution de l'empathie et du raisonnement humains et étouffer la créativité humaine et l'expression émotionnelle. Un déclin de la communication et des compétences sociales n’est pas à exclure. Si quelque chose tourne mal, qui est responsable ? L'IA elle-même, le développeur qui l'a créée, l'entreprise qui l'a mise en œuvre, ou l'opérateur si un être humain est impliqué ?
En conclusion, il ressort que l’IA, qui a des vertus magiques pour améliorer la vie des individus, doit être canalisée en raison de ses potentialités dans tous les créneaux de la vie. Le risque principal avec l’IA est de la laisser jouer son pouvoir de séduction pour amplifier les capacités cognitives des humains…