L’intelligence artificielle (IA) selon IBM est l’utilisation « d’ordinateurs et de machines pour imiter les capacités de résolution de problèmes et de prise de décision de l’esprit humain ».
L’idée de l’IA remonte à au moins 2 700 ans. Notre capacité à imaginer l’intelligence artificielle remonte à l’Antiquité. Bien avant que les progrès technologiques ne rendent possible l’utilisation d’appareils autonomes, les mythes anciens exploraient les idées de création de vie artificielle et de robots.
Les mythes concernant Héphaïstos, le dieu grec du feu et de la forge, comprenaient des précurseurs de l’IA. Par exemple, Héphaïstos a créé l’homme de bronze géant, Talos, qui était doté d’une mystérieuse force vitale provenant des dieux et appelée ichor. Héphaïstos a également créé Pandore et sa tristement célèbre boîte, ainsi qu’un ensemble de serviteurs automatisés en or qui recevaient la connaissance des dieux.
Aucun de ces mythes ne se termine bien une fois que les êtres artificiels sont envoyés sur Terre. C’est un peu comme si les mythes disaient que c’est mieux de confiner ces créatures artificielles au ciel, manipulées par les dieux, mais qu’une fois qu’elles interagissent avec les humains, nous ne pouvons plus nous en passer. Ainsi, dès qu’elles interfèrent avec les humains, c’est le chaos et la destruction.
La notion moderne d’IA est née en grande partie lorsqu’Alan Turing, qui a contribué à déchiffrer le code Enigma des nazis pendant la Seconde Guerre mondiale, a créé le test de Turing pour déterminer si un ordinateur est capable de « penser ». La valeur et la légitimité de ce test ont longtemps été débattues.
Le « père de l’intelligence artificielle », John McCarthy, a inventé le terme « intelligence artificielle » lorsqu’il a proposé, avec Marvin Minsky et Claude Shannon, un stage d’été sur le sujet en 1956 au Dartmouth College. McCarthy a défini l’intelligence artificielle comme « la science et l’ingénierie de la fabrication de machines intelligentes ». Il a ensuite créé le langage de programmation LISP (qui est toujours utilisé en IA), organisé des parties d’échecs sur ordinateur contre des adversaires russes humains et mis au point le premier ordinateur doté d’une capacité « main-œil », autant d’éléments importants pour l’IA.
Le premier programme d’IA conçu pour imiter la manière dont les humains résolvent les problèmes, Logic Theorist, a été créé par Allen Newell, J.C. Shaw et Herbert Simon en 1955-1956. Le programme a été conçu pour résoudre des problèmes tirés de Principia Mathematica (1910-13), écrit par Alfred North Whitehead et Bertrand Russell.
En 1958, Frank Rosenblatt invente le Perceptron, qu’il présente comme « la première machine capable d’avoir une idée originale ». Bien que la machine ait été critiquée par des détracteurs, elle a été saluée plus tard comme étant « la base de toute cette intelligence artificielle ».
Lorsque les ordinateurs sont devenus moins chers dans les années 1960 et 1970, des programmes d’IA tels qu’ELIZA de Joseph Weizenbaum ont prospéré et des agences gouvernementales américaines, dont la Defense Advanced Research Projects Agency (DARPA), ont commencé à financer la recherche dans le domaine de l’IA. Mais les ordinateurs étaient encore trop peu performants pour gérer les tâches linguistiques que les chercheurs leur demandaient. Un nouvel afflux de fonds dans les années 1980 et au début des années 1990 a permis de faire avancer la recherche, notamment grâce à l’invention des systèmes experts par Edward Feigenbaum et Joshua Lederberg. Mais les progrès se sont à nouveau essoufflés avec une nouvelle baisse du financement public.
En 1997, Gary Kasparov, champion du monde d’échecs en titre et grand maître, a été vaincu par le programme informatique d’IA Deep Blue d’IBM, un événement majeur dans l’histoire de l’IA. Plus récemment, les progrès réalisés dans les limites et les vitesses de stockage des ordinateurs ont ouvert de nouvelles voies à la recherche et à la mise en œuvre de l’IA, en aidant la recherche scientifique et en ouvrant de nouvelles voies en médecine pour le diagnostic des patients, la chirurgie robotique et le développement de médicaments.
Aujourd’hui, l’intelligence artificielle est utilisée pour diverses applications quotidiennes, notamment les logiciels de reconnaissance faciale, les algorithmes d’achat en ligne, les moteurs de recherche, les assistants numériques comme Siri et Alexa, les services de traduction, les fonctions de sécurité automatisées sur les voitures, la cybersécurité, la sécurité des scanners corporels dans les aéroports, les stratégies de jeu au poker et la lutte contre la désinformation sur les médias sociaux.
Le domaine se développant à pas de géant, le 29 mars 2023, des géants de la technologie comme Elon Musk, Steve Wozniak, Craig Peters (PDG de Getty Images), l’auteur Yuval Noah Harari et le politicien Andrew Yang ont publié une lettre ouverte appelant à une pause de six mois sur les « systèmes d’IA plus puissants que le GPT-4 ». (Ce dernier, « Generative Pre-trained Transformer 4 », est un modèle d’IA capable de générer des textes et des images de type humain). La lettre précise que « les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables… La recherche et le développement en matière d’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui. Un jour après sa publication, la lettre avait recueilli 1 380 signatures d’ingénieurs, de professeurs, d’artistes et de grands-mères.
Le 30 octobre 2023, le président américain Joe Biden a signé un décret sur l’intelligence artificielle qui « établit de nouvelles normes pour la sûreté et la sécurité de l’IA, protège la vie privée des Américains, fait progresser l’équité et les droits civils, défend les consommateurs et les travailleurs, promeut l’innovation et la concurrence, fait progresser le leadership américain dans le monde, et plus encore ». La vice-présidente Kamala Harris a déclaré : « Nous avons le devoir moral, éthique et sociétal de veiller à ce que l’IA soit adoptée et développée de manière à protéger le public de tout préjudice potentiel. Nous voulons que les mesures que nous prenons au niveau national servent de modèle à l’action internationale. »
Malgré ces précautions, les experts ont fait remarquer qu’il serait difficile de faire respecter bon nombre des nouvelles normes, d’autant plus que l’IA suscite presque quotidiennement de nouvelles préoccupations et de nouvelles controverses. Les développeurs d’IA, par exemple, ont été critiqués pour avoir utilisé des œuvres protégées par le droit d’auteur pour former des modèles d’IA et pour avoir politiquement biaisé les informations produites par l’IA. Des programmes génératifs tels que ChatGPT et DALL-E3 prétendent produire des résultats « originaux » parce que les développeurs ont exposé les programmes à d’énormes bases de données de textes et d’images existants, un matériel constitué d’œuvres protégées par le droit d’auteur. OpenAI et Anthropic, ainsi que d’autres sociétés d’IA, ont été poursuivies en justice par le New York Times, Microsoft, d’innombrables auteurs dont Jodi Picoult, George R.R. Martin, Sarah Silverman et John Grisham, des éditeurs de musique dont Universal Music Publishing Group, et de nombreux artistes visuels ainsi que Getty Images, entre autres. Les conditions de service de nombreuses entreprises, dont Encyclopaedia Britannica, exigent désormais que les entreprises spécialisées dans l’IA obtiennent l’autorisation écrite d’exploiter des données pour la formation de robots d’IA.
La controverse a éclaté à nouveau au début de l’année 2024, lorsque le chatbot Gemini de Google a commencé à déformer des événements historiques en générant des images de soldats nazis allemands des années 1940 et de papes catholiques (y compris une femme pape noire) de différentes origines raciales. Les législateurs républicains ont accusé Google de promouvoir une idéologie gauchiste et de diffuser de la désinformation par l’intermédiaire de son outil d’IA. Dans le monde entier, des craintes ont été exprimées quant au fait que cette technologie pourrait nuire au processus démocratique lors des prochaines élections. En conséquence, Google a accepté de corriger son imagerie historique erronée et de limiter les requêtes liées aux élections dans les pays où les élections sont imminentes. De même, la FCC (Federal Communications Commission) a interdit l’utilisation de voix générées par l’IA dans les robocalls (appels automatisés) après qu’il a été constaté qu’un groupe politique du New Hampshire plaçait des robocalls avec une voix générée par l’IA qui imitait le président Joe Biden dans le but de dissuader le vote des primaires du parti démocrate.
Pour ou contre ? L’intelligence artificielle est-elle bonne pour la société ?
Pour
L’IA peut rendre la vie quotidienne plus pratique et plus agréable, en améliorant notre santé et notre niveau de vie.
- Pourquoi rester assis dans un embouteillage alors qu’une application cartographique peut vous guider pour éviter un accident de voiture ?
- Pourquoi chercher vos clés dans l’obscurité avec des sacs de courses alors qu’une commande géolocalisée prédéfinie peut éclairer votre entrée lorsque vous vous approchez de votre porte désormais déverrouillée ?
- Pourquoi faire défiler des centaines de programmes télévisés possibles alors que l’application de streaming sait déjà quels genres vous aimez ?
- Pourquoi oublier des œufs à l’épicerie alors qu’un assistant numérique peut faire l’inventaire de votre réfrigérateur, les ajouter à votre liste de courses et les faire livrer à votre domicile ?
Toutes ces innovations sont assistées par la technologie de l’IA.
Les applications de remise en forme basées sur l’IA ont connu un véritable essor pendant la pandémie de COVID-19, lorsque les salles de sport étaient fermées, ce qui a augmenté le nombre d’options d’IA pour les séances d’entraînement à domicile. Aujourd’hui, vous pouvez non seulement vous fixer un objectif de pas quotidiens avec des rappels d’encouragement sur votre montre intelligente, mais aussi parcourir virtuellement la campagne sur un vélo Peloton depuis votre garage ou bénéficier d’un entraîneur personnel sur le téléviseur de votre salon. Pour une remise en forme plus spécialisée, les dispositifs portables d’IA peuvent surveiller les poses de yoga ou les swings de golf et de baseball.
L’IA peut même améliorer les rendez-vous chez le médecin et les procédures médicales. Elle peut alerter les soignants sur les tendances de vos données de santé par rapport à la vaste bibliothèque de données médicales, tout en s’occupant de la paperasserie liée aux rendez-vous médicaux afin que les médecins aient plus de temps pour se concentrer sur leurs patients, ce qui se traduit par des soins plus personnalisés. L’IA peut même aider les chirurgiens à être plus rapides, plus précis et moins invasifs dans leurs opérations.
Les haut-parleurs intelligents, dont l’Echo d’Amazon, peuvent utiliser l’IA pour endormir les bébés et surveiller leur respiration. Grâce à l’IA, les haut-parleurs peuvent également détecter les battements de cœur réguliers et irréguliers, ainsi que les crises cardiaques et les insuffisances cardiaques congestives.
Contre
L’IA nuira au niveau de vie de nombreuses personnes en provoquant un chômage de masse à mesure que les robots remplaceront les hommes.
Les robots IA et autres logiciels et matériels deviennent moins coûteux et n’ont besoin d’aucun des avantages et services requis par les travailleurs humains, tels que les congés de maladie, les heures de déjeuner, les pauses toilettes, l’assurance maladie, les augmentations de salaire, les promotions et les évaluations des performances, ce qui entraîne des problèmes pour les travailleurs et la société dans son ensemble.
48 % des experts estiment que l’IA remplacera un grand nombre d’emplois de cols bleus et même de cols blancs, ce qui entraînera une plus grande inégalité des revenus, une augmentation du chômage et un effondrement de l’ordre social.
L’axiome « tout ce qui peut être automatisé le sera » n’est plus de la science-fiction. Les caisses automatiques de magasins tels que CVS, Target et Walmart utilisent la vidéo et les scanners assistés par l’IA pour prévenir les vols, alerter le personnel en cas de transactions suspectes, prévoir les tendances d’achat et atténuer les points d’achoppement lors du passage en caisse. Ces machines dotées d’IA ont remplacé les caissiers humains. Environ 11 000 emplois dans le commerce de détail ont été perdus en 2019, en grande partie à cause des caisses automatiques et d’autres technologies. En 2020, pendant la pandémie de COVID-19, un fabricant de caisses automatiques a expédié 25 % d’unités supplémentaires à l’échelle mondiale, reflétant le fait que plus de 70 % des consommateurs américains préféraient les caisses automatiques ou sans contact.
Selon un rapport du Forum économique mondial d’octobre 2020, 43 % des entreprises interrogées prévoient de réduire leurs effectifs au profit de l’automatisation. De nombreuses entreprises, en particulier les restaurants rapides, les magasins de détail et les hôtels, ont automatisé des emplois pendant la pandémie de COVID-19.
L’inégalité des revenus a été exacerbée au cours des quatre dernières décennies, car 50 à 70 % des changements dans les chèques de paie américains ont été causés par des baisses de salaire pour les travailleurs dont les industries ont connu une automatisation rapide, y compris les technologies de l’IA.
Pour
L’IA facilite le travail des étudiants et des professionnels.
Tout comme la calculatrice n’a pas signifié la fin de la maîtrise des mathématiques par les élèves, la dactylographie n’a pas éliminé l’écriture manuelle et Google n’a pas annoncé la fin des compétences en matière de recherche, l’IA ne signale pas la fin de la lecture et de l’écriture, ou de l’éducation en général.
Les outils d’IA tels que ChatGPT peuvent aider les élèves en fournissant des réponses immédiates à leurs questions, en les engageant dans des conversations personnalisées et en leur fournissant un contenu personnalisé basé sur leurs centres d’intérêt. Il peut également proposer des ressources d’apprentissage personnalisées, des vidéos, des articles et des activités interactives. Cette ressource peut même fournir des recommandations personnalisées pour l’étude, aider à la recherche, fournir des réponses spécifiques au contexte et proposer des jeux éducatifs. Les tâches les plus rébarbatives des enseignants, comme la notation et l’établissement de listes de vocabulaire, peuvent être rationalisées grâce à des outils d’IA.
Pour les adultes, l’IA peut également faciliter le travail et le rendre plus efficace, plutôt que de préfigurer l’avènement de l’employé robotisé. Les tâches fastidieuses et chronophages telles que la planification et la gestion des réunions, la recherche des courriels importants parmi les spams, la hiérarchisation des tâches de la journée et la création et la publication de contenu sur les médias sociaux peuvent être déléguées à l’IA, ce qui libère du temps pour des tâches plus importantes et plus gratifiantes. La technologie peut également aider au brainstorming, à la compréhension de concepts difficiles, à la recherche d’erreurs dans le code informatique et à l’apprentissage de langues par la conversation, rendant ainsi les tâches rébarbatives plus faciles à gérer.
L’IA est un outil qui, s’il est utilisé de manière responsable, peut améliorer l’apprentissage et le travail de chacun.
Contre
L’IA peut être facilement instrumentalisée, ce qui favorise la désinformation et la paresse culturelle.
L’idée qu’Internet nous rend stupides est légitime, et l’IA c’est comme Internet sous stéroïdes.
Avec des robots d’IA qui font tout, de la recherche à la rédaction d’articles, des mathématiques de base aux problèmes de logique, de la génération d’hypothèses à la réalisation d’expériences scientifiques, de la retouche de photos à la création d’œuvres d’art « originales », les élèves de tous âges seront tentés (et beaucoup succomberont à la tentation) d’utiliser l’IA pour leurs travaux scolaires, ce qui nuira aux objectifs de l’éducation.
Bientôt, l’obtention d’un diplôme universitaire sans l’aide de l’IA sera aussi étrangère à la prochaine génération d’étudiants que les téléphones publics et que les vidéos clubs le sont pour la génération actuelle.
Une étude réalisée en juin 2023 a révélé que l’utilisation accrue de l’IA est en corrélation avec une augmentation de la paresse des étudiants due à la perte de la prise de décision humaine. De même, une étude réalisée en octobre 2023 a révélé une augmentation de la paresse et de la négligence, ainsi qu’une baisse de la qualité du travail lorsque des humains travaillent aux côtés de robots d’IA.
Les conséquences de l’exécution de tâches par l’IA sont énormes. Nous assisterons à une baisse de la qualité du travail et de la motivation humaine, ainsi qu’à l’apparition de situations dangereuses, allant des accidents mortels sur le lieu de travail à la redoutable « pensée de groupe » de George Orwell. Et lorsque les humains seront devenus trop paresseux pour programmer la technologie, nous assisterons également à l’apparition d’une IA paresseuse.
Le chatbot Gemini de Google a même généré des inexactitudes historiques à motivation politique en insérant des personnes de couleur dans des événements historiques auxquels elles n’ont jamais participé, ce qui nuit encore plus à la culture historique. Une dépendance excessive à l’égard de la technologie empêchera encore davantage le public de distinguer la vérité du mensonge, l’information de la propagande, une compétence essentielle qui se perd peu à peu, laissant la population volontairement ignorante et intellectuellement paresseuse.
Pour
L’IA aide les minorités en offrant une accessibilité aux personnes handicapées.
L’intelligence artificielle est couramment intégrée dans les smartphones et autres appareils ménagers. Les assistants virtuels, dont Siri, Alexa et Cortana, peuvent effectuer d’innombrables tâches, depuis l’appel téléphonique jusqu’à la navigation sur Internet. Les personnes sourdes et malentendantes peuvent accéder à des transcriptions de messages vocaux ou d’autres données audio, par exemple.
D’autres assistants virtuels peuvent transcrire les conversations au fur et à mesure qu’elles se déroulent, ce qui permet aux personnes ayant des difficultés de communication de mieux les comprendre et d’y participer. L’utilisation de commandes vocales avec les assistants virtuels peut permettre une meilleure utilisation par les personnes souffrant d’un handicap de dextérité, qui peuvent avoir des difficultés à naviguer sur de petits boutons ou écrans ou à allumer une lampe.
Les applications activées par l’IA sur les smartphones et autres appareils, notamment VoiceOver et TalkBack, peuvent lire des messages, décrire des icônes ou des images d’applications et donner des informations telles que le niveau de batterie pour les personnes malvoyantes. D’autres applications, comme Voiceitt, peuvent transcrire et normaliser les voix des personnes ayant des difficultés d’élocution.
Wheelmap fournit aux utilisateurs des informations sur l’accessibilité des fauteuils roulants. Et Evelity propose des outils de navigation intérieure qui sont personnalisés en fonction des besoins de l’utilisateur, en fournissant des instructions audio ou textuelles et des itinéraires pour l’accessibilité en fauteuil roulant.
D’autres applications de l’IA, telles que les thermostats intelligents, les éclairages intelligents et les prises de courant intelligentes, peuvent être automatisées pour fonctionner selon un calendrier précis afin d’aider les personnes souffrant d’un handicap moteur ou cognitif à mener une vie plus indépendante.
Des projets d’IA plus avancés peuvent être combinés à la robotique pour aider les personnes physiquement handicapées. HOOBOX Robotics, par exemple, utilise un logiciel de reconnaissance faciale pour permettre à l’utilisateur d’un fauteuil roulant de le déplacer à l’aide de ses expressions faciales, ce qui facilite les mouvements des personnes âgées et des personnes atteintes de SLA (Sclérose Latérale Amyotrophique ou maladie de Charcot) ou de tétraparésie.
Contre
L’IA nuit aux minorités en répétant et en exacerbant le racisme humain.
La reconnaissance faciale s’est révélée être un outil à caractère raciste, reconnaissant facilement les visages des hommes blancs et identifiant à tort les femmes noires dans 35 % des cas. Une étude portant sur le programme d’IA Rekognition d’Amazon a associé à tort 28 membres du Congrès américain à des photos d’identité provenant d’une base de données criminelle, 40 % des erreurs concernent des personnes de couleur.
L’IA a également été utilisée de manière disproportionnée contre les communautés noires et métisses, avec davantage de caméras de surveillance de la police fédérale et locale dans les quartiers habités par ses communautés. Les mêmes technologies sont utilisées pour les décisions en matière de logement et d’emploi, ainsi que pour les contrôles aéroportuaires. Certaines villes, dont Boston et San Francisco, ont interdit l’utilisation de la reconnaissance faciale par la police pour ces raisons.
Un logiciel d’IA particulier chargé de prévoir le risque de récidive pour les tribunaux américains, le Compas (Correctional Offender Management Profiling for Alternative Sanctions), s’est avéré étiqueter à tort les accusés noirs comme présentant un risque élevé deux fois plus souvent que les défenseurs blancs, et étiqueter à tort les accusés blancs comme présentant un risque faible plus souvent. L’IA est également incapable de faire la distinction entre l’utilisation du mot « noir » comme une insulte et son utilisation culturelle par une personne noire.
En Chine, l’IA de reconnaissance faciale a été utilisée pour traquer les Ouïghours, une minorité en grande partie musulmane. Les États-Unis et d’autres gouvernements ont accusé le gouvernement chinois de génocide et de travail forcé dans le Xinjiang, où vit une importante population d’Ouïghours. Il a également été constaté que les algorithmes d’IA présentaient un « biais antimusulman persistant », en associant la violence au mot « musulman » à un taux plus élevé qu’aux mots décrivant des personnes d’autres religions, notamment les chrétiens, les juifs, les sikhs et les bouddhistes.
Pour
L’intelligence artificielle peut améliorer la sécurité au travail.
L’IA n’est jamais ni stressée, ni fatiguée, ni malade, trois causes majeures d’accidents humains sur le lieu de travail. Les robots d’IA peuvent collaborer avec les humains ou les remplacer pour des tâches particulièrement dangereuses. Par exemple, 50 % des entreprises de construction qui ont utilisé des drones pour inspecter les toits et d’autres tâches à risque ont constaté une amélioration de la sécurité.
L’intelligence artificielle peut également aider les humains à être plus vigilants. Par exemple, l’IA peut s’assurer que les employés sont à jour en matière de formation en suivant et en programmant automatiquement des formations sur la sécurité ou d’autres sujets. L’intelligence artificielle peut également vérifier l’ergonomie et proposer des corrections afin d’éviter les blessures dues au stress répétitif, voire pire.
Un programme d’IA appelé AI-SAFE (Automated Intelligent System for Assuring Safe Working Environments) vise à automatiser la vérification des équipements de protection individuelle (EPI) sur le lieu de travail, en éliminant les erreurs humaines susceptibles de provoquer des accidents sur le lieu de travail. Étant donné que de plus en plus de personnes portent des EPI pour empêcher la propagation du COVID-19 et d’autres virus, ce type d’IA pourrait protéger contre les épidémies à grande échelle.
En Inde, l’IA a été utilisée au milieu de la pandémie de coronavirus pour rouvrir les usines en toute sécurité en fournissant des technologies basées sur des caméras, des téléphones portables et des dispositifs portables intelligents pour assurer la distanciation sociale, prendre la température des employés à intervalles réguliers et effectuer la recherche des contacts si quelqu’un était positif au virus.
L’IA peut également effectuer des tâches plus délicates sur le lieu de travail, comme l’analyse des courriels professionnels pour détecter les comportements inappropriés et les types de harcèlement.
Contre
L’intelligence artificielle présente des risques dangereux pour la vie privée.
La technologie de reconnaissance faciale peut être utilisée à des fins de surveillance passive et sans autorisation de justice, à l’insu de la personne surveillée. En Russie, la reconnaissance faciale a été utilisée pour surveiller et arrêter des manifestants qui soutenaient l’opposant emprisonné Aleksey Navalny, qui a été retrouvé mort en prison en 2024. Les Russes craignent qu’un nouveau système de paiement par reconnaissance faciale pour le métro de Moscou n’entraîne une augmentation de ce type d’arrestations.
Ring, la société de sonnettes et de caméras intelligentes appartenant à Amazon, s’est associée à plus de 400 services de police, permettant à ces derniers de demander les images des caméras des sonnettes des utilisateurs. Bien que les utilisateurs soient autorisés à refuser l’accès à toute séquence, les experts en protection de la vie privée craignent que les relations étroites entre Ring et la police ne l’emportent sur la vie privée des clients, en particulier lorsque les caméras enregistrent fréquemment les biens d’autrui. Cette politique a pris fin en 2024, mais les experts affirment que d’autres entreprises autorisent des intrusions similaires.
L’IA vous suit également lors de vos courses hebdomadaires. Target a utilisé un algorithme pour déterminer quelles clientes étaient enceintes et leur a envoyé par courrier des coupons de réduction spécifiques aux bébés et aux femmes enceintes, violant ainsi la vie privée des femmes enceintes et de celles dont les habitudes d’achat peuvent simplement imiter celles des femmes enceintes.
En outre, l’intelligence artificielle peut être une aubaine pour les escrocs. En 2020, un groupe de 17 criminels a escroqué 35 millions de dollars à une banque des Émirats arabes unis en utilisant la technologie « deep voice » de l’IA pour se faire passer pour un employé autorisé à effectuer des transferts d’argent. En 2019, des voleurs ont tenté de dérober 240 000 dollars en utilisant la même technologie d’IA pour se faire passer pour le PDG d’une entreprise d’énergie au Royaume-Uni.