Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

[NOUVEL ORDRE MONDIAL]Un rapport vingt-six experts alerte sur les risques d’utilisation malveillante de l’intelligence artificielle en évoquant la facilitation de la manipulation des élections, l’accentuation de la cybercriminalité ou l’utilisation de drones à des fins terroristes.

Publié le par 2012nouvelmorguemondial

« Il est clair que l’IA [intelligence artificielle] aura une place importante dans les questions de sécurité de demain, que les possibilités d’usage malveillant sont nombreuses, et que nous pouvons et devons faire plus. »


Le rapport, publié mardi 20 février par vingt-six spécialistes de l’IA, a de quoi inquiéter. A l’aide d’exemples concrets, ces experts issus du monde universitaire (Yale, Stanford, Cambridge, Oxford), mais aussi d’organisations non gouvernementales (ONG), comme l’Electronic Frontier Foundation ou Open AI, alertent sur les dangers potentiels représentés par ces technologies, si elles étaient placées entre de mauvaises mains.


« Nous ne nous sommes concentrés que sur les technologies d’IA qui existent (ou du moins au stade de la recherche ou de prototypes) ou qui sont plausibles dans les cinq prochaines années », précisent les auteurs de ce rapport d’une centaine de pages.


Selon eux, la sécurité des personnes est en jeu, mais aussi la cybersécurité et l’équilibre politique. Dans ces trois domaines, « les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer ».


Scénarios catastrophes


Le rapport s’intéresse dans un premier temps à la façon dont des terroristes, par exemple, pourraient détourner ces technologies, « comme utiliser des drones ou des véhicules autonomes pour transporter des explosifs et causer des accidents ». De plus, l’IA pourrait « réduire l’expertise nécessaire pour mener certains types d’attaque », peut-on lire dans le document, qui évoque par exemple des systèmes permettant de mieux viser – et donc de se passer de tireurs d’élite.


Les auteurs imaginent plusieurs scénarios catastrophes. Dans l’un d’eux, un robot censé faire le ménage s’introduit dans un ministère, au milieu d’autres machines du même modèle. Quand le ministre passe à proximité, le robot déclenche une charge explosive.


Autre danger pointé : l’utilisation de programmes d’IA dans un but politique. Dans la guerre de l’information, tout d’abord. Le rapport évoque les technologies déjà capables de fabriquer des vidéos et des sons trompeurs, permettant par exemple de faire dire n’importe quoi à une personnalité politique. Il craint aussi « des campagnes de désinformation automatisées et hautement personnalisées » : en analysant les comportements des internautes, il serait possible de concevoir des messages sur mesure, qui leur seraient envoyés dans le but d’influencer leur vote.



Les auteurs imaginent aussi des campagnes d’envoi massif et automatisé d’informations, « fausses ou distrayantes », ayant pour unique but de créer du « bruit » et de noyer les informations de qualité.


Ils mettent aussi en garde contre les abus des Etats à l’encontre de leurs propres citoyens, avec « l’usage de systèmes automatisés de surveillance pour supprimer toute dissidence ».


Attaques informatiques


Enfin, le rapport s’intéresse à l’épineuse question de la cybersécurité, elle aussi déjà affectée par l’IA. Celle-ci pourrait être utilisée davantage à l’avenir pour « automatiser la découverte de failles » et « pour améliorer le choix des cibles, éviter la détection et répondre avec créativité aux changements dans le comportement des cibles ».


Cela pourrait aussi concerner les techniques de « phishing », qui consistent par exemple à envoyer un e-mail venant prétendument d’un proche, d’une entreprise ou d’une administration, dans le but de tromper l’utilisateur et de le pousser à fournir des informations, comme ses données bancaires.


Des programmes d’IA pourraient améliorer ce type d’escroquerie, en exploitant les données publiques mises en ligne par les internautes, « pour générer automatiquement des sites, des e-mails, des liens malveillants sur lesquels ils cliqueraient probablement, envoyés d’adresses se faisant passer pour leurs vrais contacts, avec un style d’écriture imitant celui de ces contacts ».


Les « chatbots », ces programmes censés converser avec les humains, pourraient aussi progresser suffisamment pour gagner la confiance de cibles, estiment les auteurs du rapport : « Et peut-être même se faire passer visuellement pour une autre personne dans un tchat vidéo. »


Recommandations


Que faire pour éviter que ces scénarios catastrophes se concrétisent ? Les auteurs du rapport fournissent quelques recommandations. En premier lieu, une plus grande collaboration entre les pouvoirs publics et les chercheurs, « pour enquêter, prévenir et limiter les usages malveillants potentiels de l’IA ».


Ils encouragent aussi les chercheurs à « prendre au sérieux » le fait que les technologies qu’ils développent puissent être utilisées à bon comme à mauvais escient. Et, en conséquence, leur conseillent d’« orienter les priorités en termes de recherche et de normes », et de « prendre contact avec les acteurs pertinents quand ils voient arriver des applications dangereuses ».


Les technologies d’IA, sur lesquelles les informaticiens travaillent depuis les années 1950, ont fait de grands progrès depuis le début des années 2010. Et ce grâce notamment à l’augmentation de la puissance des machines, et à la multiplication des données dont ces programmes ont souvent besoin pour se développer.


Un bond qui soulève des inquiétudes. En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités, comme l’entrepreneur Elon Musk ou l’astrophysicien Stephen Hawking, avaient signé un appel pour faire interdire les armes autonomes. Depuis, plusieurs initiatives relatives à l’éthique dans l’IA ont vu le jour, comme le Partnership on AI, lancé en septembre 2016 par les grands groupes du secteur, dont Google, Facebook ou Amazon, qui comptent définir de « bonnes pratiques ».

Ce billet n'affirme que des faits qui ont été notoirement diffusés sur des médias alternatif, et divers medias mainstream.
 Il cite les sources: articles de presse/vidéos.

    Conformément au sens de l'art du code pénal , il ne peut être considéré comme 
diffamatoire (art. 34 de la loi du 29 juillet 1881).

    En conséquence, sa censure serait assimilable à entrave à la liberté
 d'expression (L431-1 du code pénal)