Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

[NOUVEL ORDRE MONDIAL]Les autorités chinoises vont un peu plus loin que le film de science-fiction Minority Report. Des chercheurs ont créé une intelligence artificielle (IA) qui pourrait identifier les crimes et permettre au tribunal de porter automatiquement plainte contre les criminels et proposer des peines à appliquer.

Publié le par 2012nouvelmorguemondial

 

 

Les autorités chinoises vont un peu plus loin que le film de science-fiction Minority Report. Des chercheurs ont créé une intelligence artificielle (IA) qui pourrait identifier les crimes et permettre au tribunal de porter automatiquement plainte contre les criminels et proposer des peines à appliquer. C’est au parquet de Shanghai Pudong, où se trouve le plus grand bureau du procureur de district du pays que l’expérimentation a eu lieu, selon les informations du South China Morning Post. D’après les chercheurs qui ont mis au point l'IA, en se reposant sur la description d’une affaire criminelle, elle parvient avec une précision de 97 % à apporter les éléments permettant d'accuser le coupable présumé. L’IA s’appuie sur un modèle existant portant le nom de « Système 206 ». Il était déjà employé par les procureurs chinois pour les soutenir dans l’évaluation de preuves et déterminer si un criminel présumé était dangereux pour le public. En revanche, son expertise s’arrêtait là et il ne participait aucunement au processus décisionnel permettant le dépôt d’accusation et la proposition de peines au tribunal.

Quand une IA fait le sale boulot
Aujourd’hui, l’IA sait faire le tri entre les informations pertinentes et celles qui ne le sont pas. En tout, elle sait identifier et lancer des procédures judiciaires pour les huit crimes les plus courants de ce district, à savoir : les jeux d’argent, les vols, la fraude, les arnaques par carte de crédit, les conduites imprudentes, les agressions, les outrages et entraves à un agent et enfin, une spécialité chinoise, la dissidence politique. Reste l'histoire des 3 % d’erreurs restantes des avis énoncés par cette IA. La question de la responsabilité se pose en cas de pépin et, pour le moment, on ne sait pas qui devra assumer les erreurs de jugement de l’IA. Cette interrogation n'empêche pas le parquet de rester très intéressé pour son déploiement de façon massive au tribunal.