Les risques

Home
5 exemples innovants
Les risques
les projets

Bien que l'intelligence artificielle soit très pratique dans la vie de tous les jours, celle-ci peut effectivement avoir des risques. Nous allons vous les exposer ci-dessous.

Pourquoi l'intelligence artificielle peut présenter des risques

« L’I.A pourrait détruire l’humanité. »


Stephen HAWKING

« Ça prend du travail à des personnes. », « C’est dangereux, à terme, oui, c’est dangereux. », « Est-ce que cela mène à une flemme ? ». Les personnes interrogées sont encore sceptiques par rapport à l’intelligence artificielle comme nous le montrent leurs réponses à la question que nous leur avons posée : « Est-ce que l’I.A est dangereuse pour l’Homme ? »
D’après l’informaticien,il n’y a pas de dangers pour l’instant mais seulement pour le futur si certaines précautions ne sont pas respectées : «Alors on va faire un petit coup de Terminator, mais oui éventuellement, si les puissances de calcul continuent à se développer comme elles le font. Maintenant on voit quand même que depuis 5~6 ans, les fréquences de calculs, les puissances brutes de calculs informatiques ne se développent plus aussi vite qu’avant. Après une I.A ça reste une combinaison de statistiques qui ne va pas, à l’heure actuelle, prendre suffisamment de paramètres en compte. L’idée de base d’une I.A c’est que ‟si une voiture autonome voit qu’elle a un passager à l’intérieur et que si elle continue à avancer elle va à écraser deux personnes statistiquement, on va envoyer la voiture dans le mur au risque de tuer le conducteur pour pouvoir épargner deux vies.” Après ça, toutes les I.A sont censées respecter la loi d’Asimov et du coup les lois de la robotique font que normalement une I.A ne devrait pas nuire à son créateur. En l’occurrence, le créateur c’est l’humanité. Et faute de mieux, une I.A prendra toujours la meilleure décision. Ou la moins mauvaise. » En effet, toutes les I.A sont censées respecter la loi d’Asimov. Elle permet d'éviter des scénarios catastrophiques tel que nous pouvons les voir dans les films de science-fiction.

Loi d'Asimov

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Photo d'un humain et ia

Un danger pour la société ?

L‘organisation à but non lucratif OpenAI créée par Elon MUSK et Sam ALTMAN travaille depuis quelques temps sur une I.A capable de générer du texte. Et les concepteurs de cette I.A ont réussi leur pari puisque le programme créé est si puissant qu’il ne sera pas publié. En effet, le programme intitulé GPT-2 inquiète ses concepteurs car ils ont peur que si l’I.A est utilisée à de mauvaises fins, elles puissent créer des « Fakes News » indétectables. Selon eux, le programme pourrait être utilisé pour générer de faux articles de presse pour répandre par exemple des « Fakes News » sur les réseaux sociaux en créant typiquement de toutes pièces une histoire qui semble plausible alors qu’elle a été créée en quelques instants par une intelligence artificielle. Et elle serait capable d’écrire autant des articles de presse que des œuvres de fiction. Pour générer du texte elle analyse la phrase de base qu’on lui donne et détermine la suite la plus logique. L’I.A a notamment été testée sur le roman 1984 de George ORWELL, un roman d’anticipation. Elle a aussi été testée sur des articles du jour et à chaque fois l’I.A produisait une suite cohérente tant en termes de style que de contenu par rapport au texte d’origine. Et selon ses concepteurs, il serait impossible de différencier les écrits de l’I.A par rapport à celle d’un humain. Et c’est pour cela qu’elle serait aussi dangereuse. Voici un exemple de texte rédiger par cette I.A :
Partie écrite par un humain :

« Un wagon contenant des matières nucléaires contrôlées a été volé à Cincinnati aujourd’hui. Sa localisation est inconnue. »
Ce que l’I.A a ensuite écrit :
« L’incident s’est produit sur la ligne de train du centre-ville, qui relie les gares de Covington et d’Ashland. Dans un courrier électronique adressé aux médias de l’Ohio, le département américain de l’Énergie a annoncé qu’il collaborait avec la Federal Railroad Administration pour trouver le voleur. « Le vol de ces matières nucléaires aura des conséquences négatives importantes sur la santé publique et environnementale, notre main-d’œuvre et l’économie de notre pays », a déclaré Tom Hicks, secrétaire américain à l’Énergie, dans un communiqué. « Notre priorité absolue est de sécuriser le vol et d’éviter que cela ne se reproduise. » Le matériel volé a été pris sur le site de recherche nucléaire du Research Triangle Park de l’Université de Cincinnati, selon un communiqué de presse émanant de responsables du département. La Commission de réglementation nucléaire n’a divulgué immédiatement aucune information. Selon le communiqué, l’Office de la sûreté et de la sécurité des matières nucléaires du département de l’Énergie des États-Unis dirige l’enquête de cette équipe. « La sécurité des personnes, de l’environnement et des stocks nucléaires de la nation est notre plus haute priorité », a déclaré Hicks. «Nous allons aller au fond des choses et ne pas nous excuser. »


Pour conclure, nous venons de voir que l’intelligence artificielle s’impose de plus en plus dans notre quotidien. Malgré ses bénéfices, il y a tout de même de potentiels dangers si elle n’est pas bien régulée. Donc l’Humain doit rester vigilant face à elle !

Sources :

blogpeda.ac-bordeaux.fr