l’IA est-elle  notre ennemie ?

Je vais laisser de côté les inquiétudes – pas forcément illégitimes du type « l’IA va nous prendre notre travail » – ,  mais j’y reviendrai ultérieurement si  vous le souhaitez.

Plus anxiogène, je suis tombé dernièrement dans Youtube sur une vidéo où intervenaient le PDG d’Anthropic (l’éditeur de Claude, le principal concurrent de ChatGPT) et un des cadres dirigeants de Google en charge de l‘IA.  Un passage portait notamment sur les dangers potentiels courus par l’humanité. Je vous le donne en mille, on se serait presque cru dans le script d’un nouveau film de la série Terminator.  En gros, la vilaine IA allait finir par nous écraser comme de vulgaires moustiques si nous n’y prenions pas garde.

Ça n’était pas d’ailleurs pas la première fois que j’entendais ce genre de propos dans la bouche de personnalités en vue dans la high-tech. Mais pourquoi donc ces gens jouent-ils à ce jeu discutable et a priori contraire à leurs intérêts ?  D’abord pour se couvrir préventivement, au cas où, sur le mode « j’avais averti l’industrie et les utilisateurs dès 2025 de tels risques ».

L’autre raison tient au fonctionnement de notre psychologie collective. Il faut en effet déployer à la louche dix fois plus d’énergie pour détricoter une légende urbaine que pour la propager. Imaginez que Sam Altman, Elon Musk, Marc Zuckerberg et Bill Gates déclarent qu’il n’y a aucun risque à employer l’IA à haute dose. Une majorité se dirait alors « (qu’) ils pensent en fait le contraire, et nous mentent sciemment dans leur intérêt financier. ». Alors, autant mettre les pieds dans le plat eux-mêmes.


Enfin et surtout, l’intelligence artificielle ne peut intervenir que sur les choses auxquelles nous lui donnons accès, et selon les modalités qui lui sont permises. C’est un peu le sens de ce qu’avait imaginé Isaac Asimov dès 1942 avec ses trois lois de la robotique :

Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger

Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi

Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.

Et il en avait ajouté ultérieurement une quatrième, primordiale : un robot ne peut porter atteinte à l’humanité ni, restant passif, laisser l’humanité exposée au danger.

Cependant, ces principes de bon sens ne vont pas suffire. Imaginez. Une voiture autonome a calculé que, vu les circonstances, un accident était physiquement inévitable. Deux options s’offrent au véhicule, qui doit décider dans l’instant. Soit écraser la mamie qui traverse, soit renverser le gamin qui joue sur le trottoir. Quelle règle devrait s’appliquer ? Vous avez quatre heures.

Curieusement, l’IA n’a jusqu’ici pas eu les honneurs du bac de philosophie. Un signe que le sujet ne travaille pas encore franchement dans tous les esprits, loin de là. Et vous, avez-vous commencé à stocker du papier toilette ?


Et si l'intelligence artificielle
devenait votre assistant personnel ?

Qu'elle vous débarassait des tâches ingrates et pénibles ?

  • Marketing,  communication
  • Courriers, contrats, SAV
  • Développement, prospection
  • Réseaux sociaux, blogs, newsletter
humanoide

Vous avez aimé cet article? Partagez-le:

Envie de recevoir les recettes régime

présentées sur cette page ?

Abonnez-vous à notre newsletter

quotidienne

Retour en haut