Intelligence artificielle : Entre angoisse et fantasmes !
Janvier 2018 ! Cela fait un an que les médias s’emparent de cette nouvelle marotte qui les fait frissonner : l’intelligence artificielle ! Bénédiction pour les uns, malédiction pour les autres, chacun y va de ses fantasmes et de ses angoisses.
Recette
- Prenez un gros boudin informe et fourrez dedans une somme de mots étranges : algorithmes, big data, 2.0, 3.0, voire 4.0, big brother, rgpd, bases de données, GAFAMI, etc.
- Agitez le tout dans un bon shaker médiatique.
- Servez chaud avec des glaçons bien angoissants.
Effet garanti : Haldous Huxley, Georges Orwell, Isaac Asimov, tous ces précurseurs et visionnaires de notre monde actuel, ressortent des placards comme la Fée Carabosse !
La peur n’exclue pas le danger
Et de fait il y a de quoi avoir peur. Trois exemples, mais il y en a des dizaines comme ça :
- Toute personne connectée dans 2 bases de données différentes (base de données médicale, liste électorale, [Etude Sweeney (USA, 2002)], peut être retrouvée nominalement dans 80% des cas. Et avec 3 bases de données c’est 100 %. Nominalement ! Nom, prénom, adresse, e-mail etc.
- Aucun système informatique n’est à l’abri d’un piratage, en raison des failles structurelles qui existent dans les systèmes d’exploitation (Microsoft et consorts).
- Notre smartphone est le plus zélé des mouchards, puisqu’on peut par simple triangulation connaître tous nos déplacements à la seconde près et savoir ce que nous avons effectué comme transactions.
Ce simple constat de la possibilité qu’il y a de connaître nos données (les data) montre qu’on peut tout savoir de nous. Si on rajoute à cela une « intelligence artificielle » qui va être en mesure d’analyser ces data et d’en tirer des conclusions, il est évident que nous sommes en tant qu’individu des cibles de choix.
Dans quel but ? Très simple : a minima nous vendre des produits ou des services, au pire nous menacer voire nous faire chanter, et entre les deux nous inciter à marcher dans les clous. Et de fait, à terme, c’est tout à fait possible : un assureur pourra, au vu de vos data, vous enfermer dans un contrat avec des clauses d’exclusions personnalisées qui ne vous permettront pas de toucher les indemnités auxquelles vous pensez avoir droit lors de la signature. Mais on peut tout aussi bien imaginer que le même assureur refusera de payer les soins dont vous avez besoin ; et il pourra refuser de vous indemniser parce que vous avez bu comme un trou, mangé comme un cochon ou fumé comme… Bref, dans cette histoire, ce qui nous fait peur, ce n’est pas tant notre comportement excessif, ou cet assureur cupide, c’est cette foutue IA, cette sorte de ludion pervers, qui envahit notre vie et cafte tout de notre vie. A notre insu. Et contre nous.
Nos pires ennemis
Notre pire ennemi, ce ne sont pas les programmes informatiques d’IA, ce sont tous ces informateurs zélés, intarissables, éternels, que sont les capteurs, depuis les caméras de vidéo surveilllance jusqu’aux trackers d’activité en passant par notre carte de crédit. Il existe des millions de capteurs, et bientôt des milliards, il y en aura plus sur la surface de la terre que le nombre d’humains. Et ils sont dotés maintenant de deux atouts extraordinaires :
- D’une part un volume d’information qu’ils délivrent en temps réel et qui est très léger, ce qui leur garantit donc une longévité considérable.
- Et pour les maintenir en vie, une simple pile au mercure, qui suffit pour les rendre actifs durant des décennies. Des mouchards, tout simplement !
Alors ils sont plus ou moins sophistiqués, leurs data sont plus ou moins exploitables. Mais le recoupement que l’IA peut effectuer par simples calculs est en mesure de faire, permet de tracer, sans équivoque, toute activité humaine. Connectée ou non.
Voilà ! On s’est bien fait peur, passons aux faits.
Vous avez dit algo ?
- Un algorithme, c’est une simple fonction qui dit : « Si… et si… et si…alors ». Exemple : Si je tombe à l’eau, et si je ne sais pas nager, alors je risque de me noyer ». Depuis notre prime enfance, nous utilisons ce type de principe qui nous permet de nous poser des questions afin d’obtenir une décision.
- Et puis nous avons le retour d’expérience : J’ai fait ceci… or je savais que… il s’est passé ça… et j’en conclue que… ». Rappelez vous sur la plage : « Je suis allé dans l’eau, or comme je ne savais pas nager, je risquais de me noyer, et donc je n’y pas allé, et alors… je suis toujours vivant ». Ce retour d’expérience positif, nous l’avons tous vécu depuis notre tendre enfance. C’est une intelligence primitive que développent tous les êtres vivants. Ils utilisent donc une pensée algorithmique !
- Pour simplifier, un algorithme est une fonction logique. Elle peut être plus ou moins complexe, mais cela reste une fonction. Et cette fonction, non seulement n’a pas conscience d’elle même, mais en plus elle ne comprend rien à ce qu’elle fait. Comme le dit Yann Lecam, « l’IA est beaucoup moins pertinente que celle d’un rat ! ». Et pour que tout cela fonctionne, nous avons besoin de tout le contenu de notre gros boudin de départ (big data, 2.0, etc.).
L’IA faible
So what ! Tout cela, c’est de l’IA faible, c’est à dire un simple système logique, assisté par des mouchards efficients, en mesure de mémoriser le moindre de nos faits et gestes, de trouver des concordances et des corrélations, mais incapable de comprendre ce qu’il fait, et pourquoi il le fait ! Celui qui le sait, c’est le « commanditaire », celui qui a demandé à la machine de réfléchir : les pouvoirs publics, l’assureur, le professionnel effecteur soumis au secret professionnel (médecin, avocat, notaire, etc.), et… l’individu. Car nous en avons désormais besoin : quand je demande à Waze de m’indiquer le meilleur chemin, je lui fais confiance, car j’attends de lui un service qui est de m’éviter les embouteillages. Mais pour cela, il faut que je laisse mon smartphone allumé. Imaginez que tous les utilisateurs de portables les éteignent en même temps : Waze n’aurait plus aucune donnée, et nous plus aucune information.
Nous ne bénéficions donc de services que parce que nous acceptons de livrer gratuitement des parts de nous-même (géolocalisation, transfert de données, horaires…). Il y a donc un échange entre ce que nous livrons de nous-même et les services que nous en attendons. Le marché est réglo a priori, et c’est bien l’IA qui nous en fait bénéficier.
Faut-il, devant les effets pervers de cette dérive potentielle (big brother, spam, publicités push, etc.) incriminer les capteurs qui nous espionnent, l’IA qui analyse des données, le commanditaire qui nous manipule, ou nous-mêmes qui voulons bénéficier de services sans rien fournir en retour ? Il me semble qu’avant de crier au loup, il serait plus raisonnable de bien considérer l’ensemble de l’écosystème où nous a plongé la « numérisation de nos vies », et de ne pas nous exonérer de notre part de responsabilité. Et puis se pose la question aux quelles le rgpd tente de répondre : nos données médicales sont certes des données à protéger, nous en sommes dépositaires, en sommes nous les propriétaires ?
L’IA forte
Qu’on se rassure, il n’existe nulle part dans le monde d’IA forte. Une IA forte, comme celle des êtres humains, n’existe que si elle est consciente d’elle-même, et que si elle comprend ce qu’elle accomplit.
Comprendre ce qu’elle accomplit
- En tant qu’être humain, pour que je comprenne la portée de mes actes, je dois pouvoir en mesurer toutes les implications. Exemple : j’ai 7 ans et je casse un verre, OR ce verre ma mère y tenait beaucoup, ET elle m’a dit un jour je m’en souviens, que la perte de ce verre serait dramatique pour elle, OR je ne veux pas faire de peine à ma mère, DONC, je mets le verre à la poubelle sans lui dire, et j’IMAGINE des subterfuges pour qu’elle ne voit pas que j’ai cassé le verre. On est bien dans une pensée algorithmique (Si… et …or … alors) basique. C’est ce qu’on appelle les « connecteurs logiques ».
- Mais les attendus de ce raisonnement sont bien plus impliquant : mon attitude finale va, de façon récursive, dépendre de diverses notions qui sont, elles, porteuses d’un sens émotionnel et moral important. Seule une IA forte peut prendre tout cela en considération. Actuellement, aucune IA ne sait faire cela.
- Alors effectivement, on pourrait tout à fait imaginer que toute la vie de cette personne soit connue par la machine, au plan des faits, au plan des émotions, au plan des implications logiques et au plan des implications émotionnelles. Admettons que ce soit le cas : la machine saurait tout de nous, grâce aux capteurs, aux retours d’information, aux raisonnements inductifs qu’elle est en mesure de faire grâce à la récursivité des algorithmes, admettons ! Il lui manquera toujours le SENS. La raison de son action, l’objectif qu’elle cherche, la motivation qui la guide, les revanches qu’elle veut prendre sur son propre passé…Car pour être un interlocuteur, la machine doit pouvoir communiquer avec nous dans la plus stricte, profonde et totale intimité. Et livrer de façon compréhensible ses propres affects.
Consciente d’elle même
- C’est le SENS qui manquera toujours à la machine car elle n’est pas MOI, elle n’est qu’une représentation de MOI. Or, comme elle n’est pas consciente d’elle-même, elle ne peut entretenir avec MOI que des rapports du domaine des faits, des dates, des comportements et des lieux. Pour le reste, et même si elle peut anticiper de façon mécanique mes goûts, mes habitudes ou mes déplacements, cela n’a pour elle aucun sens, car dénuée d’affect et de compréhension de ce qui se passe dans mon propre cerveau.
- Comment pourrait-elle parler avec nous d’égal à égal, selon un comportement à la fois individuel, anthropomorphique, et avec son libre arbitre ?
La Science fiction
- Bon, poussons d’un cran : des chercheurs de l’Institut National des normes et de la Technologie américain (NIST) ont fabriqué des synapses (des connexions entre neurones) qui sont des milliards de fois plus rapides que nos propres synapses biologiques. Cette rapidité lui confèrera des capacités de prise de décision phénoménales. Et de fait, on peut penser que la connaissance est une forme d’intelligence. Grâce à ces synapses organisées en réseaux de neurones, la machine me connaîtra, elle SAURA TOUT de moi, et elle a pourra même DEDUIRE des comportements qui me caractérisent : « Quand je me gratte le nez, ça veut dire que je mens, ET comme la machine sait que je mens, ALORS, elle va IMAGINER ma réaction ». Bravo ! Algorithme parfait.
- Mais sait-elle POURQUOI j’ai fait tout cela ?
- Pour qu’elle le sache, il faudrait qu’elle ait avec moi des rapports qui lui permette de m’interroger sur mes motivations, et que donc elle me COMPRENNE !
- Et de fait, la machine me comprend au plan stratégique : Quand Deep Mind a battu le meilleur joueur de Go il a compris sa stratégie et c’est pour cela qu’il l’a battu. Mais quelle conscience la machine a t-elle de l’avoir battu ? Qu’est ce qua ça lui suscite réellement ?
La question du SENS
C’est tout ce qui fait la différence entre l’IA faible et l’IA forte.
La peur que suscite en nous l’Intelligence Artificielle tient dans sa formulation : d’abord l’IA n’est pas « intelligente », et le fait qu’elle soit « artificielle » lui donne une connotation frelatée, pleine d’artifices. Peut-être que notre méprise vient de là. Ce sont d’autres mots qu’il faudrait trouver pour nommer l’IA : Accompagnement cognitif ? Calcul mémoriel ? Ou autre chose ?
En fait, nous avons admis, par allégeance à la science et à ce que nous considérions être le « génie humain », que notre pensée était enfermable dans la seule matérialité de nos fonctions humaines, et cérébrales en particulier. L’erreur est d’y avoir cru et de penser que la copie de notre fonctionnement cérébral dotera la machine d’une conscience et d’une compréhension. C’est cela qui doit nous amener à faire confiance à l’IA et à nous défier de nous-mêmes. Je m’explique de ce paradoxe.
Les raisons de la peur
Celui qui nous fait peur à notre échelle individuelle, c’est ce que nous ne maitrisons pas. Dans l’ordre :
- Les capteurs d’information qui nous surveillent
- L’IA faible qui en analyse les données fournies par les capteurs
- L’Etat et ses donneurs d’ordre qui régulent et administrent ces données
- Les payeurs grâce à qui le système fonctionne (les citoyens, l’Etat, les assureurs…)
- La finance qui brasse et régule la monétique du système
- D’autres entités floues (mafias, politiques, financements occultes…)
- L’IA forte qui serait en mesure de manipuler toutes ces informations ci-dessus
- Et finalement, nous-mêmes… par ignorance, individualisme, communautarisme, engagement politique ou religieux, etc.
Finalement…
Nous préférons TOUS trouver dans ce nouveau bouc émissaire qu’est l’intelligence artificielle la cause de tous nos maux sociaux, un peu comme si nous rendions notre propre génie humain, responsable des maux qui nous affligent. Sic vita est !
Finalement, l’embrouille avec ce monde intelligent que nous avons créé ne vient-elle pas de cette incompréhension que nos avons de nous-mêmes, de notre finitude, et de notre destin dans l’univers ?
Le jour où la machine saura répondre à cette question, alors effectivement nous aurons du souci à nous faire !
Tags: 3.0, Asimov, big data, Huuxley, IA faible, IA forte, intelligence artificielle, médecine 3.0, Orwell, smart data
Un article très intéressant, bravo !
Cher confrère
Fort bien fait, votre papier.
Le hasard (?) a voulu que j’aborde la question sur mon site sous un autre angle.
http://www.exmed.org/archives17/circu1042.html
Bien cordialement
FMM
Merci.
J’ai lu votre post et on ne peut qu’être d’accord avec Guillemant : la conscience n’est évidemment pas limitée à l’espace de notre cerveau. Trop d’interactions sont en jeu avec des phénomènes dont nous ne comprenons pas encore la nature.