Nous sommes, nous aussi, persuadés qu'il s'agit d'un sujet sur lequel les acteurs des sciences humaines, de la littérature, des arts vont avoir leur mot à dire et leur rôle à jouer, en lien avec les scientifiques.
Rémi Quirion a évoqué, précédemment, le développement du sujet au Québec et a cité Yoshua Bengio comme figure tutélaire du domaine. Il m'expliquait hier, en privé, que Yoshua Bengio représentait, pour les sciences au Québec, un peu Céline Dion dans la chanson, c'est-à-dire une figure omniprésente, respectée, reconnue, très populaire. Cela a joué un rôle important dans l'acceptation sociale et la confiance des uns et des autres dans le développement et l'attractivité du sujet au Québec. Il va falloir, dans une stratégie de communication, penser aussi à ce débat de type softpower au service du bien public.
Concernant la question de la confiscation de l'intelligence par l'intelligence artificielle, il apparaît que les rôles ont, historiquement, été renversés. Dans les années 1950, quand l'informatique s'est développée, les scientifiques ont pensé pouvoir réussir à traduire l'intelligence humaine en un algorithme. C'est d'ailleurs de là qu'est venu le terme « intelligence artificielle », avec McCarthy et Minsky. Il s'agissait d'une sorte de vision avec un prisme d'informaticien et l'idée de créer de nouveaux outils pour avancer dans le débat visant à comprendre ce qu'était la cognition. Aujourd'hui, les sciences cognitives ont largement dépassé ce sujet. Certains, comme notre collègue Olivier Houdé, affirment même que l'intelligence commence quand on va contre ses réflexes, que l'on inhibe ses automatismes. Mais dans l'imaginaire collectif, l'idée que l'intelligence est un algorithme et la comparaison populaire entre un cerveau et un ordinateur sont bien ancrées, alors même que les sciences cognitives nous disent que le cerveau ne ressemble absolument pas à un ordinateur. Nous avons donc ici besoin de dépasser cette conception et de traduire cela en récits, en romans, en films, etc.
Sur la question du handicap et des variants, il m'est arrivé, dans le cadre de mes activités associatives, d'être très régulièrement en contact avec le handicap (polyhandicap ou autisme) : il existe effectivement des cas d'autisme dans lesquels le mot « handicap » semble vraiment inadapté. Mais souvent, tirer parti de cela procède d'un intérêt soit pour l'individu, soit pour la société.
Je vous recommande un très bel ouvrage sur la lecture et l'écriture de l'universitaire américaine Maryanne Wolf, intitulé Proust et le calamar : une section entière y est consacrée à la dyslexie, et je dois avouer que la lecture de ce chapitre parvient presque à faire regretter de ne pas être dyslexique tellement elle montre que cela est associé à des capacités d'originalité et correspond à un « câblage » neuronal différent. Il convient donc de manier le terme de « handicap » avec précaution.
Je pense également à un livre récent, qui a eu beaucoup de succès, et au film qui s'en est inspiré : il s'agit de Millenium, de Stieg Larsson, dont l'héroïne est une jeune femme surdouée, ayant clairement une pathologie de type Asperger.
Pour répondre à Max Dauchet, il faut savoir que l'algorithme de Gale et Shapley, utilisé historiquement dans APB, a été mis au point aux États-Unis voici quelques décennies selon la logique suivante : sachant les contraintes que l'on souhaitait pour réaliser les affectations dans les universités, quel serait le bon algorithme ? Ensuite, il faut effectivement prendre garde de ne pas plier les conditions à l'algorithme et d'adapter l'algorithme aux besoins de l'humain. Il faut tout de même garder en tête ce qui est possible et ce qui ne l'est pas. Notre Office a pour but de pouvoir instruire les dossiers en indiquant très clairement les principes de réalité. Si nous effectuions, par exemple, le bilan de toutes les contraintes s'exerçant sur le système et que nous découvrions qu'il existe un algorithme formidable permettant de toutes les résoudre, mais nécessitant un an pour être mis en oeuvre, alors, nous le mettrions de côté. Il s'établit donc nécessairement un aller-retour entre la faisabilité et les spécifications. Dans le cas d'APB, l'audition que nous avons organisée a montré aussi qu'au-delà du choix algorithmique, la gouvernance humaine de l'algorithme avait été très mal gérée. C'était d'ailleurs le sens principal d'une tribune que j'ai publiée avant-hier sur le sujet. Il faut avoir en tête que le politique doit garder la responsabilité, faire en sorte de savoir précisément qui décide quoi et surtout ne pas défausser sa responsabilité sur l'algorithme. C'est là, à coup sûr, la bonne interprétation de ce qui a été inscrit dans la loi « Informatique et libertés » il y a quelques décennies déjà, sur le fait que l'on ne peut pas donner un résultat sur la seule base d'un algorithme : l'idée principale est qu'il faut qu'à chaque fois un humain puisse endosser la responsabilité. Si un algorithme est utilisé, cette personne doit être en mesure d'indiquer les raisons et les modalités du choix effectué. Dans tous les cas, la responsabilité doit rester à l'humain. J'ai eu l'occasion d'avoir de longues discussions avec l'équipe qui, au ministère de l'enseignement supérieur, se charge de la mise en place du nouveau Parcours Sup : je puis vous dire qu'elle est très attentive à tous ces aspects et ne s'est absolument pas placée dans une démarche la conduisant à être prisonnière de l'algorithme existant.
Je conclurai en disant que c'est là le sens de toute cette discussion sur l'intelligence artificielle : définir quels sont les bonnes pratiques, les bons services, les bonnes prises d'indépendance pour que l'intelligence artificielle soit au service de notre société, collectivement, et que l'on n'en devienne pas les esclaves, non pas au sens où cela viendrait imposer sa loi mais au sens où l'on prendrait des décisions dictées par la technologie.