L’intelligence artificielle a-t-elle une morale ?
Sur la route, si vous n’aviez pas le choix, préféreriez-vous épargner un homme ou une femme ? Un sportif ou un obèse ? Un sans-abri ou un cadre supérieur ? Deux jeunes filles ou deux mamies ? Accepteriez-vous de vous sacrifier avec vos passagers, pour éviter d’écraser des enfants ?…
Les voitures sans conducteur rouleront bientôt dans nos villes. Aux États-Unis des voitures sans conducteurs roulent depuis avril 2018. En France les tests ont commencé. Pour la première fois dans l’histoire de l’Humanité, une machine décidera seule qui sauver, sans que l’humain ait le temps de vérifier sa décision.
Bien sûr, l’algorithme choisira en fonction des critères moraux que nous lui aurons inculqués. Mais sommes-nous sûrs de notre propre éthique ?
Comme le raconte l’auteur, Jean-François Bonnefon, http://moralmachine.mit.edu/hl/fr , il n’existe pas de morale universelle. La valeur sociale accordée à telle ou telle vie diffère en fonction du sexe, de l’âge, de la condition sociale, de l’état de santé, du pays où l’on se trouve. Les algorithmes auront-ils alors une éthique différente selon les cultures ?
La voiture qui en savait trop de Jean-François Bonnefon (éditions @humenSciences, la première maison d’édition française consacrée à la pop science. Des livres pour découvrir et comprendre.