Le dilemme du train:
"Un train sans conducteur fonce le long d'une voie sur laquelle trois personnes sont attachées. Vous pouvez les sauver en actionnant un aiguillage qui le fera changer de direction, vers une autre voie sur laquelle une seule personne est attachée. Le faites-vous?"
(Ce dilemme est aussi une parfaite métaphore de l'élection en cours)
J'ai souvent constaté quand on posait cette question aux gens que le premier réflexe était de chercher une échappatoire. :)
En l'occurrence: "on peut pas couper le courant, plutôt?", ou "j'essaie de foncer les détacher". J'ai l'impression que l'esprit a du mal avec les prises de position morales fortes.
Si vous jouez le jeu, sans essayer de tricher avec l'énoncé: vous avez une réponse?
Ce n'est pas une devinette, hein. Je vous donne la réponse majoritaire: la plupart des gens optent pour "le moindre mal" et changent le train de voie.
Après, le twist sur ce dilemme: imaginez maintenant qu'il n'y ait qu'une seule voie avec les trois personnes attachées. Le train peut être arrêté en cas de choc avec quelqu'un de suffisamment lourd. À côté de vous il y a un gros monsieur que vous pouvez faire tomber sur la voie. Le poussez-vous?
Dans les deux cas vous êtes acteur direct du dénouement: vous sacrifiez une vie de vos mains pour en sauver trois. Pourtant on perçoit clairement que les deux situations ne sont pas équivalentes alors qu'elles semblent avoir le même "poids moral".
La raison est bien sûr que la décision n'a pas le même poids émotionnel. Ce qui fait la différence, c'est la proximité.
C'est d'ailleurs ce qu'on essaie de quantifier quand on cherche des échappatoires et des solutions tangentes: qui sont ces gens? Est-ce que je sacrifie un enfant pour sauver trois nazis? Est-ce que je sauve un proche au prix de trois, dix, cent personnes?
Bref, nous ne sommes pas purement "utilitaristes".
C'est une question qui se pose concrètement en intelligence artificielle, notamment pour les voitures sans chauffeurs.
Dilemme 1: la voiture roule entourée de deux voitures. une avec une famille de cinq personnes, une avec une personne seule. Devant elle, un énorme chargement tombe d'un camion. Freiner ne suffira pas. Doit-elle: se déporter à gauche et mettre en danger la voiture avec la famille, à droite vers la voiture avec une seule personne, ou rester/freiner et sacrifier le conducteur?
Dilemme 2: au lieu de deux voitures, c'est un vélo et une voiture avec famille: la voiture a de meilleures chances de subir des dégâts moins important. Mais elle contient cinq personnes là ou le vélo n'en représente qu'une.
Dilemme 3: Deux vélos. L'un a un casque, l'autre non. Celui avec un casque a de meilleures chances, l'autre ne respecte pas la loi. Et de plus, si on le protège, il devient de fait PLUS SÛR de rouler sans casque, puisque les voitures vont davantage vous épargner. Mindfuck
Et surtout, une question essentielle dans ce débat: en cas d'accident mortel, qui est responsable?
Considère-t-on l'I.A. comme une personne?
Si non, est-ce le programmeur de l'I.A.? Le fabricant de la voiture? Le conducteur?
Les intelligences artificielles vont VRAIMENT représenter des casse-tête dans pas longtemps du tout. :-)
@Bouletcorp bof non. On ne pense pas : "que faire si notre machine ne marche pas", mais "comment faire pour que notre machine marche"
Parce que si on se met à vouloir contrôler une perte de contrôle c'est qu'on en a trop pris.
@technolapin @Bouletcorp Ben, elle sera tôt au tard confronté à des sacrifices :x
@Technowix @Bouletcorp oui donc on fait pas les cons et on minimise les accident au lieu de délirer sur comment l'engin doit dérailler.
@technolapin ben relit ce qu'a dis @Bouletcorp , quel choix faire quand la vie d'une des deux cas est mis en jeu :p
@Technowix @Bouletcorp ben justement, tu n'es pas libre du choix.
Tu ne prévoit pas un accident.
@Bouletcorp @technolapin *facepalm* la voiture a largement le temps de calculer, de choisir, contrairement à un humain, par contre si elle va à 130km/h, elle ne peux pas contrôler la physique...
@Technowix @Bouletcorp ben justement, tu fait en sorte que ses capteurs détectent l'obstacle avant de passer le cap critique.
C'est bien plus faisable que d'espèrer que ton engin va faire ce qu'il faut dans un cas de disfonctionement.
@Bouletcorp @technolapin tu détecte comment une voiture qui se carambole devant toi ? Un pneu qui éclate ?
@Technowix @Bouletcorp le pneu qui éclate on sait gérer, l'ia le sait encore mieux.
La voiture qui se carambole devant-toi, l'ia le voit venir.
Et surtout, l'ia respecte les distances de sécurité.
@Bouletcorp @technolapin oué, ben même en respectant tout, pas dis que les autres le respectent. Notamment les humains.
@Bouletcorp @technolapin c'est vrais, on a plus aucunes victimes à cause de tremblement de terres/catastrophes naturelles x) merci les capteurs.
Y'a toujours le chaos, peu importe dans quoi un truc peut aller mal
@Bouletcorp @Technowix dès que tu peux imaginer un sénario, tu peut travailler à l'éviter.
@Bouletcorp @technolapin bien sûr, mais ne pas avoir de plan en cas de catastrophe est pire encore.
@Technowix @Bouletcorp la catastrophe n'arrive que si l'appareil a été mal utilisé.
Je ferait pas confiance à une voiture prévue pour prendre des décisions ultra complexes quand elle faillit à faire un truc aussi simple que de fonctionner.
@Bouletcorp @technolapin barf, si l'erreur existe pas j'me demande pourquoi on continue à chercher des ingénieurs x'D
@Technowix @Bouletcorp ben non c'est leur boulot de concevoir des systèmes qui ne sortent pas du bon fonctionnement.
@Bouletcorp @technolapin trouve moi la fiabilité 100%
@Technowix @Bouletcorp non, mais la fiabilité 99.996% existe
Et les quelques poussières qui restent sont le cas où ton engin n'agit pas comme prévu.
Donc tu lui demande pas d'agir comme prévu.
@Technowix @Bouletcorp là on parle d'une machine, pas d'un tremblement de terre.
Le chaos est maîtrisable.On a créé l'ingénieurerie pour ça.