TEMES

A qui ha d’intentar esquivar primer un vehicle autònom?

Un experiment intenta esbrinar les prioritats morals de les persones al volant d'un vehicle i davant d'un imprevist

Suposem que anem conduint i ens surt una persona que creua incorrectament. I que, si l’esquivem, atropellarem una altra persona que camina pel lloc correcte. Què farem?

És una situació, com tantes altres, que es pot presentar a qualsevol conductor. La manera com es resolgui dependrà de l’experiència, els reflexos, la destresa i la serenitat del conductor i, també, de l’atzar i del que facin altres conductors o vianants.

El que probablement no passarà, tant per manca de temps com perquè no se solen fer valoracions d’aquest tipus quan s’està al volant, serà pensar si esquivem una persona o l’altra en funció que siguin home o dona, gran o jove, fornit o grassonet... Un conductor intentarà salvar la situació fent el mínim de mal a ell mateix, als seus possibles passatgers i a tercers.

Es veu que un cotxe autònom no funciona així. Els vehicles sense conductors tenen nombrosos sensors i un sistema informàtic que els diu què han de fer. Hi ha coses tan senzilles com que, si el semàfor està en vermell, s’han d’aturar en el lloc indicat. O que si un senyal prohibeix girar a la dreta, no es pot fer aquesta maniobra.

Però el cotxe es trobarà amb moltes altres situacions. També en alguns casos hi ha decisions senzilles: si el terra està mullat, és millor moderar la velocitat. I si la visibilitat és menor per culpa de la boira, cal extremar les precaucions.

Però, què passa si es troba amb la situació que hem citat al principi? O si ha de triar entre atropellar un ciclista o xocar contra un vehicle que ve de front? O entre esquivar una dona embarassada o una persona gran?

No hi ha respostes clares ni unes que siguin èticament més acceptables que altres. Però el sistema informàtic del vehicle sense conductor ha de tenir uns paràmetres per decidir.

Un equip d’investigadors dels Estats Units, el Canadà i França han intentat fer una aportació al debat. L’ha encapçalat Iyad Rahwan, del MIT Media Lab, i s’ha publicat a Nature.

Cal un avís previ: els autors no estan dient que volen trobar un barem perquè el cotxe autònom decideixi a qui ha d’esquivar i a qui no. Simplement volen veure quines prioritats morals expressa majoritàriament la gent. Consideren que si els cotxes es programen de manera que davant d’un dilema moral actuïn de forma diferent de com la societat troba acceptable, hi haurà menys gent disposada a comprar aquests vehicles o a tolerar que proliferin.

Per conèixer les opinions i observar si hi ha diferències per grups socials o per territoris, calia una mostra molt gran i universal. Per això es van inventar un joc –un serious game, un joc que no té únicament objectius lúdics–. Van crear una plataforma que van anomenar Màquina Moral. Van plantejar una sèrie de situacions i van rebre la visita de més de dos milions de participants de 233 països i territoris.

Les preguntes eren de l’estil que comentàvem al principi. En la tessitura de canviar de carril per no atropellar algú o de no fer res per no crear un altre possible problema, què caldria fer? Les qüestions anaven destinades a fer que la gent expliqués si té prioritat per animals o persones, per grups o per individus sols, per homes o per dones, per joves o per grans... Els que volien també aportaven dades sobre edat, gènere, ingressos, nivell educatiu, idees religioses o polítiques... Vora mig milió de persones ho van fer. I tothom es geolocalitzava per classificar les respostes per zones del planeta.

Els resultats indiquen que hi ha unes decisions que es prendrien de forma pràcticament universal, per qualsevol persona de qualsevol grup social i territori. Són aquestes: salvar abans una persona que un animal, intentar salvar el màxim nombre de persones i, finalment, prioritzar salvar els joves davant dels grans. Algunes diferències culturals no alteren el resultat, si bé rebaixen algunes preferències. Així, en la zona que han anomenat Est (països de l’est i el sud asiàtics) la preferència per salvar els joves no és tan clara com a la resta.

En altres casos, sí que hi ha diferències. Així, als països on hi ha més confiança en les lleis i les institucions la prioritat és salvar els qui segueixen les normes. Però en països que no tenen tanta confiança en els governants hi ha més tolerància amb els qui se salten alguna norma.

També hi ha resultats lleugerament sorprenents o si més no curiosos.  A l’hora de salvar algú, els gats ocupen l’últim lloc, darrere dels gossos. Però entre tots dos encara s’hi situen els delinqüents.

Les situacions que planteja el joc no són realistes, com reconeixen els autors. Es considera que l’obstacle s’identifica amb un cent per cent de certesa i que també se sap amb tota seguretat quina maniobra acabarà amb la mort d’algú.

Però tampoc no es tracta de reproduir la realitat i saber què pensa la gent per programar de la mateixa manera els vehicles autònoms. Es tracta d’extreure conclusions, com ara que la Màquina Moral no permet acordar els principis d’una inexistent ètica universal –cosa, d’altra banda, polèmica però sabuda.

I a banda d’això, es tracta també de posar sobre la taula un debat important. En una societat en què les màquines decideixen cada vegada més coses, cal marcar quines tendències s’introdueixen en els algoritmes que els permeten decidir. O potser concloure que en molts casos, deixar que la màquina decideixi és massa arriscat.

Contacta amb Divulcat