CITAZIONE (edipo @ 26/4/2013, 16:38)
1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3)Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »
Isaac Asimov
se si applicassero anche al genere umano , la convivenza sarebbe certamente più facile
e anche la vita forumistica
La prima legge però potrebbe generare delle aporie, ad esempio
CITAZIONE
il problema del carrello ferroviario.
Stai camminando di mattina e vedi un carrello ferroviario che corre impazzito lungo la rotaia, perché il suo conducente è svenuto al comando. Sul percorso del carrello ci sono cinque uomini che lavorano alla rotaia, ignari del pericolo. Tu ti trovi a una biforcazione nella rotaia e hai la possibilità di tirare la leva che dirotterà il carrello su un binario laterale, salvando i cinque uomini. Sfortunatamente, il carrello in quel caso investirà il singolo operaio che sta lavorando in quel punto. È lecito azionare lo scambio, uccidendo un uomo per salvarne cinque? quasi tutti rispondono di sì.
Il robot per rispettare la prima legge cosa può fare in questa situazione? Se agisce azionando la leva reca danno a una persona (Un robot non può recar danno a un essere umano), e perciò non può, se non agisce senza intervenire invece reca danno a cinque persone (né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno)... Che dovrebbe fare il robot?
Esplode forse... Come in certi cartoon
. O magari deve andare dallo psicoanalista per risolvere il conflitto inconscio.
Se si aggiungesse alla legge qualche altra specificazione permetteremmo al robot di poter scegliere e non incepparsi. Pure le leggi etiche o morali bisognerebbe costruirle bene
, spesso non si riesce a capire tanto bene che conseguenze potrebbero esserci, conseguenze inaspettate.
Comunque questo esperimento è interessante per altri motivi, io contro-intuitivamente penso che sceglierei di azionere la leva o meno casualmente (si lancia una moneta mentalmente usando un parametro a piacere e si risolve il dilemma), io non sono a favore dell'utilitarismo in ambito morale. Se seguissi questa logica qua dovrei essere anche a favore dello sfruttamento fino allo sfinimento di una minoranza per permettere ad una maggioranza di sopravvivere, in ogni caso sarebbe ingiusto anche l'inverso, sfruttare una maggioranza per permettere ad una minoranza di sopravvivere.
Se il robot però non può agire casualmente... Che fa?
In ogni caso penso che è la situazione proprio che è irrimediabilmente ingiusta, in fin dei conti non dovrebbe morire proprio nessuno, questo dovrebbe essere lo scopo, ma non si può raggiungere agendo in un modo o nell'altro.
Io ho già condannato a monte il mondo stesso per com'è fatto, certo qua e là ci si può avvicinare ad un mondo migliore, ma questo qua reale e concreto resta irrimediabilmente corrotto. Credo che la morale vada proprio contro il mondo, spesso non c'è modo di rispettare certi precetti perché certe situazioni reali non permettono proprio di rispettarli.
Edited by Eddd - 25/5/2013, 11:04