Le 3 leggi della robotica

« Older   Newer »
  Share  
view post Posted on 26/4/2013, 15:38     +1   -1
Avatar

maniomio di Volterra

Group:
Administrator
Posts:
742
Reputation:
+6
Location:
Psico

Status:


1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3)Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

Isaac Asimov

se si applicassero anche al genere umano , la convivenza sarebbe certamente più facile
e anche la vita forumistica :)
 
Top
Eddd
view post Posted on 24/5/2013, 13:54     +1   -1




CITAZIONE (edipo @ 26/4/2013, 16:38) 
1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3)Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

Isaac Asimov

se si applicassero anche al genere umano , la convivenza sarebbe certamente più facile
e anche la vita forumistica :)

La prima legge però potrebbe generare delle aporie, ad esempio

CITAZIONE
il problema del carrello ferroviario.

Stai camminando di mattina e vedi un carrello ferroviario che corre impazzito lungo la rotaia, perché il suo conducente è svenuto al comando. Sul percorso del carrello ci sono cinque uomini che lavorano alla rotaia, ignari del pericolo. Tu ti trovi a una biforcazione nella rotaia e hai la possibilità di tirare la leva che dirotterà il carrello su un binario laterale, salvando i cinque uomini. Sfortunatamente, il carrello in quel caso investirà il singolo operaio che sta lavorando in quel punto. È lecito azionare lo scambio, uccidendo un uomo per salvarne cinque? quasi tutti rispondono di sì.

Il robot per rispettare la prima legge cosa può fare in questa situazione? Se agisce azionando la leva reca danno a una persona (Un robot non può recar danno a un essere umano), e perciò non può, se non agisce senza intervenire invece reca danno a cinque persone (né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno)... Che dovrebbe fare il robot?
Esplode forse... Come in certi cartoon :). O magari deve andare dallo psicoanalista per risolvere il conflitto inconscio.

Se si aggiungesse alla legge qualche altra specificazione permetteremmo al robot di poter scegliere e non incepparsi. Pure le leggi etiche o morali bisognerebbe costruirle bene ^_^, spesso non si riesce a capire tanto bene che conseguenze potrebbero esserci, conseguenze inaspettate.

Comunque questo esperimento è interessante per altri motivi, io contro-intuitivamente penso che sceglierei di azionere la leva o meno casualmente (si lancia una moneta mentalmente usando un parametro a piacere e si risolve il dilemma), io non sono a favore dell'utilitarismo in ambito morale. Se seguissi questa logica qua dovrei essere anche a favore dello sfruttamento fino allo sfinimento di una minoranza per permettere ad una maggioranza di sopravvivere, in ogni caso sarebbe ingiusto anche l'inverso, sfruttare una maggioranza per permettere ad una minoranza di sopravvivere.

Se il robot però non può agire casualmente... Che fa?

In ogni caso penso che è la situazione proprio che è irrimediabilmente ingiusta, in fin dei conti non dovrebbe morire proprio nessuno, questo dovrebbe essere lo scopo, ma non si può raggiungere agendo in un modo o nell'altro.

Io ho già condannato a monte il mondo stesso per com'è fatto, certo qua e là ci si può avvicinare ad un mondo migliore, ma questo qua reale e concreto resta irrimediabilmente corrotto. Credo che la morale vada proprio contro il mondo, spesso non c'è modo di rispettare certi precetti perché certe situazioni reali non permettono proprio di rispettarli.

Edited by Eddd - 25/5/2013, 11:04
 
Top
Psiche
view post Posted on 8/7/2013, 09:35     +1   -1




Certamente è condivisibilissima l'analisi che fa Eddd dell'esistenza e dell'ineluttabile sofferenza che investe tutti gli esseri, in primo luogo l'essere umano. Soprattutto per quanto riguarda la sofferenza morale e psicologica che la psicologia tenta di capire e di curare; ma, ahimè, si dovrebbe agire anche e innanzitutto per modificare le situazioni oggettive e le circostanze in cui vive il soggetto per tentare di sanare i motivi della sua sofferenza. Ha proprio ragione Eddd, peccato che non interviene più.
 
Top
Runa_senzanome
view post Posted on 17/8/2013, 22:26     +1   -1




CITAZIONE (edipo @ 26/4/2013, 16:38) 
1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3)Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

Isaac Asimov

se si applicassero anche al genere umano , la convivenza sarebbe certamente più facile
e anche la vita forumistica :)

Il genere umano, e' essenzialmente composto da bestie, dovremmo evolverci per sperare di raggiungere un androide :rolleyes:
 
Top
Psiche
view post Posted on 1/9/2013, 11:45     +1   -1




Sono d'accordo con te, Runa, finché l'essere umano rimane così miseramente umano, non c'è nulla da fare. Infatti per quanto nei secoli si è tentato, sia con le leggi, sia con l'inculturazione e l'educazione, a migliorare l'aspetto morale dell'uomo, non è che ci sia stata una vera evoluzione in tal senso; lo vediamo dalle cronache di tutti i giurni.
 
Top
Killjoy_
view post Posted on 7/8/2015, 21:37     +1   -1




CITAZIONE (edipo @ 26/4/2013, 16:38) 
1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.

2)Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3)Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. »

Isaac Asimov

se si applicassero anche al genere umano , la convivenza sarebbe certamente più facile
e anche la vita forumistica :)

Ipotesi alquanto interessante, ma impensabile come "nuovo scheletro" dell'uomo.

Gli uomini sbagliano, hanno una morale, credono in qualcosa, provano sentimenti e inevitabilmente una legge verrebbe violata, anche solo per "spirito di superiorità".
 
Top
view post Posted on 20/9/2022, 09:15     +1   -1

neolaureato

Group:
Member
Posts:
83
Reputation:
0

Status:


 
Top
6 replies since 26/4/2013, 15:38   93 views
  Share