Susan Anderson e o seu marido Michael Anderson são respectivamente professora de filosofia e cientista de computadores. Fazem trabalho colaborativo num campo de investigação designado por ética das máquinas. Usando as suas perspectivas diferentes os Anderson programaram um robot para se comportar eticamente:
Já há máquinas que fazem coisas com peso ético, tais como as caixas multibanco, carros que se conduzem a si mesmos e robots cuidadores de pessoas da terceira idade. Desejamos ou não que se comportem de forma ética?
O campo da ética das máquinas combina técnicas de inteligência artificial com a teoria da ética, um ramo da filosofia, para determinar como programar máquinas para se comportarem de forma ética. No entanto não há um entendimento comum sobre que princípios éticos devem ser programados nas máquinas.
Em 1930 William David Ross introduziu na ética um novo conceito o dever de prima facie, no qual uma pessoa deve pesar váias obrigações quando se decide a agir de forma moral - obrigações tais como ser justo, fazer o bem, não causar dano, manter as promessas e mostrar gratidão.
Esta maneira de encarar a acção ética nunca foi suficientemente desenvolvida para permitir instruir uma pessoa sobre como avaliar estas diferentes obrigações com um princípio de decisão satizfatório: um princípio que lhes permitisse comportar perante deveres de prima facie que levassem a decisões opostas.
Usando dilemas éticos específicos fornecidos por eticistas, os computadores podem "aprender" princípios éticos num processo designado de aprendizagem de máquina. O robot usado na sua investigação pelos Anderson foi programado com um princípio ético.
O robot, do tamanho de uma criança, chamado Nao, foi programado usando um princípio ético descoberto por um computador. Este princípio permite-lhe lembrar as pessoas de quando tomar os seus remédios e quanto alertar uma pessoa que supervisione essa tomada ou mesmo alertar um médico quando os pacientes não os tomem. Com o aumento da espectativa de vida esta investigação pode ter importância prática futura.
O robot tem que avaliar se deve lembrar a pessoa em causa, ou se deve avisar um cuidador.
Ver ainda: O computador é capaz de ter moral, e filosofia e robótica, robótica ética e militares
Sem comentários:
Enviar um comentário