Logotipo do Site Inovação Tecnológica





Robótica

Quer robôs responsáveis? Comece com humanos responsáveis

Pam Frost Gorder - 18/08/2009

Quer robôs responsáveis? Comece com humanos responsáveis
Robô coreana Eve R2, uma robô cantora.

Interação entre humanos e robôs

As preocupações com a interação entre humanos e robôs estão tomando corpo e chamando a atenção de pesquisadores e autoridades de várias partes do mundo. As demonstrações mais recentes do que a tecnologia já é capaz de fazer não deixa dúvidas que os humanos logo terão que aprender a conviver com os robôs.

Mas, segundo alguns pesquisadores, talvez seja necessário antes garantir que os robôs terão condições de conviver com os humanos sem causar-lhes ameaças ou danos.

"Nossa visão cultural dos robôs tem sido sempre anti-pessoas e pró-robôs," afirma David Woods, da Universidade de Ohio, nos Estados Unidos. "A filosofia tem sido: 'certo, as pessoas cometem erros, mas os robôs farão melhor, eles serão uma versão perfeita de nós mesmos'."

Três Leis de Asimov

Essa visão romântica provavelmente tem suas origens nas três leis que o escritor Isaac Asimov estabeleceu para a robótica, nos anos 1940:

  • 1ª Lei: um robô não pode fazer mal a um ser humano e nem, por omissão, permitir que algum mal lhe aconteça.
  • 2ª Lei: um robô deve obedecer às ordens dos seres humanos, exceto quando estas contrariarem a Primeira Lei.
  • 3ª Lei: um robô deve proteger a sua integridade física, desde que, com isto, não contrarie a Primeira e a Segunda leis.

Leis mais realistas

Mas Woods acredita que é necessário pensar de forma mais realística, com os pés no chão. "Para que essas leis tenham sentido, os robôs devem possuir um grau de inteligência social e de inteligência moral. Quando vislumbramos nosso futuro com os robôs, nós focamos em nossas esperanças e em nossos desejos e aspirações sobre os robôs - nós não focamos na realidade," diz ele.

E, como dose extra de realismo, Woods e seu colega Robin Murphy propõem novas regras para os robôs. Na verdade, três novas leis da robótica, menos voltadas ao ideal de um robô que entende o suficiente para saber o que deve e o que não deve fazer, como nas leis de Asimov, e mais "focadas na realidade," como dizem os pesquisadores - a realidade de quem constrói os robôs e deve muni-los de "qualidades" e "responsabilidades" adequadas para não colocar em risco os humanos que conviverão com os robôs.

Quer robôs responsáveis? Comece com humanos responsáveis

[Imagem: Jean Charles Druais]

Leis da robótica para os roboticistas

Estas são as três novas leis dos fabricantes de robôs, propostas pelos dois pesquisadores:

  • Um humano não poderá construir um robô sem que o sistema de interação humano-robô atenda aos mais altos padrões legais e profissionais de segurança e ética;
  • os robôs deverão obedecer os humanos da forma apropriada à sua função;
  • os robôs deverão ser dotados com autonomia suficiente para proteger sua própria existência, desde que essa proteção garanta uma transferência imediata do controle do robô para um humano que não conflite com a Primeira e a Segunda leis.

A primeira lei visa claramente os humanos que constroem os robôs, enquanto a segunda assume que os robôs terão uma capacidade limitada para entender as ordens humanas, de forma que não apenas as ordens que eles serão capazes de obedecer deverão ser limitadas, como os humanos a quem eles atendem deverão ser bem definidos.

Woods explica a terceira lei: "Os robôs existirão em um mundo aberto onde você não pode prever tudo o que vai acontecer. O robô precisa ter autonomia suficiente para agir e reagir a situações reais. Ele precisa tomar decisões para proteger a se mesmo, mas ele também precisa transferir o controle para os humanos quando necessário. Você não quer que um robô salte de um precipício, por exemplo - a menos que um humano precise que o robô salte do precipício. Quando isso acontecer, você precisa que o robô passe o controle de forma tranquila e suave para o humano apropriado."

Segurança dos robôs

Quer robôs responsáveis? Comece com humanos responsáveis

[Imagem: NASA]

O fato é que os robôs têm chamado a atenção, mas eles estão longe de terem qualquer tipo de autonomia. Ensinar-lhes ética, ou pelo menos dar-lhes um primórdio de código moral e de responsabilidade, exigirá antes a superação de uma barreira importante: entender como o cérebro humano aprende essas noções. Só então será possível ensiná-las aos robôs.

O Japão, por exemplo, o país com a dianteira folgada nas pesquisas com robôs, até agora decidiu adotar tão-somente a primeira lei de Asimov, uma vez que não é realístico ainda focar nas demais.

O projeto europeu Phriends preocupa-se já há algum tempo em garantir que não ocorram incidentes entre robôs e humanos mesmo quando acontecerem falhas de programação, mau funcionamento dos sensores ou queima de componentes eletrônicos - veja Robôs vão obedecer às Leis de Asimov na vida real.

Nova forma de convivência

Três novas leis parecem ter um atrativo, pela similaridade com as três leis famosas de Asimov. Mas, quando os robôs estiverem de fato chegando à convivência com humanos, dificilmente qualquer conjunto de três leis será o suficiente para lidar com a nova forma de convivência.

Dois outros pesquisadores norte-americanos parecem concordar com isto. Tanto que já criaram uma lista mais extensa, contendo seis estratégias para evitar que os robôs transformem-se de ajudantes em riscos ambulantes para os próprios seres humanos - veja Robôs éticos e morais - seis estratégias a seguir.

Seguir Site Inovação Tecnológica no Google Notícias





Outras notícias sobre:
  • Robôs Assistentes
  • Robôs
  • Inteligência Artificial
  • Músculos Artificiais

Mais tópicos