Alone Together: Capítulo 2

Capítulo 2 – Alive enough

Seguindo as reflexões sobre o momento robótico, Turkle explora neste capítulo as suas observações sobre as interações de crianças com o novo robô sociável Furby. Em 1999 a pesquisadora distribuiu alguns destes brinquedos sociáveis para crianças de uma escola infantil em Massachusetets e estudou o que observou nas reações e formas de interação que se seguiram. No primeiro contato com os Furbies as crianças se indagavam se era um bicho, uma máquina, um monstro ou se respirava e se podiam brincar com eles, mas desde o início consideravam que era uma máquina viva o suficiente para merecer cuidado. Como o Tamagotchi, o Furby é um brinquedo que se apresentam como seres de outro planeta que precisam dos humanos para sobreviverem e aprenderem, o que faz com que sua personalidade seja construída a partir da forma como são tratados pelas crianças. Eles precisam ser alimentados, dormir e no caso do Furby ele precisa da ajuda das crianças para aprender inglês. Interagindo com os Furbies as crianças observadas por Turkle se familiarizaram com a ideia de que certas máquinas têm necessidades semelhantes aos seres vivos e precisam de cuidado. Algumas das crianças se consideravam em sintonia com seus robôs de brinquedo, considerando que eles sentem dores, ficam doentes e morrem, exemplificando a naturalização do que Turkle chama de uma sensibilidade biônica.

WHAT DOES A FURBY WANT?

No manual de instruções do Furby há indicação para que as crianças falem com seus brinquedos para que eles possam aprender a falar em inglês. Apesar de o Furby estar programado para gradativamente iniciar algumas falas em inglês, crianças até oito anos acreditam que seu brinquedo é vivo o suficiente para ter capacidade de aprender com elas e que elas são responsáveis pelo seu avanço. Turkle aponta que em três décadas de estudo sobre a relação das pessoas com os computadores ela usou a metáfora do teste de Rorschach, as imagens borradas que os psicólogos usam para que as pessoas possam projetar seus sentimentos e estilos de pensamento. No entanto, estudando as relações das crianças com estes robôs sociáveis como o Furby a autora destaca que elas estão além de uma psicologia de projeção para uma nova psicologia de engajamento. Diferentemente das bonecas e demais brinquedos, as crianças lidam com estes robôs sociáveis como lidam com animais de estimação ou pessoas. Para Turkle, estes robôs não evocam o faz de conta, não são as crianças que animam as ações pois eles já estão prontos para se relacionar, com suas próprias demandas, vontades e linguagem. Esta mutualidade é a grande diferença.

Por décadas os computadores nos convidaram a pensar com eles; atualmente os computadores e os robôs que se tornaram sociáveis, afetivos, relacionais, nos convidam a sentir para e com eles. Observando as reações e os relatos das crianças sobre suas relações com os Furbies estas diferenças ficam evidentes, como nos relatos das crianças. Uma de sete anos comenta: “Bonecas deixam você fazer o que você quiser. O Furbies tem suas próprias ideias”. Outra de nove anos aponta: “Você não brinca com o Furby, é como se você se encontrasse e passeasse com ele. Você tenta ter controle sobre ele, mas ele tem poder sobre você também”. Para a autora este novo tipo de relação prepara as crianças para a expectativa de relacionamento com as máquinas que é o coração do que chama o momento robótico. Ao acreditar na reciprocidade afetiva com os Furbies, as crianças desenvolvem uma relação de apego que é reforçada pela programação que dá a impressão de progresso no aprendizado fruto desta relação. Este apego torna os brinquedos insubstituíveis em certa maneira pois ao reiniciar ou trocar o Furby por um novo, as crianças o toma por estranho e não mais “o” Furby que aprendeu e evoluiu com ela.

OPERATING PROCEDURES

Nos anos 80 o computador de brinquedo Merlin parecia feliz e fazia barulhos quando estava ganhando ou perdendo o jogo com a criança. As crianças consideravam o Merlin “tipo algo vivo” pela sua capacidade de memória no jogo, mas não acreditavam plenamente em sua capacidade de sentir emoções. Quando o Merlin quebrava as crianças sentiam a perde de um joguinho. Quando um Furby não funciona, no entanto, as crianças consideram que uma criatura deve estar sofrendo. Diferentemente do que fazem com outros brinquedos que quebram, as crianças observadas por Turkle consideram que o Furby pode estar sentido dor, sofrendo, machucado, com alergia ou que foram mal cuidados, ao ponto de simularem uma operação de emergência para “salvar” um Furby que estaria morrendo. Ao descrever esta operação cirúrgica que as crianças fizeram para salvar um Furby, Turkle aponta como estes brinquedos são simultaneamente considerados em seus aspectos biológicos (como se fossem vivos) e mecânicos. As crianças o consideram um mecanismos, mas vivo o suficiente para morrer. A ambiguidade de sentimentos e carga de responsabilidades que são provocadas pelo lado “vivo” do brinquedo traz à tona ansiedades que acabam sendo aliviadas retomando o aspecto mecânico do brinquedo. Turkle destaca o quanto esta dimensão híbrida traz conforto já que concentrando no aspecto mecânico pode-se aproveitar alguns dos prazeres da companhia sem os riscos do apego a uma pessoa ou animal de estimação.

 AN ETHICAL LANDSCAPE

Os robôs sociáveis exploram a ideia de um corpo robótico para fazer com que as pessoas se relacionem com as máquinas como sujeitos, como criaturas que sofrem mais do que como objetos que quebram. Desde o Tamagotchi estes brinquedos robóticos inspiram estes sentimentos e cruzam a linha não pela sofisticação técnica mas pelo sentimento de ligação e apego que provocam. Os Furbies apresentam-se vivos o suficiente para ter medo, sentirem dores e terem preocupações. Uma pesquisa realizada no MIT Media Lab tentou identificar estes limites entre criatura e máquina nas interações com o Furby, inspirado no Teste de Turing. O teste original, publicado em 1950, indagava sob quais condições as pessoas considerariam um computador inteligente, chegando a definir que isso ocorreria se o computador conseguisse convencer as pessoas de que não era uma máquina. Meio século depois a pesquisadora Baird no MIT indagou sob quais condições uma criatura é considerada viva o suficiente para as pessoas ao ponto de vivenciarem um dilema ético se forem agredidas. A pesquisadora usou uma boneca Barbie, um Furby e um ratinho vivo para o experimento que consistia na seguinte questão: quanto tempo você consegue segurar estes objetos de cabeça para baixo antes de suas emoções fazerem você virar de volta? A pesquisadora confirmou a hipótese de que os robôs sociáveis trazem novas demandas éticas a partir do momento em que performam uma psicologia, dizem que tem medo, que estão assustados e evocam uma vida interior mesmo que primitiva. Mesmo sabendo que estavam com um brinquedo mecânico, as pessoas se sentiam mal e pressionadas a partir do momento em que o Furby reagia, supostamente expressando um sofrimento, o que causava a sensação de culpa nos participantes mesmo sabendo que se tratava de um brinquedo. Para Turkle este é mais um exemplo de que estamos em um ponto no qual vemos os objetos digitais como criaturas e como máquinas.

Outro brinquedo que também aponta para dilemas éticos é comentado por Turkle. Se trata da boneca Meu bebê Real (My Real Baby) desenvolvido em 2000, em contraste com o que havia sido desenvolvido por uma equipe de robótica do MIT com o BIT (Baby IT), um robô que simulava estados da mente e os movimentos da musculatura facial com uma pele sintética que simulava a expressão emocional. Uma vez estimulado de maneira violenta ou de forma que provocaria dor em uma criança, o BIT chorava e gritava como um bebê real. Assim como o My Real Baby, quando foi posto em produção massiva para venda, o BIT foi reconfigurado para ser desligado quando fosse violentado ou sacudido de maneira que provocasse dor em um bebê real. Um dos argumentos apresentados neste dilema ético apontava que a resposta à dor poderia estimular comportamentos sádicos. O realismo extremo destes brinquedos robôs excluía a resposta à dor e provocou muitas reações polêmicas sobre os significados desta limitação. Observando as interações de crianças com a boneca My Real Baby Turkle e sua equipe viram o quanto as crianças reagem no sentido de proteger e cuidar das bonecas para evitar que lhes façam mal, mesmo sem a reação direta como faz o Furby reclamando quando está de cabeça para baixo. Ao serem considerados vivos o suficiente para serem protegidos, estes robôs sociáveis apontam para novos dilemas éticos.

A autora segue comentando sobre as reações de seus alunos pesquisadores diante do robô Nexi, um robô humanoide do MIT que possuía um dorso feminino com expressão facial e habilidade para falar. Enquanto estava fora de uso e desligado o robô ficava em um canto da sala coberto com um venda sobre os olhos. Turkle comenta a emblemática reação de incômodo que um de seus alunos sentiu ao ver a venda nos olhos. Os alunos debateram vivamente sobre os motivos que levariam a esconder os olhos do robô, questionando se esta cobertura não seria um sinal de que o robô realmente poderia ver, implicando em uma vida interior suficiente para que este ato fosse considerado um abuso que deveria ser evitado. Estas reações sobre a proteção e cuidado dos robôs sociáveis perturbam os limites entre as categorias do que consideramos vivo ou não o suficiente para ser protegido de abusos e violências. Como seres híbridos que ficam na fronteira, estes objetos como o Furby, o Nexi e os novos robôs sociáveis acabam mudando as próprias categorias.

 FROM THE ROMANTIC REACTION TO THE ROBOTIC MOMENT

Conforme intensificamos as experiências com robôs sociáveis, conforme aprendemos a viver em novos horizontes, adultos e crianças devem parar de se perguntarem questões como: “Por que estou falando com um robô?”, “Por que eu quero que este robô goste de mim?” Nós simplesmente seremos agraciados pelo prazer de sua presença. Se nos anos 80 e 90 a reação romântica destacava o que apenas humanos poderiam fazer e sentir, a autora destaca que temos gradativamente uma nova sensibilidade que se concentra naquilo que temos em comum com nossas tecnologias. Um exemplo evidente é a mudança na cultura terapêutica atual que tira o foco de uma vida interior para concentrar nos aspectos mecânicos do comportamento, algo que as pessoas e os robôs compartilham. Cada vez mais a mente é definida pelo funcionamento bioquímico. Se durante o período da reação romântica nos anos 80 os adolescentes consideravam as pessoas como únicas capazes de terem emoções e serem imperfeitas para aprenderem juntas, vinte anos depois os adolescentes se sentem a vontade para argumentar que os humanos não tem o monopólio da habilidade de cuidar e entender as pessoas. Por serem imperfeitas e limitas, as pessoas são arriscadas enquanto os robôs são mais seguros especialmente quando se trata de aconselhamento sobre questões emocionalmente sensíveis. Estudando as opiniões de adolescentes e crianças em relação à inteligência artificial, a autora aponta que neste atual momento robótico estamos preparados para assumirmos que a vida, os problemas românticos e de amizade podem ser reduzidos à informações. Então, os robôs podem ser os especialistas de referência e nossos companheiros. Turkle destaca novamente que estamos neste momento muito mais pelas mudanças em nossas percepções e expectativas do que pela efetiva capacidade técnica dos robôs.

Texto: Rodrigo Nejm

Claudia Galante

É mestre pelo Programa de Pós-graduação em Psicologia Social da Universidade Federal do Rio Grande do Sul, na linha de pesquisa Ideologia, Comunicação e Representações Sociais. Especialista em Marketing pela FAE (PR) e graduada em Comunicação Social pela PUC-PR. Atualmente atua no departamento de comunicação social do Instituto Federal da Bahia (IFBA) Campus Camaçari. Tem experiência na área de Comunicação e interesse nos seguintes temas: mídia, democracia, cibercultura e interações.

More Posts

Deixe um comentário

This site uses Akismet to reduce spam. Learn how your comment data is processed.