Sistemas preditivos, filtro bolha e nossa experiência com a alteridade

Quando publicou seu The Filter Bubble, em 2011, Eli Pariser frisou nessa obra uma forte preocupação quanto aos processos de cruzamento de dados para otimização de buscas e retorno de informações customizadas. Seu receio encontrava como base uma corrida pela personalização das experiências na web – corrida tal em que as principais empresas se encontravam atrás de relevância enquanto critério de funcionamento e de finalidade para os utilizadores. O então vice-presidente do Yahoo – àquela altura um gigante já meio adormecido das buscas – já mostrava a tônica de toda essa movimentação: “O futuro da web diz respeito à personalização (…) agora, a web é sobre ‘mim'”, referindo-se à essa busca pela customização peculiar e otimizada para os interesses individuais.

O que estava em jogo, portanto, enquanto valor de negócio não seria mais apenas à capacidade de encontrar informações no oceano de dados da internet – até porque isso o Google ou o próprio Yahoo já haviam conseguido resolver, às vezes bem, às vezes mal. A galinha dos ovos de ouro da vez, então, seria poder oferecer recursos cada vez mais próprios e personalizados segundo o gosto dos usuários, algo mais ou menos no caminho do seguinte paroxismo: no lugar de uma internet em comum a todos, seria oferecido um recorte da internet para cada um de nós.

O discurso da otimização parecia ser bastante promissor. Afinal, desde os remotos tempos de Office com clip falante, estamos sempre em busca de um assistente pessoal que saiba mais de nós que nós mesmos. O desejo de consumo parece ir além da Rose, a empregada-robô dos Jetsons, e chega a atravessar outras áreas da nossa rotina: queremos alguém (ou algo) que cuide da agenda, que observe as mudanças climáticas, que indique notícias de grande relevância no calor dos acontecimentos…

Mas Pariser apontava um efeito perverso junto com toda essa dinâmica de coleta e processamento de dados personalizados: além de possuirem uma ótima capacidade de customização de experiências, tanto os sistemas de busca mais genéricos – seja o Yahoo, seja o Google – quanto algoritmos específicos de sites como Facebook ou Amazon poderiam trazer à tona um tipo de enclausuramento de informações. Esse é o principal ponto de argumentação de Pariser. Ou seja, em vez de circularmos por novas camadas de dados (que poderiam corresponder a novos livros, filmes, sites ou contatos completamente distintos daqueles com que já lidamos ou conhecemos), estaríamos correndo o risco de cair numa armadilha criada a partir da filtragem dos dados que já estamos deixando na rede. A esse universo único, individual e isolador, Pariser chamou de filtro bolha e caracterizou pela presença de três dinâmicas inéditas:

  1. encontramo-nos isolados no filtro, justamente por ser uma bolha individual, personificada, voltada a um sujeito específico – ou seja, todos nós, mas isoladamente. “You’re the only person in your bubble” (p. 9).
  2. o filtro bolha é invisível, ou seja, não se conhecem as políticas e processos que determinam a curadoria de informações. “Google doesn’t tell you who it thinks you are or why it’s showing you the results you’re seeing” (p. 10).
  3. não se escolhe adentrar no filtro bolha, ele simplesmente surge e nos engloba com seu poder pró-ativo. “When you turn of Fox New or read The Nation, you’re making a decision about what kind of filter to use to make sense of the world (…) You don’t make the same kind of choice with personalized filters. They come to you” (p. 10).

Bolhas para além do computador pessoal

Alguns anos depois da publicação do livro, parecemos cada vez mais em vistas de ocorrências como tais, e agora, talvez ainda mais contundente, num movimento antecipatório. Ou seja, se antes a preocupação se dava em relação aos resultados de busca (o que é uma reação), agora o lado preditivo dos algoritmos surge cada vez mais às claras (ou seja, o dispositivo age antes do próprio usuário).

São conhecidas histórias diversas em que sistemas de bancos de dados chegaram a certas conclusões (e acertadas) antes que aqueles que os manipulam tenham buscado a informação ou a análise em si. Em Big Data, Viktor Mayer-Schönberger e Kenneth Cukier relatam o exemplo de uma rede de supermercados que conseguiu, pela observação das compras feitas por uma jovem, “descobrir” que ela estava grávida antes mesmo que seu pai soubesse – o que acabou gerando um imbróglio ético, no mínimo. Mais recentemente, Andreas Weigend, ex-funcionário da Amazon e hoje cientista na Universidade de Stanford, coloca-nos a par de uma situação em que o aplicativo Google Now avisou-lhe, proativamente, que seu voo estava atrasado.

Assustador? Talvez sim, mas pelo quê, exatamente? Pela perda da tão sonhada privacidade? Por nos virmos menos capazes que os próprios sistemas que utilizamos? Por termos tantos dados em mãos que não sabemos mais como utilizá-los? Por estarmos supostamente perdendo a agência e delegando toda a ação para alguns dispositivos? Porque são corporações que estão tomando decisões que nós deveríamos tomar?

Aplicativos como Google Now, Foursquare e Google Maps estão sendo desenvolvidos cada vez mais com funcionalidades que ressaltem essa característica. Outros elementos, como aqueles voltados para o movimento dos quantified self, também tomam rumos semelhantes, inclusive saindo da esfera impalpável do código e reinando no mundo material como o concebemos. Como descrito no site VentureBeat, a pulseira inteligente Up, ao verificar uma lacuna nos sonos de seus utilizadores, chega a recomendar uma pausa para sonecas. Smart enough?

O que mais preocupa quando temos aplicativos ou dispositivos móveis que tais não é tanto cair na querela sobre a privacidade indo pelo ralo ou se esses componentes “sabem” ou não o que queremos. Esses pontos preocupam, claro, especialmente quando temos em mente que a privacidade é relativa e depende de quem está tendo acesso a nossos dados – e quando há interesses comerciais acima de outros pontos de atenção, como a própria saúde em si, aí sim surgem questões ainda mais preocupantes. É necessário perceber, como aponta Antonio Regalado, que capacidade maior dos tempos atuais é a de observar as pessoas não por suas materialidades; o sujeito está exposto agora pelos dados que deixa, não porque é invadido por equipamentos específicos como o radar ou a máquina de raio X.

If the last century was marked by the ability to observe the interactions of physical matter—think of technologies like x-ray and radar—this century, he says, is going to be defined by the ability to observe people through the data they share.

Além disso, há tópicos específicos que dizem respeito às próprias decisões ou obrigações. Eli Pariser coloca em jogo um argumento contundente: há aqueles assuntos aos quais estamos propensos a ir atrás (e aos quais o Facebook, por exemplo continuamente nos expõe, de modo que nos mantenha mais tempo dentro do site), mas há igualmente aqueles outros sobre os quais deveríamos ter conhecimento (e que nem sempre são exatamente um foco de nossa atenção). Como lidar com essa equação?

No fim das contas, talvez um sistema inteligente funcione mesmo como um grande superego digital, refletindo tão somente as nossas próprias decisões e vontades. Como sair desse universo em que o eu é uma estrutura mais importante que as demais conexões ao redor?

Sherry Turkle, em Alone Together, também levanta preocupações similares quando coloca em questão a vivência ao lado de robôs. Falando especificamente do cãozinho AIBO, o foco não recai sobre o quesito de realidade ou não que o robô tem ou mesmo se ele está substituindo os cães de carne e osso, mas sim sobre uma redução de custos em termos de relação e uma possível normalização desse processo. Quando fala em diminuir os custos de uma relação, Turkle se refere a uma diminuição da alteridade e, portanto, uma consequente diminuição dos choques com quem pensa e age de maneira diversa. Assim, a experiência com o diferente é defenestrada ou minimizada a ponto de trazer, potencialmente, prejuízos para o desenvolvimento de crianças e adolescentes – justamente quando a importância do outro é dada pela capacidade de podermos enxergar o mundo a partir da perspectiva de pessoas diversas. O modo como a convivência com robôs é levantada por Turkle cria, assim, a ideia de selfobject.

Heinz Kohut described barriers to alterity, writing about fragile people – he calls them narcissistic personalities – who are characterized not by love of self but by a damaged sense of self.

Parece-nos perspicaz pensar que os movimentos atuais das principais empresas de tecnologia e conexão voltam-se fortemente ao estabelecimento de redes e processos egocentrados. Em vez de oferecer experiências coletivas – como tivemos nos primórdios da internet -, a informação voltada para o indivíduo, seus afazeres e vontades surge agora como um modo de satisfação a ser perseguido – e prover satisfação, no fim das contas, parece ser o principal negócio de empresas como Google, Amazon, Facebook… Aonde todo esse movimento de individualização, personalização, filtragem nos levará? Como lidaremos com as interações e as experiências de alteridade num futuro breve? São perguntas ainda bastante complexas para serem respondidas.

Paulo Victor Sousa

Mestre em Comunicação e Cultura Contemporâneas pela Universidade Federal da Bahia, onde também realiza seu doutorado. Realiza pesquisas sobre redes sociais móveis, lançando foco sobre questões identitárias vinculadas a marcações georreferenciadas.

More Posts

Follow Me:
TwitterFacebookDelicious

Deixe um comentário

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.