Cada modelo econômico tem seus mecanismos de persuasão com impactos culturais e comportamentais (Foto: Getty Images)
Os algoritmos de inteligência artificial estão afetando nossa capacidade de decisão?
Será que o big data e os novos modelos estatísticos de previsão podem representar inéditos desafios sobre a autonomia humana?
Por Dora Kaufman*
O filósofo René Descartes (1596-1650) associava o animal à máquina por meio do conceito de “bête-machine”, estabelecendo analogias e diferenças entre o animal, o humano e o autômato. Para o filósofo, se houvessem máquinas em tudo semelhantes à um macaco, por exemplo, não teríamos meios de atestar com certeza de que não seriam da mesma natureza; contudo, se houvessem outras máquinas que imitassem os humanos, sempre teríamos meios de reconhecer que não seriam verdadeiros humanos. A “razão" é o que distinguiria o humano do animal e da máquina, a capacidade de raciocinar (a linguagem seria outro diferencial).
Gostamos de pensar que temos controle sobre nossas decisões, o chamado “livre arbítrio”. Será essa crença verdadeira ou devemos aceitar que as nossas decisões sempre foram influenciadas (ou moldadas/manipuladas) por todo um universo de conexões? Será que o big data e os novos modelos estatísticos de previsão (inteligência artificial/machine learning/deep learning) representam inéditos desafios à ideia-chave do Iluminismo sobre nossa autonomia e nosso livre - arbítrio?
Cada modelo econômico tem seus mecanismos de persuasão com impactos culturais e comportamentais, ou seja, transcendem o consumo. Na Economia Industrial, caracterizada pela produção e pelo consumo massivo de bens e serviços, a propaganda predominou como meio de convencimento e influência nas escolhas e preferências dos indivíduos (e, igualmente, no comportamento e na cultura).
Na Economia da Informação em Rede, temos a customização de produtos e serviços, com a correspondente comunicação segmentada. A internet ampliou a intervenção externa nos processos de decisão seja pelas redes sociais e/ou pelos sofisticados mecanismos desenvolvidos pelas empresas a partir da web 2.0; os sistemas de cadastro das plataformas on-line (comércio eletrônico, redes sociais), por exemplo, permitiram conhecer os hábitos de consumo dos usuários, informações úteis para a elaboração de planos de marketing eficientes (vender, conquistar ou fidelizar o consumidor). Os “Link Patrocinados” do Google produziam (e produzem) resultados afirmativos correlacionando o perfil do potencial consumidor com os atributos do produto/serviço ofertado.
Na Economia de Dados do Século XXI, a “personalização” (não confundir com individualização) está na base da mediação tanto de bens quanto de informação; os algoritmos de inteligência artificial promovem estratégias de comunicação assertivas a partir do conhecimento captado, minerado e analisado de dados pessoais gerados nas interações no ambiente digital.
Os algoritmos de IA individualizam as consultas ao Google, com respostas que variam em função do perfil de quem está buscando a informação; essa é uma pequena ilustração da interferência dos algoritmos no acesso à informação e, possivelmente, em nossas decisões e ações. Os tradicionais mediadores humanos estão sendo substituídos por mediadores automatizados, especificamente os algoritmos de IA.
O campo de pesquisa das tecnologias persuasivas foi introduzido em 1997, e vem se disseminando com o avanço das tecnologias de IA. O cientista comportamental BJ Fogg fundou, em 1998, o Stanford Persuasive Tech Lab com o propósito de gerar insights para desenvolver tecnologias aptas a mudar as crenças, os pensamentos e os comportamentos dos indivíduos de maneira previsível; o foco do projeto são os hábitos de saúde, e sua base teórica encontra-se nos métodos da psicologia experimental.
Denominado de Captology, o estudo de computadores como tecnologias persuasivas inclui design, pesquisa, ética e a análise de produtos de computação interativa (computadores, celulares, websites, tecnologias sem fio, aplicativos móveis, videogames). Seus pesquisadores conceituam a “Captologia" como uma nova maneira de pensar sobre o comportamento alvo e transformá-lo numa direção compatível com o “problema" a ser resolvido.
A rede social Facebook, no empenho de monetizar sua gigantesca base de dados, anuncia que seus algoritmos de IA são capazes de mapear a personalidade dos usuários com 80% de precisão baseados nos click e likes, contemplando atributos como gênero, idade, formação, etnia, “desvios” de personalidade, orientação sexual/política e religiosa, doenças, uso de substâncias. De posse desse suposto “conhecimento" sobre seus usuários, a rede social vende aos anunciantes uma potencial comunicação hiper-segmentada/personalizada de seus produtos/serviços.
Os algoritmos de IA, com base nas informações coletadas das preferências dos indivíduos, não são apenas instrumentos comerciais (ampliar vendas), muito menos circunscritos a boas intenções (como mudar, positivamente, hábitos de saúde). Esses modelos permitem prever e interferir em nossa conduta em todas as esferas da vida social, e de maneira inédita, particularmente sobre os usuários mais sucetíveis. Ainda não somos capazes de detectar a dimensão e alcance desse processo.
A rede social Facebook, no empenho de monetizar sua gigantesca base de dados, anuncia que seus algoritmos de IA são capazes de mapear a personalidade dos usuários com 80% de precisão baseados nos click e likes, contemplando atributos como gênero, idade, formação, etnia, “desvios” de personalidade, orientação sexual/política e religiosa, doenças, uso de substâncias. De posse desse suposto “conhecimento" sobre seus usuários, a rede social vende aos anunciantes uma potencial comunicação hiper-segmentada/personalizada de seus produtos/serviços.
Os algoritmos de IA, com base nas informações coletadas das preferências dos indivíduos, não são apenas instrumentos comerciais (ampliar vendas), muito menos circunscritos a boas intenções (como mudar, positivamente, hábitos de saúde). Esses modelos permitem prever e interferir em nossa conduta em todas as esferas da vida social, e de maneira inédita, particularmente sobre os usuários mais sucetíveis. Ainda não somos capazes de detectar a dimensão e alcance desse processo.
E fica posto o debate: será que em algum momento tivemos realmente livre arbítrio ou sempre tomamos decisões influenciados por terceiros e contextos externos? Existe pensamento individual, ou é sempre formulação coletiva? os algoritmos de IA estão alterando a natureza dessa dinâmica ou são simplesmente novos mecanismos de persuasão/manipulação?
*Dora Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A inteligência artificial irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e professora PUC-SP.
Comentários
Postar um comentário