Teorias da conspiração, vídeos manipulados com inteligência artificial e campanhas de difamação na internet. Quais os impactos desses conteúdos online no mundo real? No episódio 104 do podcast Pauta Pública, a antropóloga Letícia Cesarino, autora do livro O mundo do Avesso , explica que as plataformas digitais criam um ambiente de crise permanente.
De acordo com Cesarino, o modo como as plataformas construíram ambientes digitais converge para uma lógica de guerra e favorece a circulação de conteúdos de forças da extrema-direita, que vivem de pânico moral. “As teorias da conspiração também vivem de pânico. As pessoas se agarram àquelas crenças pelo fator do afeto ou insegurança. E esses atores políticos representam para o usuário uma configuração de segurança, por exemplo: ‘somos todos patriotas’, ‘somos todos pessoas de bem e esse inimigo precisa ser combatido’”, explica.
“O modo que a digitalização da democracia acontece hoje, substituindo mediações da democracia liberal tradicional que tínhamos com os partidos, sindicatos e debates pelas novas mídias, esse modelo se parece mais com a lógica de guerra do que com a lógica democrática”, diz a antropóloga.
Leia os principais pontos da entrevista e ouça o podcast completo abaixo.
EP 104
Mundo do avesso e crise permanente – com Letícia Cesarino
[Clarissa Levy] Eu já vi e li algumas vezes, você escrevendo sobre como hoje a internet acaba sendo quase uma “mente estendida” dos usuários. Como se parte da consciência humana agora estivesse localizada no mundo online. Você pode explicar como isso funciona?
É uma abordagem a partir da antropologia. Toda a sociedade: o humano, a cultura, é complementado por artefatos técnicos, tipos de comunicação que excedem o domínio do individual. Isso também é verdade para o mundo altamente tecnológico que a gente vive hoje. Principalmente as tecnologias de mídia, que na verdade são como se fossem extensões do nosso corpo nessa captura e compreensão do ambiente que nos cerca. Porém as mídias cibernéticas, propriamente ditas, que embasam a indústria tecnológica que temos hoje, que estão nos smartphones e computadores regidas pelos algoritmos, são tecnologias de mídia um pouco diferentes. Eu costumo dizer que elas não são tecnologias triviais, porque são máquinas que foram criadas para mimetizar um certo nível da cognição animal.
Os algoritmos são máquinas que fazem procedimentos básicos de percepção do ambiente e tomada de decisão, que claro não esgotam tudo que o humano pode fazer, mas substituem o ser humano numa camada mais ‘elementar’ da tomada de decisão. Então, por exemplo, quando estamos navegando nas mídias sociais, o nosso comportamento é complementado pelo algoritmo que responde às decisões que tomamos com suas próprias escolhas. Ou seja, ao fazer uma busca no Google, ou navegar no Instagram ou Twitter o que recebemos do ambiente digital não faz parte das decisões que tomamos, o peso decisório é muito maior do lado dos algoritmos. Essa tecnologia está a todo o tempo calibrando um tipo de conteúdo que segue um desenho feito pela indústria e todo o modelo da economia da atenção, isso está por trás do desenho desses algoritmos.
As câmaras de eco, viés de confirmação e bolhas, são programações feitas para que os algoritmos tendam a nos entregar um ambiente que converge mais com a trajetória que nos encontramos. Ou seja, o tipo de conteúdo que o algoritmo decide através dos seus cálculos que a pessoa vai ter um interesse maior. Isso é naturalizado pelo usuário. Tomamos o que é entregue como um dado da realidade, mas sabemos que seleções estão sendo feitas e, às vezes, essas seleções são muito diferentes entre si. A ponto de ter às vezes realidades que são trazidas pela internet altamente contraditórias entre si. Essa é a ideia do mundo ao avesso que eu trago no título do meu livro, que seria uma situação de diferenciação um pouco mais radical. São identidades distintas entre dois grupos, e entre esses dois grupos há um grau de diferença tão grande, o outro é igual a mim, mas ao contrário, o mundo invertido.
Então, o livro trata dos casos extremos que embasam, por exemplo, públicos da teoria da conspiração, das ciências alternativas, e também os públicos do extremismo político através do estudo de caso da extrema-direita. A mente estendida é nesse sentido. A ideia de que o homo sapiens, por ter um certo tipo de cultura que diferente de outros animais, é mais dependente de até fatos técnicos. Esse ‘homem’ tem muito pouco acesso direto ou real. É tudo mediado pela língua, pela cultura e artefatos técnicos. Nesse sentido principalmente com os artefatos cibernéticos desempenhando o papel de artefato, pois foram desenhados para isso.
[Andrea Dip] Semana passada, no dia 19 de janeiro, entrevistamos Christian Dunker e ele comentou um pouco sobre a eficiente estratégia da extrema-direita em gerar o pânico moral. Ao comentar sobre as redes, de que maneira elas facilitam e amplificam essas narrativas de pânico moral? Como os algoritmos entram neste discurso?
É uma questão relativamente complexa porque não é só o modo como os algoritmos privilegiam o juntar igual com igual, e não igual com diferente. A indústria poderia ter optado por estar fazendo algoritmos que fazem mais com que a diferença conviva com a diferença, ou que a diferença conviva com mais aleatoriedade. Mas foi definido, por questão do modelo de negócios, que os algoritmos juntem igual com igual.
Tem um outro ponto do viés de programação das plataformas que é a questão dos algoritmos cronológicos, que é bastante importante. A velocidade do ambiente no qual a gente recebe a realidade também poderia ser diferente, quando lembramos da “web 1.0” ou da “primeira web 2.0”, onde já havia algoritmos, mas ainda não tinha essa velocidade tão grande. A cognição humana tem um limite para isso, temos esse ‘hardware’ de caçadores-coletores, porém estamos vivendo num ambiente completamente diferente de 50 mil anos atrás. Então, existe um sentido em que a afinidade eletiva, entre o modo que as plataformas produzem o nosso ambiente, nos entregam realidade e o tipo de política que uma força como a extrema direita propõe, por exemplo.
As plataformas criam um ambiente de crise permanente, por causa da grande velocidade, e com conteúdos díspares, isso causa no usuário um modo de crise na cognição. Há afinidade no caso das teorias da conspiração, por exemplo, o medo se torna um afeto muito sobressalente no animal neste modo de crise. Não só o ser humano (sem entrar em detalhes), mas a semiótica conspiratória, espelha um modo semiótico de quando o ambiente que do animal o desagregou e ele precisa migrar para outro. A cognição deste animal e o seu comportamento entra num modo diferente do que seria o comportamento linear. O modo que as plataformas construíram esses ambientes tende mais para esse modo de crise. E fica claro que essa característica infraestrutural converge com os conteúdos que são circulados por forças como a extrema-direita, que basicamente vivem de pânico moral.
As teorias da conspiração também vivem de pânico, as pessoas se agarram àquelas crenças pelo fator do afeto ou insegurança. E esses atores políticos representam para o usuário uma configuração de segurança, por exemplo: “somos todos patriotas”, “somos todos pessoas de bem e esse inimigo precisa ser combatido”. Esse ‘modo crise’ converge fortemente com uma lógica de guerra. O modo que a digitalização da democracia acontece hoje, substituindo mediações da democracia liberal tradicional que tínhamos com os partidos, sindicatos e debates pelas novas mídias, esse modelo se parece mais com a lógica de guerra do que com a lógica democrática.
A lógica democrática é a lógica do debate, do programa, do planejamento. O que vemos hoje é como a contaminação dessa lógica de guerra na política, isso é muito mais visível em contextos eleitorais que são contextos de exceção. Porque tem um momento onde tem alguém saindo do poder e o próximo ainda não entrou, estes são momentos de perigo, como o 8 de janeiro foi aqui no Brasil e o 6 de janeiro de 2021 foi lá nos Estados Unidos. Essa foi a expressão mais contundente a que isso chegou porque saiu do ambiente ‘online’ para resvalar no offline.
Porém, não foi repentinamente, no caso do Brasil tivemos o monitoramento dos canais no Telegram, feitos desde 2021, lá dava para reparar uma gramática conspiratória relativa à pandemia. O conteúdo dos canais varia, mas eles mantém os usuários naquele modo de crise e mobilização. Isso foi se arrastando desde a pandemia e esses públicos foram transformando seu conteúdo, porém ainda mantendo a sua gramática conspiratória. A ponto da crise explodir e ser a vitória do inimigo, era como se fosse inevitável que algo daquela forma acontecesse.
É complexo porque é um ambiente não-linear, onde não tem uma cadeia de comando e controle clara comparado a um golpe de estado clássico. Então, a corrosão das mediações da democracia vai sendo feita gradualmente, muitas vezes no subterrâneo. Ao dizer subterrâneo, quero dizer os públicos mais fechados como estes públicos monitorados no Telegram, onde havia um discurso conspiratório mais explícito que ficam menos visíveis para o público convencional. Mas esses públicos mais extremos tem as saídas para a superfície, como o YouTube e o Instagram, que são plataformas mais abertas. Ao olhar computacionalmente está tudo conectado com o Telegram, com o Rumble e com os grupos fechados de WhatsApp. Ou seja, foi tudo fermentado um pouco abaixo da superfície ao longo de um tempo até o momento que isso explode. E eu digo com segurança, que uma outra arquitetura algorítmica seria possível, porque essa ecologia de mídia agora está fazendo com que esses públicos mais extremos comecem a alcançar pessoas que normalmente elas não alcançariam, isso é bastante preocupante.
[Clarissa Levy] Em um ponto que vem diretamente do seu livro, olhando para o negacionismo, extremismo, fake news e ascensão das figuras populistas a partir de um olhar da cibernética e além dos elementos da conjuntura política e econômica que podem estar na raiz desses fenômenos. Você pode explicar por quê partir do ponto de vista deste olhar a partir da cibernética e quais são suas conclusões sobre isso?
Eu trabalho com a teoria do paradigma cibernético, e a vantagem disso primeiramente é que ela vem da mesma genealogia histórica que a indústria tech. Essa que, por sua vez, pensa ciberneticamente, nós não. A maioria das teorias sociais dentro da academia e da opinião pública pensam de formas mais lineares, então já é um paradigma que tem uma afinidade estrutural. Além disso, é uma teoria boa para trabalhar em contextos de crise, porque neste contexto, numa lógica de guerra, as mediações que compartimentalizavam o social não funcionam tão bem. Então, eu acho bastante didático, por exemplo essa separação entre política e religião. Se pegarmos a extrema direita, o modo como eles pensam e atuam na política não existe essa separação, não há a contradição entre defender a liderança que eu quero, eu ganhar dinheiro com isso, eu trazer o pastor para falar junto ou eu agenciar temas. É tudo misturado, que é o que a literatura sobre novas mídias chama de colapso de contexto, característico da plataformização.
Um outro colapso de contexto transversal é a diferença entre público e privado. Se repararmos o modo como a extrema-direita agencia o que eles chamam de meta-política. Olavo de Carvalho e Alexander Dugin trabalham com a ideia de meta-política, eles falam de uma política transversal a todas as esferas sociais. Uma política que não disputa só as eleições, mas no fundo disputa o todo na democracia, eles tem uma proposta global de substituição desse inimigo que eles querem derrotar. No caso do bolsonarismo, por exemplo, ficava muito claro pra mim como eles viam a Constituição de 1988. Porque eles não dizem ser contra a Constituição, mas essas pessoas têm uma visão invertida do documento, onde o centro dela seria o Artigo 142.
Como se fosse um ponto cego da constituição, onde eles poderiam virar tudo aquilo do avesso, nas famosas “quatro linhas”. Quando o Bolsonaro falava que ele não saía das “quatro linhas” era no sentido do Artigo 142, mas para eles estar está ‘dentro das quatro linhas’ é ter o direito de pedir intervenção militar para impedir um candidato legitimamente eleito de tomar posse, o que justifica (na minha interpretação) os atos violentos por parte de boa parte daquelas pessoas que invadiram e depredaram a Praça dos Três Poderes no dia 8 de janeiro .
Quando falamos da influência da tecnologia na política, as pessoas tendem a cair em duas posições: o determinismo tecnológico ou ao contrário ao falar que, na verdade, a tecnologia não tem nada a ver com aquilo. Mas na verdade está no meio do caminho, temos uma confluência entre a agência técnica tecnológica e a agência humana/animal. A ecologia da mente abre novas questões, permite que olhemos para o mesmo fenômeno e veja ele de uma forma completamente diferente, na minha opinião, mais próximo. Falando como antropóloga, a gente sempre tenta ver o fenômeno do ponto de vista do sujeito que você está estudando.
Fonte
O post “Plataformas digitais criaram crise permanente, diz Letícia Cesarino” foi publicado em 01/02/2024 e pode ser visto originalmente diretamente na fonte Agência Pública