Quer receber os textos desta coluna em primeira mão no seu e-mail? Assine a newsletter Xeque na Democracia, enviada toda segunda-feira, 12h. Para receber as próximas edições, inscreva-se aqui.
Um homem bonitão, com cara de cerca de 50 anos, moreno, bronzeado daqueles bem cariocas, óculos escuros e um sorriso de lado a lado, estampava a reportagem publicada pelo UOL em parceria com a Agência Fiquem Sabendo em 17 de julho deste ano. Relaxado, tranquilo, o homem estava atrás das grades, mas parecia estar em clima de férias. Combinava bem com o provocativo título: “O crime compensa: os privilégios dos militares expulsos das Forças Armadas”. O único problema é que o tal homem não existe. É uma imagem criada por inteligência artificial, como informa uma pequena legenda abaixo da foto.
Antes de seguir, quero só deixar claro que a reportagem de Eduardo Militão e Luiz Fernando Toledo, um levantamento de militares da Aeronáutica e Marinha expulsos por cometerem crimes ou infrações graves e cujas famílias seguem recebendo pensão vitalícia de até R$ 33 mil, é excelente. Não se trata do seu conteúdo.
O uso de imagem gerada por IA para ilustrar o que seria a “quintessência” do militar condenado é, isso sim, um completo desastre. E não apenas porque muitos leitores podem achar que a figura sorridente de fato é uma pessoa (ou, pior ainda, eu juro que deve haver um ser humano bem parecido com esse cara andando por aí). Pior ainda é a estigmatização, a enxurrada de clichês que desumaniza as pessoas que são foco da matéria. Sim, milico também é gente, e os riscos dos vieses da inteligência artificial também estão em seguir o que informam aqueles que fantasiam sobre determinados grupos sociais – sejam eles negros, brancos, héteros, homens, mulheres, trans ou cis. Crime, punição e recompensas são temas sérios e merecem ser tratados de maneira cuidadosa.
Não entendo por que essa foto não mereceu tanto debate quanto a famosa montagem feita por Gabriela Biló que sobrepunha a rachadura de um tiro sobre a janela do Palácio do Planalto ao peito do presidente Lula.
Ambos inventam uma realidade que nunca existiu. Podem funcionar para a arte, mas são fatais para o jornalismo.
É claro, o fato de a imagem ter sido gerada por IA agrega mais uma camada aos problemas éticos envolvidos no uso de fotomontagens para jornalismo. Um dos maiores problemas da IA é a sua capacidade de nos enganar: imagens geradas artificialmente podem ser facilmente tomadas por fotos de uma realidade que aconteceu; textos escritos artificialmente podem dar a impressão de ter mãos humanas por trás deles.
A Folha, também, tem se valido de traduções artificiais para artigos internacionais, igualmente sinalizando de maneira discreta que a “tradução foi feita com o auxílio de inteligência artificial”. Uma leitura rápida demonstra que não é só “auxílio” de IA, mas o texto todo feito por IA, pois alguns trechos não fazem muito sentido em português. Como este : “Economista-chefe do Google, Hal Varian afirmou ao tribunal que o número de consultas de pesquisa que o Google recebeu era importante, mas não respondeu o tamanho de sua importância”.
Nenhum editor-humano deixaria essa frase passar.
Não sou dessas que vão ficar tripudiando sobre os erros da IA, nem dizer que a máquina é burra, etc., porque os avanços são brutais, acachapantes e sem retorno.
O problema está muito mais no seu acerto, no simulacro de realidade, do que no seu erro. Se ainda queremos convencer as novas gerações de que a realidade existe de fato, e não apenas interpretações – eu sigo nessa batalha –, é preciso que o jornalismo reflita muito sobre como quer usar e como quer informar ao leitor que está usando inteligência artificial.
Até agora, só vi um posicionamento claro a esse respeito, que veio do site Núcleo, especializado em cobrir tecnologia. O Núcleo foi o primeiro veículo a publicar uma política editorial que tem um quê de manifesto, e abre com a seguinte frase: “O uso de inteligência artificial deve ser aplicado para facilitar o trabalho do jornalismo, não produzi-lo”. A redação do site explica que pode usar IA para fazer sumários das matérias, melhorar a redação de alguns parágrafos, mas jamais para produzir um texto inteiro e nunca sem a leitura de um humano.
Ocorre que o buraco é mais embaixo. Hoje em dia, o jornalismo já é ciborgue, com a inteligência artificial já sendo amplamente adotada em diversas etapas do processo de construção da notícia. Mente quem diz que não está usando, inclusive esta que vos escreve.
Não existe uma redação que não esteja usando, por exemplo, alguma ferramenta de transcrição automatizada de entrevistas, um dos gargalos desde sempre do jornalismo e que elimina muitas horas de trabalho (elimina também uma segunda escuta atenta de uma entrevista, alguma nuance é perdida). Também se usa bastante as ferramentas de tradução, que começaram com o Google Translate, avançaram com a transcrição ao vivo de reuniões via Zoom, dispararam com o ChatGPT e hoje já ameaçam entrar na seara da tradução simultânea e das dublagens de filme usando inclusive a voz real do ator, mas falado em outras quantas línguas forem necessárias (o quanto isso é um simulacro da realidade? O quanto isso é a realidade?).
Robôs escrevendo posts para redes sociais, nem se fala – eu mesma sou uma das maiores advogadas desse uso, como já disse aqui, pois acho que é melhor deixarmos os robôs trabalhando para robôs e nos livrarmos logo de sermos escravos dos algoritmos de redes sociais.
E, claro, não estou nem ainda falando da pesquisa em si, a busca de informação que já é feita por IA pelo Bing, da Microsoft, pelo menos; já há muito jornalista usando para aquela primeira pesquisa básica.
Fato é que estamos falando de uma indústria que já é tremendamente impactada, seja no produto final ou nas fases anteriores ao conteúdo que é efetivamente publicado. Fica a pergunta: onde começa o trabalho do ser humano e onde termina o trabalho da máquina?
Não apenas fica cada vez mais difícil categorizar o que é inteligência artificial; mas a distinção entre o que é produzido com inteligência artificial e o que não é torna-se cada vez mais nebulosa, cinzenta. Difícil traçar a linha divisória.
A única maneira ética de lidarmos com isso é termos uma conversa franca a respeito, dentro das redações, entre atores da indústria, mas, principalmente, com o leitor.
Fonte
O post “Jornalismo ciborgue: uso de IA deve ser debatido nas redações e com o leitor” foi publicado em 24/09/2023 e pode ser visto originalmente diretamente na fonte Agência Pública