O acesso dos usuários às informações sobre os conteúdos criados por inteligência artificial é um dos pontos centrais no combate ao uso dessa tecnologia a serviço de objetivos e interesses escusos. A conclusão é dos debatedores que participaram, nesta terça-feira (31), de audiência pública para debater a aplicação e as implicações da inteligência artificial nas eleições e na disseminação de informações. A audiência faz parte de uma série de debates promovidos pela Comissão Temporária sobre inteligência artificial no Brasil (CTIA).
O avanço dessas tecnologias é uma preocupação de diversos países e, no Brasil, um dos principais temores é o mau uso da IA nas eleições de 2024, em que serão disputados cargos nos mais de 5 mil municípios do país.
— São 5.570 municípios em que o Estado vai precisar estar preparado para responder a esses desafios da inteligência artificial. Nós temos, enquanto Estado, que dar uma resposta. A integridade da democracia está sob ameaça e o relógio está contando para nós tomarmos alguma atitude. Não podemos deixar para ver no que vai dar — alertou a professora Tainá Aguiar Junquilho, do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP).
Luciana Moherdaui, pesquisadora do Grupo Jornalismo, Direito e Liberdade, da Escola de Comunicação e Artes da Universidade de São Paulo (ECA/USP), citou as eleições presidenciais de 2024 nos Estados Unidos. Segundo ela, o presidente Joe Biden anunciou nesta semana uma ordem executiva com recomendações do governo americano sobre sistemas de IA. Entre elas está a inserção de marcadores para indicar que as imagens ou vídeos foram criadas com inteligência artificial. O problema, na visão da professora, é que as campanhas não se dão somente em âmbito oficial, o que torna difícil esse controle.
Uma das principais preocupações no contexto eleitoral é com o deepfake, que consiste em criar e manipular imagens para que elas simulem, muitas vezes de maneira bem convincente, a realidade. Com esse recurso é possível fazer um vídeo de uma pessoa falando algo que ela não falou ou fazendo algo que não fez. Como exemplo, a diretora de Projetos do Instituto de Tecnologia e Sociedade (ITS), Celina Bottino, citou casos de vídeos falsos de candidatos ofendendo seus oponentes e até do presidente da Ucrânia, Volodymyr Zelensky, pedindo que os cidadãos se rendessem à Rússia.
O lado bom da tecnologia também foi levantado. Diretor-Geral do Instituto Liberdade Digital (ILD), Diogo Rais lembrou que há inúmeras possibilidades em que a IA pode facilitar o ideal democrático de que as mensagens cheguem aos cidadãos. A dificuldade está em combater o desvirtuamento dessa ferramenta.
— Eu acho que a gente poderia perceber alguma dimensão positiva e democrática da inteligência artificial, mas talvez toda essa dimensão positiva talvez se transforme em negativa com o engano, com a manipulação ou até de coleta indevida de dados — lamentou o especialista, que também citou a produção de “fake news sob medida” para cada público.
Trasparência
Essa criação de conteúdos direcionados a alvos específicos também foi parte do alerta feito pela coordenadora do Comitê Gestor da Internet no Brasil (CGI), Renata Mielli, que apontou a falta de transparência como uma das questões centrais no debate sobre inteligência artificial. Para ela, a falta de informações sobre a origem e o mecanismo de processamento dos dados leva a uma ruptura no sistema de confiança entre sociedade e informação.
— Esses sistemas conseguem gerar mensagens diferentes sobre o mesmo assunto para milhões de pessoas. Em processos eleitorais elas vão ter uma tarefa e essa tarefa é buscar dissuadir e influenciar o voto de determinada pessoa, então não importa o conteúdo, importa o resultado. Essas ferramentas não têm uma ética, por mais que a gente possa pensar numa ética by design, elas não têm moral, elas não têm um compromisso com a verdade necessariamente, então isso é um desafio imenso.
Para a coordenadora, é preciso pensar não só em identificar os conteúdos como produzidos por IA, mas também informar quem produziu, com que finalidade e quem distribuiu. Esse conjunto de informações, para ela, é um caminho para dar poder de decisão a quem consome as informações.
O presidente da Associação Nacional de Jornais (ANJ), Marcelo Antônio Rech, afirmou que é preciso evitar repetir com a inteligência artificial os erros cometidos no início da internet, com a falta de transparência e de regulação. Além disso, ele afirmou ser essencial evitar a concentração desse desenvolvimento nas mãos de poucas empresas.
Outra questão citada por ele, especificamente com relação ao jornalismo, são os direitos autorais, já que boa parte do conteúdo do chat GPT, por exemplo, foi capturado de veículos de comunicação, sem nenhum tipo de autorização e sem pagamento, e já há processos em alguns países com cobrança de direitos autorais por esse conteúdo. Além disso, ele demonstrou preocupação com a responsabilização sobre a divulgação de conteúdos falsos.
— De quem é a responsabilidade legal quando alguém repassa uma informação difamatória, por exemplo, extraída de um modelo de desenvolvimento de inteligência artificial? É do desenvolvedor ou é de quem repassou? Quem repassou tem obrigação de saber que aquela informação é supostamente difamatória, caluniosa ou injuriosa? Esse desafio de quem tem a responsabilidade legal na origem, ele seguramente está criando um novo dilema para todos os parlamentos — alertou.
Projeto
Patrícia Blanco, presidente do Instituto Palavra Aberta, lembrou que a preocupação com a transparência é com os direitos dos cidadãos. Algumas dessas questões, segundo a especialista, já estão presentes no PL 2.338/2023, que regulamenta os sistemas de inteligência artificial no Brasil. Apresentado pelo senador Rodrigo Pacheco (PSD-MG), presidente do Senado, o projeto é resultado do trabalho de uma comissão de juristas que analisou, ao longo de 2022, outras propostas relacionadas ao assunto, além da legislação já existente em outros países.
— Tenho como sugestão de inclusão a questão da análise crítica do uso dessa ferramenta e de como a gente pode melhorar essa utilização da tecnologia a partir do pilar transparência, identificando claramente que determinados assuntos ou determinadas funções estão sendo mediadas por uma tecnologia com aprendizado de máquina, com inteligência artificial, com depuração de dados, e seguindo, também, outras questões — que para mim são fundamentais — que tratam dos direitos de todos nós, os cidadãos.
Para o secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República, João Caldeira Brant, é preciso fortalecer as regulações setoriais sobre temas como redes sociais, radiodifusão e regras eleitorais. A discussão, na visão do secretário, tem que ser sobre em que medida a norma de inteligência artificial vai entrar cobrindo lacunas e estabelecendo proteções gerais e até que ponto ela precisa estar subjugada a regulamentos específicos.
Tempo
A professora Dora Kaufman, da Pontifícia Universidade Católica de São Paulo (PUC-SP), lembrou que não há um marco regulatório sobre o tema em todo o ocidente, o que mostra sua complexidade. Ela lembrou que o marco regulatório da internet foi discutido por cinco anos e que o PL 2338 está sendo discutido á seis meses, o que é pouco tempo para um assunto dessa magnitude.
— Minha preocupação, no momento, é aprovarmos algo tão complexo que tenha pouca viabilidade, favorecendo a concentração de mercado em grandes empresas ou uma regulamentação tão generalista que seja inócua na missão de proteger a sociedade. Em suma, o que o que eu queria transmitir é que eu não creio que o tema da regulamentação já esteja suficientemente maduro no Brasil para estabelecer marco regulatório, apesar de eu ser absolutamente a favor de existir esse marco.
O senador Astronauta Marcos Pontes (PL-SP), que presidiu a audiência, lembrou que a comissão tem feito debates com diversos setores para ouvir diferentes perspectivas. Entre esses setores, ele citou as agências reguladoras e especialistas em proteção de dados.
O avanço dessas tecnologias é uma preocupação de diversos países e, no Brasil, um dos principais temores é o mau uso da IA nas eleições de 2024, em que serão disputados cargos nos mais de 5 mil municípios do país.
— São 5.570 municípios em que o Estado vai precisar estar preparado para responder a esses desafios da inteligência artificial. Nós temos, enquanto Estado, que dar uma resposta. A integridade da democracia está sob ameaça e o relógio está contando para nós tomarmos alguma atitude. Não podemos deixar para ver no que vai dar — alertou a professora Tainá Aguiar Junquilho, do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP).
Luciana Moherdaui, pesquisadora do Grupo Jornalismo, Direito e Liberdade, da Escola de Comunicação e Artes da Universidade de São Paulo (ECA/USP), citou as eleições presidenciais de 2024 nos Estados Unidos. Segundo ela, o presidente Joe Biden anunciou nesta semana uma ordem executiva com recomendações do governo americano sobre sistemas de IA. Entre elas está a inserção de marcadores para indicar que as imagens ou vídeos foram criadas com inteligência artificial. O problema, na visão da professora, é que as campanhas não se dão somente em âmbito oficial, o que torna difícil esse controle.
Uma das principais preocupações no contexto eleitoral é com o deepfake, que consiste em criar e manipular imagens para que elas simulem, muitas vezes de maneira bem convincente, a realidade. Com esse recurso é possível fazer um vídeo de uma pessoa falando algo que ela não falou ou fazendo algo que não fez. Como exemplo, a diretora de Projetos do Instituto de Tecnologia e Sociedade (ITS), Celina Bottino, citou casos de vídeos falsos de candidatos ofendendo seus oponentes e até do presidente da Ucrânia, Volodymyr Zelensky, pedindo que os cidadãos se rendessem à Rússia.
O lado bom da tecnologia também foi levantado. Diretor-Geral do Instituto Liberdade Digital (ILD), Diogo Rais lembrou que há inúmeras possibilidades em que a IA pode facilitar o ideal democrático de que as mensagens cheguem aos cidadãos. A dificuldade está em combater o desvirtuamento dessa ferramenta.
— Eu acho que a gente poderia perceber alguma dimensão positiva e democrática da inteligência artificial, mas talvez toda essa dimensão positiva talvez se transforme em negativa com o engano, com a manipulação ou até de coleta indevida de dados — lamentou o especialista, que também citou a produção de “fake news sob medida” para cada público.
Trasparência
Essa criação de conteúdos direcionados a alvos específicos também foi parte do alerta feito pela coordenadora do Comitê Gestor da Internet no Brasil (CGI), Renata Mielli, que apontou a falta de transparência como uma das questões centrais no debate sobre inteligência artificial. Para ela, a falta de informações sobre a origem e o mecanismo de processamento dos dados leva a uma ruptura no sistema de confiança entre sociedade e informação.
— Esses sistemas conseguem gerar mensagens diferentes sobre o mesmo assunto para milhões de pessoas. Em processos eleitorais elas vão ter uma tarefa e essa tarefa é buscar dissuadir e influenciar o voto de determinada pessoa, então não importa o conteúdo, importa o resultado. Essas ferramentas não têm uma ética, por mais que a gente possa pensar numa ética by design, elas não têm moral, elas não têm um compromisso com a verdade necessariamente, então isso é um desafio imenso.
Para a coordenadora, é preciso pensar não só em identificar os conteúdos como produzidos por IA, mas também informar quem produziu, com que finalidade e quem distribuiu. Esse conjunto de informações, para ela, é um caminho para dar poder de decisão a quem consome as informações.
O presidente da Associação Nacional de Jornais (ANJ), Marcelo Antônio Rech, afirmou que é preciso evitar repetir com a inteligência artificial os erros cometidos no início da internet, com a falta de transparência e de regulação. Além disso, ele afirmou ser essencial evitar a concentração desse desenvolvimento nas mãos de poucas empresas.
Outra questão citada por ele, especificamente com relação ao jornalismo, são os direitos autorais, já que boa parte do conteúdo do chat GPT, por exemplo, foi capturado de veículos de comunicação, sem nenhum tipo de autorização e sem pagamento, e já há processos em alguns países com cobrança de direitos autorais por esse conteúdo. Além disso, ele demonstrou preocupação com a responsabilização sobre a divulgação de conteúdos falsos.
— De quem é a responsabilidade legal quando alguém repassa uma informação difamatória, por exemplo, extraída de um modelo de desenvolvimento de inteligência artificial? É do desenvolvedor ou é de quem repassou? Quem repassou tem obrigação de saber que aquela informação é supostamente difamatória, caluniosa ou injuriosa? Esse desafio de quem tem a responsabilidade legal na origem, ele seguramente está criando um novo dilema para todos os parlamentos — alertou.
Projeto
Patrícia Blanco, presidente do Instituto Palavra Aberta, lembrou que a preocupação com a transparência é com os direitos dos cidadãos. Algumas dessas questões, segundo a especialista, já estão presentes no PL 2.338/2023, que regulamenta os sistemas de inteligência artificial no Brasil. Apresentado pelo senador Rodrigo Pacheco (PSD-MG), presidente do Senado, o projeto é resultado do trabalho de uma comissão de juristas que analisou, ao longo de 2022, outras propostas relacionadas ao assunto, além da legislação já existente em outros países.
— Tenho como sugestão de inclusão a questão da análise crítica do uso dessa ferramenta e de como a gente pode melhorar essa utilização da tecnologia a partir do pilar transparência, identificando claramente que determinados assuntos ou determinadas funções estão sendo mediadas por uma tecnologia com aprendizado de máquina, com inteligência artificial, com depuração de dados, e seguindo, também, outras questões — que para mim são fundamentais — que tratam dos direitos de todos nós, os cidadãos.
Para o secretário de Políticas Digitais da Secretaria de Comunicação Social da Presidência da República, João Caldeira Brant, é preciso fortalecer as regulações setoriais sobre temas como redes sociais, radiodifusão e regras eleitorais. A discussão, na visão do secretário, tem que ser sobre em que medida a norma de inteligência artificial vai entrar cobrindo lacunas e estabelecendo proteções gerais e até que ponto ela precisa estar subjugada a regulamentos específicos.
Tempo
A professora Dora Kaufman, da Pontifícia Universidade Católica de São Paulo (PUC-SP), lembrou que não há um marco regulatório sobre o tema em todo o ocidente, o que mostra sua complexidade. Ela lembrou que o marco regulatório da internet foi discutido por cinco anos e que o PL 2338 está sendo discutido á seis meses, o que é pouco tempo para um assunto dessa magnitude.
— Minha preocupação, no momento, é aprovarmos algo tão complexo que tenha pouca viabilidade, favorecendo a concentração de mercado em grandes empresas ou uma regulamentação tão generalista que seja inócua na missão de proteger a sociedade. Em suma, o que o que eu queria transmitir é que eu não creio que o tema da regulamentação já esteja suficientemente maduro no Brasil para estabelecer marco regulatório, apesar de eu ser absolutamente a favor de existir esse marco.
O senador Astronauta Marcos Pontes (PL-SP), que presidiu a audiência, lembrou que a comissão tem feito debates com diversos setores para ouvir diferentes perspectivas. Entre esses setores, ele citou as agências reguladoras e especialistas em proteção de dados.
Fonte: Agência Senado
O post “Transparência é questão central na discussão sobre IA, dizem debatedores” foi publicado em 31/10/2023 e pode ser visto original e