Durante audiência pública nesta segunda-feira (1), especialistas avaliaram que os riscos potenciais do uso de inteligência artificial não podem servir como pretexto para engessar a legislação e atrasar o avanço do setor no Brasil. Eles apresentaram à Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) sugestões ao marco legal de IA nacional, cujos projetos estão em análise na comissão, que deve apresentar um texto final antes do recesso parlamentar.
A reunião foi conduzida pelo vice-presidente da comissão, o senador Astronauta Marcos Pontes (PL-SP). Ele defendeu que a comissão opte por um texto menos restritivo ao desenvolvimento da indústria de IA no Brasil, principalmente pelas pequenas empresas. O senador acrescentou que a segurança cibernética é uma preocupação que deve estar presente desde o início do desenvolvimento de projetos de IA.
— É mais arriscado não usar a inteligência artificial do que usar — disse Pontes.
O presidente da Associação Brasileira de Inteligência Artificial (Abria), Rodrigo Scotti, disse que a entidade reúne 650 pequenas, médias e grandes empresas nacionais de IA. Em sua avaliação, os projetos em análise na comissão criam obrigações que podem afetar todos os setores produtivos brasileiros que já usam IA.
Ele sugeriu a revisão de certas exigências para que as micro empresas e as startups consigam operar no mercado com menos amarras jurídicas e menos burocracia.
— A gente está mais preocupado em gerar obrigações excessivas, antes dos fomentos necessários para desenvolver o Brasil e, ainda mais, desenvolver o Brasil com uma tecnologia que é apontada como uma das mais promissoras, se não a mais promissora do século, que é a inteligência artificial. Este é o momento para a gente parar e pensar para onde a gente quer que o Brasil vá — alertou Scotti.
Mateus Costa-Ribeiro, da empresa startup Talisman IA, disse que o texto debatido pela comissão é muito abstrato e ambíguo e pode prejudicar as startups brasileiras. Para ele, o Brasil está querendo regular a IA de maneira prematura, o que pode criar barreiras desnecessárias à inovação brasileira.
— O melhor lugar para a regulação da inteligência artificial é o tempo, a paciência. O ChatGPT foi lançado há menos de dois anos. (…) Não existe amadurecimento para o tema e eu acredito que há um risco grande de as startups serem prejudicadas, e não apoiadas, como é a intenção do Senado brasileiro — avaliou o empresário.
A representante do Comitê Nacional de Cibersegurança (CNCiber), Patricia Peck, também defendeu a necessidade de haver critérios de segurança cibernética desde o início para todos os projetos de IA. Para ela, a legislação a ser aprovada precisará estimular o uso e o fomento da tecnologia no Brasil.
— É extremamente importante que o marco legal possa trazer quais são os requisitos mínimos de fábrica que têm que ser observados, principalmente no tocante à cibersegurança — afirmou Patrícia.
A consultora do Movimento Brasil Competitivo (MBC), Ana Bialer, seguiu a mesma linha e defendeu que o marco legal de IA tenha um texto mais simples e menos restritivo.
— Uma coisa é proibir que um sistema seja desenvolvido, por exemplo, para fingir disseminar conteúdo de exploração sexual de crianças. Outra coisa é se proibir que qualquer sistema que possa eventualmente ser utilizado para disseminar esse tipo de conteúdo seja proibido. Não é muito diferente do exemplo já superbatido da faca. A faca não foi desenvolvida para matar. Ela pode ser usada por um ser humano mal-intencionado para matar — diferenciou a consultora.
O diretor da Associação Brasileira das Empresas de Software (Abes), Marcelo Almeida, alertou que “a IA não tem fronteiras”. O representante da Confederação Nacional da Indústria (CNI), Jefferson de Oliveira Gomes, disse que 80% dos processos industriais serão modificados pela IA nos próximos cinco anos.
O diretor-executivo da organização Conselho Digital, Felipe França, avaliou que a IA já está presente em praticamente todos os momentos das nossas vidas.
— É importante regular os riscos, não a tecnologia — defendeu França.
A CTIA tem como presidente o senador Carlos Viana (Podemos-MG) e, como relator, o senador Eduardo Gomes (PL-TO).
A reunião foi conduzida pelo vice-presidente da comissão, o senador Astronauta Marcos Pontes (PL-SP). Ele defendeu que a comissão opte por um texto menos restritivo ao desenvolvimento da indústria de IA no Brasil, principalmente pelas pequenas empresas. O senador acrescentou que a segurança cibernética é uma preocupação que deve estar presente desde o início do desenvolvimento de projetos de IA.
— É mais arriscado não usar a inteligência artificial do que usar — disse Pontes.
O presidente da Associação Brasileira de Inteligência Artificial (Abria), Rodrigo Scotti, disse que a entidade reúne 650 pequenas, médias e grandes empresas nacionais de IA. Em sua avaliação, os projetos em análise na comissão criam obrigações que podem afetar todos os setores produtivos brasileiros que já usam IA.
Ele sugeriu a revisão de certas exigências para que as micro empresas e as startups consigam operar no mercado com menos amarras jurídicas e menos burocracia.
— A gente está mais preocupado em gerar obrigações excessivas, antes dos fomentos necessários para desenvolver o Brasil e, ainda mais, desenvolver o Brasil com uma tecnologia que é apontada como uma das mais promissoras, se não a mais promissora do século, que é a inteligência artificial. Este é o momento para a gente parar e pensar para onde a gente quer que o Brasil vá — alertou Scotti.
Mateus Costa-Ribeiro, da empresa startup Talisman IA, disse que o texto debatido pela comissão é muito abstrato e ambíguo e pode prejudicar as startups brasileiras. Para ele, o Brasil está querendo regular a IA de maneira prematura, o que pode criar barreiras desnecessárias à inovação brasileira.
— O melhor lugar para a regulação da inteligência artificial é o tempo, a paciência. O ChatGPT foi lançado há menos de dois anos. (…) Não existe amadurecimento para o tema e eu acredito que há um risco grande de as startups serem prejudicadas, e não apoiadas, como é a intenção do Senado brasileiro — avaliou o empresário.
A representante do Comitê Nacional de Cibersegurança (CNCiber), Patricia Peck, também defendeu a necessidade de haver critérios de segurança cibernética desde o início para todos os projetos de IA. Para ela, a legislação a ser aprovada precisará estimular o uso e o fomento da tecnologia no Brasil.
— É extremamente importante que o marco legal possa trazer quais são os requisitos mínimos de fábrica que têm que ser observados, principalmente no tocante à cibersegurança — afirmou Patrícia.
A consultora do Movimento Brasil Competitivo (MBC), Ana Bialer, seguiu a mesma linha e defendeu que o marco legal de IA tenha um texto mais simples e menos restritivo.
— Uma coisa é proibir que um sistema seja desenvolvido, por exemplo, para fingir disseminar conteúdo de exploração sexual de crianças. Outra coisa é se proibir que qualquer sistema que possa eventualmente ser utilizado para disseminar esse tipo de conteúdo seja proibido. Não é muito diferente do exemplo já superbatido da faca. A faca não foi desenvolvida para matar. Ela pode ser usada por um ser humano mal-intencionado para matar — diferenciou a consultora.
O diretor da Associação Brasileira das Empresas de Software (Abes), Marcelo Almeida, alertou que “a IA não tem fronteiras”. O representante da Confederação Nacional da Indústria (CNI), Jefferson de Oliveira Gomes, disse que 80% dos processos industriais serão modificados pela IA nos próximos cinco anos.
O diretor-executivo da organização Conselho Digital, Felipe França, avaliou que a IA já está presente em praticamente todos os momentos das nossas vidas.
— É importante regular os riscos, não a tecnologia — defendeu França.
A CTIA tem como presidente o senador Carlos Viana (Podemos-MG) e, como relator, o senador Eduardo Gomes (PL-TO).
Fonte: Agência Senado
O post “Debatedores alertam: legislação muito rígida pode engessar IA brasileira” foi publicado em 01/07/2024 e pode ser visto original e