Home / Big techs fazem lobby contra regulação de inteligência artificial no Senado

Big techs fazem lobby contra regulação de inteligência artificial no Senado

Fonte: Folha de SP

14 de dezembro de 2023

Grandes empresas de tecnologia, como GoogleAmazon e Meta, vêm monitorando de perto as discussões do projeto de lei mais avançado em Brasília para regulação das ferramentas de inteligência artificial e têm trabalhado para mudar o rumo da discussão.

Em conversas diretas com parlamentares e em manifestos públicos de associações que representam o setor, as chamadas “big techs” expressam insatisfação com a proposta de regulação, que deve impôr limites aos negócios dessas companhias. O principal argumento dos opositores é que uma regulação estrita demais pode travar o desenvolvimento de IA no país.

Em discussão está o projeto de lei 2.338 de 2023, apresentado pelo presidente do SenadoRodrigo Pacheco (PSD-MG) em maio e o mais avançado dentre as várias propostas de regulação da inteligência artificial (IA) que tramitam no Congresso. Ainda não há data para o texto chegar ao plenário, e a proposta está em discussão na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) da Casa.

Manifestação clara da insatisfação com a regulação foi feita pela carta divulgada no último mês por entidades representativas de multinacionais de tecnologia, que formaram neste ano a Coalizão pela Inovação e Responsabilidade em Inteligência Artificial.

Assinam o texto, que tenta postergar a votação da proposta, a Camara-E Net —cujos vice-presidentes incluem executivos de Google, Amazon, Facebook, Mercado Livre e iFood—, a Abes (Associação Brasileira das Empresas de Software), a Abria (Associação Brasileira de Inteligência Artificial) e think tanks liberais, como o Instituto Millenium e o Instituto Livre Mercado.

No documento, pedem ao relator do projeto, Eduardo Gomes (PL-TO), prorrogue a comissão temporária, “continuem os diálogos legislativos a fim de aprimorar a redação do PL”, considere os padrões internacionais e promovam uma “regulação setorial e contextual, que não se torne obsoleta com os novos desenvolvimentos”

O debate é similar à discussão do PL 2630/2020 (o PL das Fake News), que aumenta a responsabilidade das empresas ao instituir o “dever de proteção.” Também em tramitação no Congresso, essa proposta foi alvo de fortes ataques das empresas de tecnologia. O Google, por exemplo, gastou mais de R$ 2 milhões em anúncios contra o projeto.

O texto do Senado é inspirado em projeto discutido no Parlamento Europeu e propõe criar um sistema de análise de risco e responsabilização objetiva. Após acordo entre o colegiado e os Estados-membros do bloco na última sexta (8), a proposta deve ir a plenário, com expectativa de aprovação, no início de 2024.

O rigor das normas variaria conforme o risco ligado ao uso de inteligência artificial. Ferramentas de reconhecimento de criminosos teriam risco excessivo e só poderiam ser usadas mediante previsão legal específica.

Em caso de seleção automatizada em vagas de emprego, o risco seria alto e a transparência precisaria de ser reforçada com explicação do funcionamento do algoritmo. Já os chatbots, como o ChatGPT, teriam risco baixo.

Loren Spíndola, líder do grupo sobre inteligência artificial na Abes, afirma que a associação defende defende regulamentações específicas por uso, como uso de IA para o reconhecimento facial, no setor da saúde ou no setor da aviação, com os órgãos reguladores que já existem para essas áreas. “É preciso ser de forma individualizada, porque os agentes envolvidos são diferentes”, diz.

Ela afirma que o PL em discussão no Senado faria do Brasil o local com lei mais restritiva do mundo, o que inibe o desenvolvimento tecnológico.

As big techs descartam o texto discutido no Senado e preferem a proposta já aprovada na Câmara dentro do PL 21/2020, que, segundo essas empresas, “não busca esgotar o tema, mas sim dar princípios, diretrizes e um ponto de partida para nossas autoridades setoriais infralegais”.

De relatoria da deputada Luísa Canziani (PSD-PR), o projeto foi aprovado com ampla margem na Câmara e enuncia princípios que deveriam guiar a aplicação da IA no país —respeito à dignidade humana, transparência nos algoritmos e proteção de dados pessoais.

Diferente do texto que agora está no Senado, essa proposta não impunha responsabilidades objetivas para as empresas desenvolvedoras e se mantém em linha com o Marco Civil da Internet.

O projeto foi apresentado antes da revolução causada pela inteligência artificial generativa, de ferramentas como o popular ChatGPT. Canziani diz à Folha que com o avanço dessa nova tecnologia “é muito importante que a gente tenha também regras mais claras e específicas acerca da regulação.”

À Folha o vice-presidente de Políticas Públicas da Amazon, Shannon Kellogg, disse que o braço da empresa de serviços de nuvem e inteligência artificial AWS tem preocupações com certos modelos regulatórios, como o europeu. “É bem mais restritivo. É preciso encontrar um equilíbrio entre os limites e a inovação.”

Em setembro, o presidente do Google Brasil, Fábio Coelho, afirmou na festa de 25 anos da empresa defender a existência de regulação no desenvolvimento de IA, mas disse que normas ruins atrapalham mais do que ajudam.

Em nota, o Google afirmou que os “governos têm um papel importante a desempenhar na maximização dos benefícios da IA e no gerenciamento de seus riscos” e que “reconhece a importância” do debate.

“Por isso, estamos dialogando com a sociedade civil, o Executivo e o Legislativo para colaborar com o aperfeiçoamento das propostas de criação de um Marco Regulatório de Inteligência Artificial no Brasil”

A Amazon afirmou que “acompanha o desenvolvimento das discussões” e que está empenhada “em continuar nossa colaboração para promover uma IA responsável”.

A AliExpress e a Meta não responderam aos pedidos de comentário da reportagem.

No outro lado da trincheira, entidades focadas em proteção de dados e privacidade na internet como a Data Privacy Brasil defendem a proposta no Senado em ampla análise divulgada no fim de novembro.

O diretor da entidade Bruno Bioni afirma que, mesmo se os países pioneiros em inteligência artificial —EUA e China— não adotem uma regulação cautelosa, grandes mercados como Brasil e União Europeia têm peso para influenciar a postura das empresas. “Não queremos travar o desenvolvimento e sim uma IA responsável.”

Bioni acrescenta que pode haver prejuízos para as empresas locais se o Brasil adotar um marco regulatório menos rigoroso do que a comunidade internacional. “Foi o que ocorreu com a indústria automotiva, quando era permitido vender carro sem cinto de segurança, sem retrovisor. As montadoras daqui não conseguiam exportar veículos para outros países”, diz.

Confira matéria na Folha de SP

Voltar para Início

Notícias Relacionadas

Fim dos cookies de terceiros: conheça novas soluções
Com a mais recente previsão do fim dos cookies de terceiros apenas para 2024, crescem os testes de soluções tecnológicas voltadas para a segmentação de anúncios online, sobretudo no que diz respeito à privacidade. Em substituição, o Google está desenvolvendo o Privacy Sandbox (GPS), que promete ser novo paradigma para a indústria programática baseada em […]
Brasil inclui, no G20, responsabilidade das big techs em combate à desinformação
À frente do G20 desde sexta-feira (1), o Brasil aproveitará sua presidência do grupo para colocar em discussão a responsabilidade das big techs sobre o discurso de ódio nas redes sociais e estratégias de combate à desinformação. Esse tema foi incluído nos grupos de economia digital do G20 para 2024. A Índia, que presidia até novembro […]

Receba a newsletter no seu e-mail