Home / Grupo focado em ética digital diz que GTP-4 é um risco à segurança pública

Grupo focado em ética digital diz que GTP-4 é um risco à segurança pública

Fonte: Fast Company

5 de abril de 2023

O Centro de IA e Política Digital (CAIDP) apresentou queixa em nível federal, alimentando uma onda de críticas contra a nova IA generativa

Um grupo de ética dedicado a debater a inteligência artificial declarou que o GPT-4 é “um risco para a segurança pública” e insiste para que o governo dos EUA investigue a fabricante OpenAI, acusada de colocar os consumidores em perigo.

O Centro de IA e Política Digital (CAIDP, na sigla em inglês) apresentou essa reclamação à Comissão Federal de Comércio (FTC) na última quinta-feira, 30 de março depois de ter lançado uma carta aberta pedindo uma proibição temporária de toda a IA generativa.

Cerca de 1,2 mil pesquisadores, executivos de tecnologia e outros profissionais da área assinaram a carta – incluindo o cofundador da Apple, Steve Wozniak, e (o que é bastante curioso) o cofundador da OpenAI, Elon Musk. 

O documento defende uma pausa mínima de seis meses no progresso tecnológico, a fim de oferecer à humanidade a chance de dar um passo para trás e fazer uma análise do custo-benefício dessa tecnologia que está se desenvolvendo em um ritmo vertiginoso e fazendo tanto sucesso.

Marc Rotenberg, presidente do CAIDP, estava entre os signatários da carta. O grupo vai além, e defende que a FTC é o órgão que deveria avaliar o GPT-4 – produto que apresenta uma responsabilidade séria, a ponto de a própria fabricante OpenAI ter reconhecido seu potencial de abuso em categorias como “desinformação”, “proliferação de armas convencionais e não convencionais” e “cibersegurança”.

“A Comissão Federal de Comércio (FTC) declarou que o uso da inteligência artificial deve ser ‘transparente, explicável, justo e empiricamente sólido, ao mesmo tempo em que promova a responsabilidade’”, diz a queixa. “O produto GPT-4 da OpenAI não satisfaz nenhum desses requisitos”, acrescenta, antes de chamar o governo à ação. “É hora de a FTC agir”.

Riscos pontencias

Na reclamação do CAIDP, os supostos perigos do GPT-4 incluem o potencial de produzir códigos maliciosos, reforçar discursos de ódio – desde estereótipos raciais até discriminação de gênero – e expor os históricos do ChatGPT dos usuários (o que já aconteceu uma vez), incluindo detalhes de pagamentos.

O grupo argumenta que a OpenAI violou as regras de práticas comerciais desleais e enganosas do FTC Act, e que o FTC também deveria examinar as chamadas alucinações do GPT-4 – quando a IA insiste falsa e repetidamente que um fato inventado é real – porque a ferramenta se baseia em “declarações comerciais e publicidade enganosas”.

O CAIDP argumenta que a OpenAI lançou o GPT-4 para uso comercial “com pleno conhecimento desses riscos”, e que, por isso, uma resposta regulatória é necessária.

Para resolver esses problemas, o CAIDP pede à FTC que proíba a implantação comercial adicional do modelo GPT e que exija uma avaliação independente. O centro também quer que o governo crie uma ferramenta de denúncia pública, parecida com a que os consumidores usam para registrar reclamações de fraude.

O GPT-4 atraiu seguidores quase fanáticos em certos círculos tecnológicos – um fervor que provavelmente ampliou o sentimento, entre os críticos, de que era necessário ligar o alerta vermelho sobre a onipresença da IA generativa na nossa cultura.

Além disso, a maneira como a OpenAI se comporta também deu munição aos críticos. A organização não trabalha com código aberto, então é uma caixa preta, e alguns reclamam disso.

Outros observam que ela está reproduzindo os piores padrões da tecnologia nas áreas visíveis, como usar trabalhadores quenianos que ganham menos de US$ 2 por hora para tornar o ChatGPT menos tóxico e se esconder atrás do título de “laboratório de pesquisa” para evitar pedidos de maior supervisão.

A OpenAI entendeu esses ataques e parece que até previa que esse dia ia chegar.  Por um tempo, o CEO, Sam Altman, tem abordado os medos mais amplos de que a IA esteja sendo liberada, admitindo que “as ferramentas da geração atual não são tão assustadoras”, mas que “não estamos tão longe de criar ferramentas potencialmente assustadoras”. Ele reconheceu que “a regulamentação será crucial”.

Enquanto isso, Mira Murati, que, como diretora de tecnologia lidera a estratégia por trás de como testar as ferramentas da OpenAI em público, declarou à Fast Company, quando questionada sobre o GPT-4, logo antes de seu lançamento: “acho que menos hype faria bem”.

Confira matéria na Fast Company

Voltar para Início

Notícias Relacionadas

Mercado publicitário cria cargos de liderança focados em IA
Para além de aplicada nos processos, a inteligência artificial, também conhecida pela sigla IA, está assumindo postos nos cargos de liderança. No mercado de comunicação, o movimento se faz presente em grandes empresas de mídia, anunciantes e agências. Na semana passada, o Grupo Exame nomeou Miguel Fernandes para o cargo de Chief Artificial Intelligence Officer (CAIO). Sua […]
IA como ferramenta de marketing: quais os desafios e benefícios
A revolução tecnológica tem impulsionado a integração da Inteligência Artificial (IA) em diversos setores, e o marketing não é exceção. A aplicação da tecnologia como uma ferramenta de marketing oferece inúmeras oportunidades para acelerar a descoberta de informações que personalizam campanhas e aperfeiçoam o atendimento ao cliente. No entanto, é crucial que os controles adequados […]

Receba a newsletter no seu e-mail