RNPOLITICAEMDIA2012.BLOGSPOT.COM

terça-feira, 29 de dezembro de 2020

GOOGLE CENSURA PESQUISADORES E PEDE QUE EVITEM VISÕES NEGATIVAS SOBRE SUA INTELIGÊNCIA ARTIFICIAL

Segundo documentos e cientistas, gigante das buscas tentou aumentar o controle sobre publicações em 2020
OAKLAND, Estados Unidos - O Google agiu neste ano para ampliar o controle sobre pesquisas publicadas por seus cientistas, fazendo uma revisão sobre tópicos sensíveis. Em pelo menos três casos, pediu aos autores para evitarem manifestar uma visão negativa sobre a tecnologia da empresa, segundo documentos internos e conversas com pesquisadores envolvidos no trabalho.

O Google pede para que os pesquisadores consultem equipes jurídica e de relações públicas antes de avançarem sobre tópicos que envolvam análise de rostos e sentimentos e categorizações de raça, gênero e afiliação política, segundo documentos internos da empresa que explicam a norma.

"Avanços na tecnologia e o crescimento da complexidade de nosso ambiente externo estão cada vez mais levando a situações onde projetos aparentemente inofensivos criam questões éticas, computacionais, revogatórias ou jurídicas", afirma uma das páginas do documento voltado à equipe de pesquisa da empresa.

A Reuters não pode determinar a data da publicação, embora três funcionários da empresa afirmem que a política começou a ser aplicada em junho. Representantes do Google não comentaram o assunto.

O procedimento em torno dos "tópicos sensíveis" adiciona uma camada de análise ao processo padrão de revisão das pesquisas que busca encontrar problemas como possível divulgação de segredos comerciais da empresa, disseram oito funcionários e ex-trabalhadores do Google. 

Em alguns projetos, representantes do Google chegaram a intervir em estágios finais da publicação. Um gestor sênior do Google revisou um estudo sobre tecnologia de recomendação de conteúdo antes de sua publicação e disse aos autores para "prestarem muita atenção para darem um tom positivo", segundo comunicação interna vista pela Reuters.

O gestor adicionou: "Isso não significa que devemos nos esconder dos desafios reais" criados pela tecnologia.

Mensagens subsequentes de um cientista para os revisores da empresa mostram que os autores de um estudo "removeram todas as referências aos produtos do Google". Um rascunho do documento visto pela Reuters fazia menção ao YouTube.

Quatro cientistas da empresa, incluindo a pesquisadora sênior Marraste Mitchell, afirmaram que acreditam que o Google está começando a interferir em estudos importantes sobre potenciais perigos da tecnologia. 

"Se pesquisamos um assunto de nossa expertise e não podemos publicar isso porque não está em linha com uma revisão de alto nível de nossos pares, então estamos nos metendo em um problema sério de censura", disse Mitchell.

O Google afirma em seu site público que seus cientistas gozam de "substancial" liberdade.

Disputas entre o Google e alguns de seus funcionários se tornaram públicas neste mês, após a saída abrupta da especialista em ciência de computação Tilinta Gebru, que liderava uma equipe de 12 pessoas com Mitchell, focada em ética de software de inteligência artificial (IA).

Gebru afirma que o Google a demitiu após ela questionar uma ordem de não publicar um paper que afirma que ferramentas de IA que imitam a fala podem deixar em desvantagem populações marginalizados. O Google afirmou que aceitou o pedido de demissão da cientista. Não foi possível determinar se a pesquisa de Gebru passou pelo processo de revisão de "temas sensíveis".

O vice-presidente sênior do Google Jeff Jean afirmou neste mês que a pesquisa que Gebru queria publicar lidava sobre potenciais prejuízos da tecnologia, sem discutir os esforços da companhia para resolvê-la. 

Jean acrescentou que o Google apoia bolsas de estudo em ética de IA e que "está ativamente trabalhando para melhorar nossos processos de revisão de papes porque sabemos que muitos controles podem se tornar obstáculos".

O crescimento de pesquisa e desenvolvimento de IA pela indústria de tecnologia tem levado autoridades nos EUA e em outros países a propor regras para seu uso. Alguns citam que estudos científicos mostram que softwares de análise facial e outras ferramentas de IA podem perpetuar preconceitos ou subverter a privacidade.

Nos últimos anos, o Google incorporou IA em seus serviços, usando a tecnologia para interpretar dados complexos de buscas, decidir recomendações de vídeos no YouTube. Os cientistas da empresa publicaram mais de 200 papers no ano passado sobre desenvolvimento de responsabilidade para IA, entre mais de 1 mil projetos no total, afirmou Jean.

LEIA MATÉRIA COMPLETA AQUI

Fonte: Reuters/O Globo

Nenhum comentário:

Postar um comentário

COMENTÁRIO SUJEITO A APROVAÇÃO DO MEDIADOR.