DeepMind diz que não tinha nada a ver com artigo de pesquisa dizendo que IA poderia acabar com a humanidade

Imagem: NurPhoto / Colaborador via Getty Images

Depois que um pesquisador com um cargo na DeepMind – a empresa de inteligência de máquinas de propriedade da Alphabet, controladora do Google – co-autor de um artigo alegando que a IA poderia acabar com a humanidade um dia, a DeepMind está se distanciando do trabalho.

O artigo foi publicado recentemente na revista peer-reviewed Revista AI, e foi coautoria de pesquisadores da Universidade de Oxford e de Marcus Hutter, um pesquisador de IA que trabalha na DeepMind. A primeira linha do site de Hutter afirma o seguinte: 'Sou Pesquisador Sênior do Google DeepMind em Londres, e Professor Honorário na Research School of Computer Science ( RSCS ) na Universidade Nacional Australiana ( coisaumajig ) em Camberra.' O jornal, que atualmente lista sua afiliação à DeepMind e à ANU, passa por alguns experimentos de pensamento sobre o futuro da humanidade com uma IA superinteligente que opera usando esquemas semelhantes aos programas de aprendizado de máquina atuais, como a busca de recompensas. Concluiu que esse cenário poderia irromper em um jogo de soma zero entre humanos e IA que seria 'fatal' se a humanidade perdesse.

Depois que a placa-mãe foi publicada um artigo Neste artigo com o título “Coautores do Google Deepmind Researcher Paper dizendo que a IA eliminará a humanidade”, a empresa decidiu se distanciar do artigo e pedir à Motherboard que removesse a menção à empresa. Em uma declaração à Motherboard, a DeepMind alegou que a afiliação estava listada em 'erro' e estava sendo removida (não foi no momento da redação), e que a contribuição de Hutter estava apenas sob a bandeira de sua posição na universidade.

'O DeepMind não estava envolvido neste trabalho e os autores do artigo solicitaram correções para refletir isso', disse um porta-voz do DeepMind ao Motherboard por e-mail. professores universitários e buscam pesquisas acadêmicas separadas de seu trabalho na DeepMind, por meio de suas afiliações universitárias.”

O porta-voz disse que, embora a DeepMind não esteja envolvida no artigo, a empresa investe esforços na proteção contra os usos nocivos da IA ​​e pensa “profundamente sobre a segurança, ética e impactos sociais mais amplos da IA ​​e pesquisa e desenvolve modelos de IA que são seguros. , eficaz e alinhado com os valores humanos.”

A DeepMind se recusou a comentar se concordava com as conclusões do artigo de coautoria de Hutter.

Michael Cohen, um dos coautores do artigo, também pediu à Motherboard uma correção semelhante. A política editorial da Motherboard é não corrigir um título a menos que contenha um erro factual.

Embora a empresa diga que está comprometida com a segurança e a ética da IA, mostrou anteriormente que, quando as críticas são um pouco fortes demais de pessoas com cargos na empresa – independentemente de também terem compromissos externos – fica muito feliz em cortar e correr.

Por exemplo, em 2020, o proeminente pesquisador de IA Timnit Gebru – que, na época, tinha um cargo no Google – foi coautor de um artigo sobre considerações éticas em grandes modelos de aprendizado de máquina. O Google exigiu que ela removesse seu nome da publicação e a retirasse, e finalmente a demitiu . A demissão de Gebru levou os funcionários do Google a publicar um blog explicando os detalhes que levaram à demissão, incluindo que o documento foi aprovado internamente; só depois que veio aos olhos do público o Google decidiu que não poderia ser associado ao trabalho e exigiu que fosse retirado da situação. Quando não conseguiu, a empresa liberou a Gebru.

Em resposta à primeira história da Motherboard sobre o papel, Gerbu tuitou que quando ela perguntou ao Google se ela poderia adicionar seu nome ao documento de ética da IA ​​que eventualmente a levou a ser demitida com uma afiliação que não era o Google, ela “foi recebida com risadas”.

Margret Mitchell, outra especialista em ética da IA ​​que foi demitida do Google ao mesmo tempo que Gerbu tuitou que o Google disse a eles que, enquanto eles trabalhassem na empresa, o Google “tinha uma opinião completa sobre o que publicamos”.

Ter múltiplas afiliações dentro da academia e do setor privado é relativamente normal, e vem com seu próprio conjunto de preocupações éticas relacionadas com a longa história das corporações de capturar a academia para produzir pesquisas favoráveis. O que o Google mostrou é que vai explorar essa divisão embaçada para se livrar das críticas quando for conveniente para a empresa.