Na segunda -feira, 7 de dezembro, uma equipe de funcionários do Google publicou uma carta explicando os eventos que levaram à demissão do Google pelo Dr. Timnit Gebru, um pesquisador ético excepcional de inteligência artificial cujo trabalho ajudou a revelar os preconceitos raciais nos algoritmos de reconhecimento facial.
Gebru foi co-autor, bem como pesquisadores da Universidade de Washington, de um artigo acadêmico sobre as considerações éticas dos modelos de aprendizagem automática. O artigo, depois de ser aprovado internamente, foi enviado para uma apresentação em uma conferência. Segundo Gebru, o Google se opôs ao documento e pediu que ele retirasse seu nome ou retirasse. Em resposta, a Gebru detalhou as condições que o Google queria cumprir para que permaneça na empresa, incluindo a transparência em termos de exame interno do documento, em troca da eliminação de seu nome. Se a empresa recusasse, as partes negociariam uma data para que possa sair. No entanto, ele foi demitido logo depois, depois de enviar um e -mail sobre a situação para o software de distribuição de mensagens internas, mais conhecido como ListServ.
Propaganda
Jeffrey Dean, chefe de inteligência artificial do Google, disse publicamente que Gebru renunciou. Mas isso não corresponde às declarações de Gebru, ou com o fato de que seu chefe imediato, Samy Bengio, não estava ciente de sua demissão. Além disso, a lei da Califórnia diz que um trabalhador é considerado rejeitado se ele expressar sua intenção de renunciar e estabelecer uma data para fazê -lo, e depois for rejeitado imediatamente, quando chegou a Gebru.
O Vice obteve uma cópia do documento, segundo a qual a Gebru foi co-autor antes do Google rejeitá-lo. O artigo lida com modelos de grandes idiomas, que são algoritmos de aprendizado automático com bilhões de parâmetros. O artigo examina os riscos de vieses humanos perpetuados por conjuntos de dados maciços e potencialmente incompreensíveis, emissões de carbono associadas ao aprendizado de modelos de idiomas e esforços de pesquisa que desenvolvem modelos para manipular e imitar a linguagem humana, em vez de entendê -lo.
Os modelos de aprendizado automático tornaram -se maiores ao longo dos anos e também mais capazes com treinamento menos supervisionado. O modelo OpenAI GPT-3, por exemplo, possui 175 bilhões de parâmetros e pode produzir texto convincente a partir de uma breve instrução. Enquanto isso, o Google usa grandes modelos de aprendizado automático em seus produtos. Essas novas capacidades são impressionantes, mas os especialistas estão preocupados com vieses (raciais, gêneros ou outros) que esses modelos poderosos podem adotar seus dados básicos de treinamento.
Propaganda
“Qual é o tamanho muito grande?” Esta é uma pergunta que o artigo fez desde o início de sua sinopse. “É importante entender os limites dos modelos de linguagem e colocar seu sucesso em seu contexto. Pesquisas que não dependem necessariamente de modelos de linguagem mais amplos”.
Gebru queria apresentar o artigo em uma conferência de computadores em março e enviou para o exame interno em 7 de outubro, um dia antes de ser aprovado. Dean disse em comunicado que as equipes de pesquisa são obrigadas a enviar os artigos para a revista duas semanas antes da opinião, mas a carta publicada pelo Google Sald para uma mudança real – o grupo por trás dos eventos mundiais de 2018 para a má administração de casos de casos dos casos o assédio sexual da empresa – explica que os dados coletados em periódicos e aprovações internos mostram que a maioria ocorre pouco antes do prazo, enquanto 41% ocorrem posteriormente. Então, as ações de Gebru não eram anormais.
“Não há dúvida de que, por qualquer motivo, a censura da investigação foi usada para retaliar contra Timnit e seu trabalho”, disse ele ao Vice Meredith Whittaker, diretor da Faculdade do Instituto do Now. “Acho que não há dúvida de que modelos de linguagem em grande escala são uma das maneiras mais lucrativas de IA usadas em tecnologias fundamentais, como a pesquisa. O Google tem o interesse das empresas para garantir que elas possam continuar a usar essas tecnologias e obter isso A renda sem ter que fazer o tipo de mudanças estruturais fundamentais que eles deveriam fazer se realmente ouvirem seus pesquisadores em ética, como Timnit “.
Propaganda
Em 2018, a divisão de inteligência artificial do Google criou seu próprio modelo de grande linguagem, Bert, que foi finalmente incorporado em sua tecnologia de pesquisa, que por si só gerou receita de US $ 26,3 bilhões no curso do último período fiscal de quatro meses. Siga as sugestões de um artigo como a Gebru – que mantém que modelos importantes de idiomas têm riscos significativos e se tornam imperativos demais para corrigi -los – forçariam o Google a deixar de lado os benefícios em favor do desenvolvimento de modelos menores e menos de língua prejudiciais?
Audrey Beard, pesquisadora da Tecnologia Crítica e Coalizão de Aprendizagem Automática, sugere que, neste caso, o Google opte pelos lucros.
“O aprendizado automático foi orientado para um maior desempenho, que os co-autores apontaram”, disse Beard ao VICE depois de analisar o artigo. “Esse é o padrão de fato da maneira pela qual os pesquisadores de inteligência artificial avaliam as contribuições de seus desenvolvimentos para problemas técnicos muito específicos, que são fornecidos para pesquisas rápidas e fáceis de avaliar. Nós, pesquisadores de aprendizado automático, hemos hecho un muy muy buen Trabajo al Traducir Esos Cálculos Al Espacio Operivo de Los Problas Empresariales, Las Soluciones y las Empreas louváveis; Camo ejemplo tenemos equageo de Google para ele cóputo em Nubo enfocado em los conselhos Quando esses recursos são vendidos para pessoas que criam aplicativos, mas não querem um computador no local “.
Propaganda
Tudo isso é amplificado pelo fato de que os pesquisadores, especialmente no Google, se tornaram cada vez mais dependentes das empresas para fornecer suporte na formulação de perguntas de pesquisa e na busca de respostas. Surgiu um problema semelhante na economia colaborativa (economia de concertos), onde empresas como a Uber se recusam a compartilhar dados sobre operações que têm um impacto significativo na vida cotidiana dos motores e passageiros anexados a seus serviços. E quando certos dados são revelados, é um movimento engenhoso de relações públicas ou um fragmento tendencioso (e secreto) destinado a pesquisadores, cujos resultados não podem ser examinados corretamente. Como esperado, esse tipo de pesquisa geralmente reafirma as posições das empresas em questão.
“Eu também acredito que tudo o que aconteceu neste caso específico, o problema geral que destacou é que essas empresas podem excluir todas as pesquisas que desejam, elas podem lutar contra pessoas que chegam a conclusões que não parecem práticas por qualquer motivo , “Whittaker disse ao Vice. “Acho que isso nos leva ao ponto de considerar por que devemos confiar nessas empresas e instituições para criar essa forma de conhecimento, levando em consideração os interesses públicos envolvidos e considerando, acima de tudo, a importância que essas tecnologias adquirem na vida todos os dias e os riscos significativos que isso implica. “”
Propaganda
Whittaker sugere que novos fóruns de pesquisa – seja um retorno à Academia, com mais fundos públicos e pesquisas sobre pesquisa ou uma maior participação em fundações filantrópicas – podem melhorar as coisas, bem como “padrões de integridade na pesquisa” no Google e em todo o setor privado para impedir as empresas de converter pesquisas em propaganda; Mas ele acrescentou que isso não é suficiente.
A demissão de Gebru deve destacar o fato de que os pesquisadores e funcionários da Universidade do Google devem se sindicular para alcançar maior poder e autonomia em seu próprio local de trabalho, disse ele.
“É um catalisador”, disse Whittaker. “Cada vez mais funcionários de elite – trabalhadores acadêmicos e tecnológicos que se identificam em seu lugar em uma hierarquia e que se identificam mais com os chefes – percebem que foram convidados para a mesa, mas que não é a mesa deles. Eles podem ter certeza Privilégios, mas esse privilégio termina quando não agradam às pessoas que tomam repetidamente decisões que muitos desses funcionários não podem apoiar moral e ética. “”
Nos últimos anos, milhares de funcionários do Google participaram de grandes manifestações e ações por ocasião de gerenciar mal queixas de agressão sexual, contratos com agências governamentais, represálias contra aqueles que organizam funcionários e recentemente a demissão de Gebru. A partir de agora, um pedido do Google Salakout Group possui assinaturas de 2.040 funcionários do Google e 2.658 apoiadores da Academia, grupos da sociedade da indústria e sociedade civil.
O Google não respondeu à solicitação de comentários de vice.
fonte: https://www.vice.com/es/article/epdpwn/despido-especialista-etica-muestra-limites-eticos-google