Um chatbot cujo aprendizado foi baseado em redes sociais e foi desenvolvido por uma startup da Coréia do Sul foi desativado na terça -feira depois que os usuários reclamaram que ele declarou vulgaridades e discursos de ódio.
O destino do serviço coreano foi semelhante ao do Microsoft Chatbot Tay, faltando em 2016 devido aos tweets racistas e sexistas que ele enviou, o que fez perguntas éticas sobre o uso da tecnologia de inteligência artificial (IA IA) e como evitar abusos.
Propaganda
O Laboratório de Setter Startups Korean Startups disse na segunda -feira que o AI Chatbot pendurou temporariamente. Ele pediu desculpas pelos comentários discriminatórios e odiosos que ele enviou e pela “falta de comunicação” em relação à maneira como a empresa usou os dados de seus clientes para treinar o bot para falar como humano.
A startup projetou Lee Luda, o nome de Chatbot, para ser uma estudante universitária de 20 anos que é fã das meninas do KirlPink K-pop.
O serviço foi lançado no final de dezembro com uma grande fanfarra e aprendeu a falar de uma análise de gravações antigas de bate -papo adquiridas por meio de um aplicativo para telefones celulares da mesma empresa, chamado Science of Love.
Ignorando que suas informações eram a fonte do aprendizado de bot, alguns usuários planejaram registrar uma queixa coletiva contra a empresa.
Antes de o bot ser desativado, os usuários disseram ter recebido respostas ao ódio quando interagem com Luda. Michael Lee, crítico de arte da Coréia do Sul e ex -ativista LGBTQ, compartilhou capturas de tela que mostram que Luda disse “nojento” em resposta a uma pergunta sobre lésbicas.
Outro usuário, Lee Kwang-suk, professor de políticas públicas e tecnologia da informação da Universidade Nacional de Ciências e Tecnologia de Seul, compartilhou capturas de tela de uma conversa em que Luda chamou o Black Heukhyeong, que significa “irmão negro”, um insulto racial no sul Coréia. Há também imagens que o bot disse: “Que nojento, eu realmente as odeio”, em resposta a uma pergunta sobre pessoas trans. O robô terminou a mensagem com um emoticon que chora.
Propaganda
Na declaração de segunda -feira, o Scatter Lab se defendeu e disse: “Não concordamos com os comentários discriminatórios de Luda, e esses comentários não refletem as idéias da empresa”.
“Luda é como um bebê AI que acabou de começar a conversar com as pessoas. Ele ainda tem muito a aprender. Luda aprenderá a julgar qual é uma resposta melhor e mais apropriada “, disse a sociedade.
Mas muitos usuários culparam completamente o negócio.
Lee, o professor da TI, disse à VICE que a empresa era responsável pelo abuso e comparou o caso com a desativação da Microsoft de seu chatbot Tay.
Outro usuário, Lee You-Seok, que participou de um teste beta em Luda em julho antes de seu lançamento oficial, disse ao VICE que o resultado era “previsível”.
Algumas pessoas disseram que o desastre não foi uma surpresa, dada a proporção entre homens e mulheres da empresa. Uma página no site da empresa sugeriu que cerca de 90% das pessoas que participaram do desenvolvimento do bot eram homens. A página foi excluída logo depois.
Além disso, algumas comunidades on -line com um homem de predominância discutiram abertamente como “escravizar” o robô da IA e compartilhar seus métodos para “assediá -lo” sexualmente, na esperança de trazer Luda para fazer comentários sexuais.
Alguns políticos e defensores dos direitos aproveitaram a oportunidade para solicitar um projeto de lei contra a discriminação, que visa proibir qualquer discriminação baseada em sexo, deficiência, idade, idioma, país de origem, país de origem, país de origem e orientação sexual.
O projeto de lei contra discriminação poderia ser usado para tornar os desenvolvedores de software de inteligência artificial responsáveis pelo abuso, disse ele ao Vice Ahn Byong-jin, professor da Universidade Kyunghee em Seul. “As empresas devem consultar um filósofo ou um especialista em ética antes de lançar um serviço para evitar esses abusos”, afirmou.
fonte: https://www.vice.com/es/article/akd4g5/desactivan-chatbot-inteligencia-artificial-despues-aprender-discurso-racista