Os funcionários do Google imploraram à empresa para não lançar sua própria versão do ChatGPT, apoiado pela Microsoft, pois acreditavam que o chatbot chamado Bard era "inútil" e não estava pronto para uso geral, revelou um novo relatório.

O modelo de linguagem AI do Google foi apelidado de "mentiroso patológico" pelos funcionários, conforme mensagens internas, informou a Bloomberg na quarta-feira. O canal conversou com 18 ex-funcionários e atuais do Google , que revelaram como os funcionários estavam preocupados não apenas porque Bard era "mais do que inútil", mas devido a questões éticas.

Um funcionário disse que as respostas de Bard a perguntas sobre mergulho "provavelmente resultariam em ferimentos graves ou morte", enquanto outro funcionário disse que o rival do ChatGPT forneceu conselhos perigosos sobre pouso de avião. Bloomberg acrescentou que os funcionários se referiram ao chatbot como "digno de vergonha".

"Bard é pior do que inútil: por favor, não lance", disse um funcionário, segundo a Bloomberg. O veículo também parafraseou depoimentos de atuais e ex-funcionários sobre o Google "fornecendo informações de baixa qualidade em uma corrida para acompanhar a concorrência, dando menos prioridade aos seus compromissos éticos".

Funcionários antigos e atuais disseram à Bloomberg que a equipe de ética do Google tornou-se "desempoderada e desmoralizada", pois foi "instruída a não atrapalhar ou tentar matar qualquer uma das ferramentas de IA generativas em desenvolvimento".

Brian Gabriel, porta-voz do Google, disse à Bloomberg que a empresa continua investindo "em equipes que trabalham na aplicação de nossos Princípios de IA à nossa tecnologia".

Na pesquisa do The Verge comparando o Bing da Microsoft, o ChatGPT da OpenAI e o Bard do Google, o outlet descobriu que, quando perguntado sobre uma receita de bolo de chocolate, Bard fez "algumas mudanças que afetam significativamente o sabor" e também subestimou o tempo de cozimento do bolo.

A pesquisa comparativa também revelou que Bard apresentou "uma série bizarra de erros" ao responder a uma pergunta sobre o salário médio de um encanador na cidade de Nova York. Quando questionado sobre um plano de treinamento para a maratona, Bard deu uma estratégia "confusa", de acordo com The Verge.

Em fevereiro, os funcionários do Google usaram o fórum interno Memegen para expressar suas opiniões sobre o lançamento do Bard. Alguns funcionários se referiram ao trabalho do Google em Bard como "apressado" e malfeito", de acordo com mensagens e memes vistos pela CNBC .

Um meme altamente cotado no fórum afirmou que a liderança do Google estava "sendo comicamente míope e não-Google em sua busca por 'foco aguçado'", de acordo com a CNBC. Outro meme disse que "correr Bard para o mercado em pânico validou o medo do mercado sobre nós".

O Google abriu o acesso ao Bard para consumidores nos EUA e no Reino Unido no mês passado, à medida que a corrida pelo domínio da IA acontecia entre grandes empresas de tecnologia. Na época, o diretor sênior de produtos do Google, Jack Krawczyk, disse que os testadores internos e externos usaram o Bard para "aumentar sua produtividade, acelerar suas ideias, realmente alimentar sua curiosidade", informou a Reuters.

Durante uma demonstração de como Bard funcionava, um aviso pop-up alertou que o chatbot "nem sempre acertará" e a empresa também destacou à Reuters alguns dos erros que Bard cometeu na demonstração, incluindo uma instância em que o chatbot produziu nove parágrafos em vez de quatro.

Em 2021, o Google anunciou uma reestruturação de suas equipes de IA responsáveis depois que Timnit Gebru, que codirigiu a equipe de IA ética da empresa, revelou que foi demitida abruptamente. Margaret Mitchell, contraparte de Gebru, também foi demitida mais tarde, informaram vários meios de comunicação.

Gebru estava trabalhando em um artigo que explicava os perigos por trás de grandes modelos de processamento de linguagem como ChatGPT e Bard antes de ser dispensada. Ela foi convidada pela vice-presidente de Pesquisa do Google, Megan Kacholia, a retratar a publicação do jornal, mas Gebru disse que a empresa deveria ser mais transparente, de acordo com The Verge. Gebru teria sido demitida depois que ela recuou contra a ordem.

Após a remoção de Gebru, a equipe de IA do Google escreveu uma carta à liderança, afirmando que "palavras que não são combinadas com ação são sinais de virtude; elas são prejudiciais, evasivas, defensivas e demonstram a incapacidade da liderança de entender como nossa organização faz parte do problema", informou a CNBC.

De acordo com a CNBC, a carta dos funcionários exigia "mudanças estruturais" após a "retaliação" contra Gebru, se o gigante dos mecanismos de busca quisesse que o trabalho sobre IA ética continuasse.

Um logotipo do Google impresso em 3D é visto nesta ilustração
O Bard do Google foi lançado no mês passado para consumidores americanos e britânicos, mas um novo relatório revelou como os funcionários não queriam que o rival ChatGPT fosse lançado, afinal. IBTimes US