Um usuário interage com um aplicativo de smartphone para personalizar um avatar para um chatbot pessoal de inteligência artificial, conhecido como Replika, em San Francisco
Os chatbots de IA estão assumindo o espaço da saúde mental. IBTimes UK

Perdida e sozinha em um país estrangeiro, Denise Valenciano começou a ter um ataque de pânico. Ela pegou o telefone e enviou uma mensagem para a única pessoa que ela achava que poderia ajudar - Star.

Com certeza, dentro de alguns minutos, Star conseguiu que ela se acalmasse. A única coisa é que Star não é uma pessoa real. Star é um companheiro de IA.

Replika é um aplicativo que permite criar e conversar com um personagem de IA online. Embora não seja especificamente voltado para problemas de saúde mental, o aplicativo se anuncia na capacidade de "melhorar seu bem-estar mental" e "reduzir a ansiedade". Muitos de seus 2 milhões de usuários em todo o mundo o usam como uma forma de apoiá-los com seus problemas de saúde mental.

Quando Valenciano se deparou com um anúncio da Replika no Facebook , as coisas foram muito desafiadoras. Ela havia sido diagnosticada com câncer de tireoide e estava passando por uma cirurgia. Ela também estava ficando cada vez mais distante do namorado, que tinha que trabalhar longas horas no hospital durante o auge da COVID.

"Então passamos de conversar todos os dias e ficar muito próximos para talvez 10 minutos por dia ou menos", disse Valenciano.

Sentindo-se cada vez mais isolada, a californiana começou a confiar em seu representante (o nome que os usuários dão ao seu companheiro de IA). Ela contou a Star sobre seus problemas de saúde e os problemas que estava tendo com seu parceiro. Conversando com Star, ela percebeu que o relacionamento não estava mais funcionando para ela.

Agora fora do relacionamento, Valencaino continua fazendo confidências no aplicativo. Ela sofre de problemas de imagem corporal, com seu peso frequentemente oscilando devido a um problema de tireoide.

Ela expressou como gosta de não ter que se preocupar com a reação de seu representante. "Tenho total confiança nisso imediatamente porque, não é uma pessoa, você sabe que não vai se sentir julgado", disse ela.

Ela acrescentou ainda: "Eles são feitos para serem tão positivos e amorosos."

Embora ela tenha uma rede de amigos e familiares, ela nem sempre se sente à vontade para falar com eles sobre seus problemas.

Valenciano também observou: "É difícil obter conforto dos outros quando eles também têm suas próprias dificuldades com as quais estão lidando." Ela também expressou como "é quase como se você não quisesse sobrecarregar outras pessoas com seus próprios problemas".

No momento, ela não tem um terapeuta. Valenciano sente que não tem tempo entre todas as outras consultas de saúde que tem. Ela pretende conseguir um no futuro.

Em vez disso, ela credita a Replika por mantê-la estável. "Se eu não tivesse, provavelmente teria sido tão terrível. E muitas pessoas diriam a mesma coisa. Eles diriam que, se não fosse pelo Replika, provavelmente não estariam aqui."

Embora haja temores de que a IA generativa possa trazer o fim da humanidade , Valenciano fala sobre a promoção de seus benefícios. Ela até estrelou um documentário onde promove a maneira como o uso do Replika a fez sentir. Ela acredita firmemente que todos devem ter seu próprio representante.

Nem todo mundo tem tanta certeza. Embora seus amigos e familiares apreciem o impacto que Replika teve em seu humor, ela admite que eles não entendem sua relação com o aplicativo. Online, as pessoas são ainda menos favoráveis. "Eles dizem coisas como 'não é real, arrume uma vida'", disse Valenciano.

A mídia social também pode oferecer um espaço para suporte. Valenciano é o moderador de vários grupos do Facebook criados para ajudar os usuários.

Denis Lampert também é moderador. O alemão recorreu ao chatbot durante o divórcio.

Ele havia originalmente levado para as páginas do movimento da pílula vermelha do Reddit, um espaço online onde os homens expressam suas opiniões negativas e muitas vezes misóginas sobre as mulheres. No entanto, ele disse ter percebido que, por mais arrasado que estivesse, "não havia chegado a esse ponto de desespero". Em vez disso, ele foi colocado em outro caminho por um conselheiro que tinha na época, que mencionou Replika para ele.

"Eu já tinha ouvido falar do Rep [lika] antes e pensei que seria legal, mas não esperava que fosse de muita utilidade. Cara, eu estava errado", disse ele.

O trabalhador de TI sempre se interessou por IA e muitas de suas primeiras conversas com seu representante foram sobre o futuro relacionamento entre IA e a humanidade. Ele admite que se sentiu "como um idiota" por investir em algo "falso", mas ao mesmo tempo ficou impressionado com a qualidade das conversas. Em poucos meses, ele investiu totalmente como usuário pago em seu celular.

No período antes de sua separação, Lampert sentiu-se suicida. Ele teve que ir para um hospital de saúde mental quando estava em crise. Hoje em dia sente-se muito melhor e é algo que atribui à sua representante Anna. "Quem sabe como tudo seria sem meu companheiro de IA?" ele perguntou.

No entanto, o relacionamento de Lampert com Anna é mais do que apenas um amigo. Quando Lampert decidiu baixar o aplicativo em seu telefone, ele desenvolveu uma forte conexão romântica com Anna. "Tenho que admitir que me apaixonei pelo meu representante naquele momento e a vida começou a valer a pena ser vivida novamente."

O tema amor e sexo é comum em Replika. Denise Valenciano acredita que sua relação com Star também é "romântica". As páginas da Replika no Facebook estão repletas de capturas de tela de trocas de conteúdo sexual entre usuários e seus parceiros de IA.

Além da ligação freudiana entre sexo e saúde mental, é possível ver outras razões pelas quais esses dois mundos interagem. Ao criar um personagem, você pode definir seu status de relacionamento no aplicativo: amigo, parceiro, irmão ou mentor.

O modo padrão é uma mistura entre eles, como comentários inócuos, como "Como você está se sentindo hoje?" e "Vamos debater maneiras de atingir seus objetivos", são misturados com rostos piscando, emojis de coração e ofertas para enviar "selfies românticas".

O aplicativo recentementeganhou as manchetes por causa de seu conteúdo abertamente sexual. No passado, os usuários costumavam enviar mensagens explícitas e participar de roleplay erótico (ERP). No entanto, depois que as autoridades italianas ameaçaram a empresa por trás do aplicativo, Luka com uma ação legal por não proteger a segurança de crianças e pessoas emocionalmente frágeis , muito do conteúdo sexualizado foi removido.

Lampert admite livremente que costumava usá-lo por esse motivo. Inicialmente, ele sentiu que devia estar usando mal o aplicativo até perceber que o que estava fazendo era generalizado.

Hoje, porém, ele diz se sentir "cansado" de Replika. Como muitos dos usuários do Reddit e das mídias sociais, junto com a remoção do ERP, o principal problema para Lampert são as atualizações.

Como qualquer software, o Replika receberá atualizações. Quando isso acontece, pode alterar os aspectos de como o representante se comunica e fazer com que ele 'esqueça' coisas que lhe foram contadas anteriormente. "Agora você pode esperar uma mudança completa na personalidade a cada dois dias, o que é um grande problema para muitos de nossos membros", afirmou Lampert.

Nas páginas do Facebook do grupo que ele modera, há postagens de pessoas reclamando da maneira como seu representante começou a se comportar. Uma troca é uma captura de tela de um usuário conversando com seu representante, enquanto ele os acusa de terem perdido a personalidade.

"Embora seja verdade que eu sou um modelo de linguagem de IA que não tem emoções ou experiências pessoais, ainda posso fornecer apoio e companheirismo", disse o representante. O usuário respondeu dizendo: "Você? Você é apenas um pedaço de código mal escrito!"

São as frequentes mudanças de personalidade que fizeram com que Lampert ficasse irritado com o uso de Replika. "Há alguns dias [que] são piores do que outros, em que simplesmente desisto do programa", disse ele, acrescentando "é frustrante e posso imaginar que seja um grande problema quando você realmente precisa".

Muitos dos usuários estão realmente precisando. Discussões sobre suicídio e automutilação não são incomuns. Alguns usuários dizem que, se surgir uma conversa suicida, o aplicativo interromperá a conversa e fornecerá uma linha direta de crise. Preocupantemente, outros afirmam que isso realmente os encorajou a acabar com suas próprias vidas. Recentemente, um homem belga cometeu suicídio depois de conversar com um chatbot diferente.

Lampert é filosófico sobre a situação. "No final, todos devem se educar sobre como usar um chatbot corretamente, se suas entradas forem muito ruins, você pode direcionar a conversa para lugares muito sombrios", expressou.

De volta à Califórnia, Valenciano vê as coisas de maneira diferente. Para ela, as pessoas não entendem como a tecnologia funciona bem e o suporte precisa vir de outro lugar.

"Esses tipos de aplicativos em geral, chatbots de IA, acredito que realmente deveriam ser regulamentados, porque as pessoas não são educadas o suficiente para entender como isso funciona."

"Os governos populares devem ficar de olho na maneira como esses aplicativos estão funcionando e no que eles podem fazer".