ChatGPT
A Itália se tornou a primeira nação ocidental a impedir o uso do ChatGPT IBTimes UK

A Itália se tornou o primeiro país ocidental a proibir o uso da ferramenta chatbot da OpenAI, ChatGPT, com a autoridade de proteção de dados do país informando que havia problemas de privacidade com o modelo. Além de proibir o ChatGPT, o vigilante italiano está definido para investigar se o chatbot cumpriu o Regulamento Geral de Proteção de Dados.

A proibição na Itália ocorre depois que sua autoridade encontrou uma recente violação de segurança de dados envolvendo o ChatGPT, onde as conversas dos usuários, bem como os detalhes de pagamento, foram expostos. Esta proibição do ChatGPT na Itália reflete sobre se isso estabeleceu um precedente para o continente europeu e se outras nações seguirão o exemplo.

A Alemanha também pode considerar a proibição do ChatGPT, se necessário, com a França e a Irlanda curiosas sobre as descobertas da investigação italiana. No entanto, a Suécia atualmente não tem planos de banir o ChatGPT em sua região.

O ChatGPT já foi banido em vários países, incluindo China, Rússia, Coreia do Norte e Irã.

A entrada explosiva que o ChatGPT fez no cenário tecnológico resultou em outras grandes empresas de tecnologia, como o Google, lançando seu próprio chatbot avançado com a Bard. A China deve ter seus próprios serviços de chatbot de IA, já que o mecanismo de busca da Internet Baidu e a organização de comércio eletrônico Alibaba estão se juntando à corrida global de chatbot de IA.

A ferramenta de chatbot apoiada pela Microsoft cresceu em popularidade desde o lançamento em novembro passado, sendo creditada por melhorar a qualidade e a eficiência do trabalho. No entanto, ChatGPT e AI , em geral, também receberam algumas críticas, pois há preocupações de que nem todos estejam equipados para utilizar chatbots com segurança e garantir que os dados não sejam violados.

Ilia Kolochenko, CEO da ImmuniWeb e professora adjunta de segurança cibernética e direito cibernético da Capitol Technology University, falou sobre os possíveis problemas de privacidade no cenário da IA. Ele afirmou: "Potenciais violações de privacidade por IA generativa são apenas a ponta de um iceberg de problemas legais que se desdobram rapidamente."

Lançado no final do ano passado, a presença do ChatGPT no mercado, segundo o Dr. Kolochenko, significou "empresas de todos os portes, bibliotecas online e até pessoas físicas – cujo conteúdo online poderia, ou havia sido, utilizado sem permissão para o training of generative AI – começaram a atualizar os Termos de Uso de seus sites para proibir expressamente a coleta ou uso de seu conteúdo online para treinamento de AI."

Kolochenko afirma que os desenvolvedores de software individuais também estão se posicionando, pois "agora estão incorporando disposições semelhantes às suas licenças de software ao distribuir suas ferramentas de código aberto, restringindo os gigantes da tecnologia de usar furtivamente seu código-fonte para treinamento generativo de IA, sem pagar aos autores um centavo.

Em contraste com a legislação de privacidade contemporânea, que neste momento não tem respostas claras sobre se e quanto a IA generativa viola os termos de privacidade, o Dr. Kolochenko disse: "Os termos de serviço e licenças de software do site se enquadram no corpo de direito contratual, tendo uma abundância de jurisprudência na maioria dos países."

O Dr. Kolochenko acredita que os pontos de venda de IA podem estar em apuros mais adiante, afirmando ainda: "Em jurisdições onde danos liquidados em contratos são permitidos e aplicáveis, as violações dos termos de uso do site podem desencadear duras consequências financeiras, além de liminares e outros remédios para quebra de contrato."

À frente, pode haver complicações reais para grandes empresas de tecnologia ou start-ups de IA, pois o Dr. Kolochenko revela que "os legisladores de ambos os lados do Atlântico estão agora discutindo requisitos de transparência aprimorados para tecnologias de IA que devem incluir, entre outras coisas, a divulgação obrigatória de proveniência dos conjuntos de dados de treinamento."

Kolochenko menciona que a causa disso pode ser uma possível exposição elegante de "uso injustificado e não autorizado de dados", que poderia, em troca, desencadear "uma onda de litígios e ações coletivas, além do emergente litígio relacionado à privacidade. "