ChatGPT
O ChatGPT pode representar um risco real para as empresas que usam o chatbot se não forem cuidadosos e vigilantes IBTimes UK

Preocupações recentes foram levantadas sobre o uso do ChatGPT e os perigos que acompanham a utilização do sistema AI chatbot. Isso inclui empresas que usam o ChatGPT, pois podem ser vulneráveis a ataques cibernéticos devido à capacidade do ChatGPT de produzir código, o que leva a violações de dados.

A capacidade do ChatGPT de ajudar as organizações com níveis de crescimento e eficiência o tornou uma mercadoria popular entre as empresas. O chatbot recentemente recebeu muitos elogios do cofundador da Microsoft, Bill Gates , que acredita firmemente na utilidade da IA daqui para frente.

A preocupação em relação ao ChatGPT para empresas, conforme revelado por uma investigação da Cyberhaven, é que 11% das informações que são copiadas e coladas no chatbot pela equipe são dados confidenciais. A investigação revelou um caso preocupante em que um médico inseriu informações privadas de um paciente no chatbot, com as consequências do assunto ainda desconhecidas.

As preocupações com a privacidade crescentes sobre o ChatGPT fizeram com que organizações conhecidas como Amazon , JP Morgan e Accenture restringissem o uso do chatbot por seus funcionários.

Richard Forrest, diretor jurídico da principal empresa de violação de dados do Reino Unido, Hayes Connor, forneceu suas opiniões sobre as decisões do ChatGPT no cenário comercial, dizendo que "ChatGPT e outros Modelos de Linguagem Grande (LLMs) semelhantes ainda estão engatinhando. Isso significa que estamos em um território inexplorado em termos de conformidade comercial e regulamentos que envolvem seu uso."

Ele acrescentou que a natureza do ChatGPT "despertou discussões contínuas sobre a integração e recuperação de dados nesses sistemas. Se esses serviços não tiverem proteção de dados e medidas de segurança adequadas, dados confidenciais podem ser comprometidos involuntariamente".

Forrest diz que muitas pessoas ainda não entendem verdadeiramente o funcionamento dessas tecnologias e como elas funcionam, o que leva ao "envio inadvertido de informações privadas. Além disso, as próprias interfaces podem não ser necessariamente compatíveis com o GDPR".

Ele enfatiza que as empresas que têm seus funcionários utilizando o ChatGPT sem receber o treinamento necessário podem "se expor inadvertidamente a violações de dados do GDPR, resultando em multas significativas, danos à reputação e ações legais. Portanto, o uso como uma ferramenta no local de trabalho sem treinamento adequado e medidas regulatórias é imprudente."

Forrest acredita que a responsabilidade final recai sobre as empresas, pois elas devem "tomar medidas para garantir que os regulamentos sejam elaborados em seus negócios e educar os funcionários sobre como os chatbots de IA integram e recuperam dados".

No Reino Unido, uma das maiores razões para violações de dados em vários setores é resultado de erro humano. Com a IA sendo mais utilizada no cenário corporativo, maior treinamento é necessário e uma alta prioridade.

Em relação à responsabilidade do Reino Unido, Forrest acredita que é vital que o país "se envolva em discussões para o desenvolvimento de uma abordagem pró-inovação para a regulamentação da IA".

Para que as empresas permaneçam vigilantes em relação aos perigos do ChatGPT, evitando comprometimento de dados e violações do GDPR, Forrest aconselha que assumam que qualquer coisa inserida pode se tornar acessível ao domínio público. Além disso, Forrest acredita que os funcionários não devem inserir dados internos ou códigos de software.

Outras dicas de Forrest incluem garantir que os acordos de confidencialidade sejam revisados para que cubram o uso de IA. Além disso, uma cláusula explícita deve ser criada e colocada nos contratos dos funcionários da empresa.

Para também ajudar a permanecer vigilante, Forrest acredita que as organizações devem realizar sessões de treinamento suficientes sobre o uso de IA, além de ter uma política da empresa e um guia do usuário do funcionário.