https://in.mashable.com/tech/45450/russian-hackers-are-writing-malicious-codes-on-chatgpt-to-hack-your-personal-data
Criminosos cibernéticos usando ChatGPT IBTimes UK

Desde seu lançamento recente em novembro de 2022, o ChatGPT chocou usuários em todo o mundo com sua capacidade impressionante de representar a fala 'semelhante à humana'. Exigindo apenas uma pequena quantidade de entrada do usuário, permitindo produzir ensaios, discursos e até código com script.

Alcançar mais de 100 milhões de usuários globalmente no espaço de alguns meses é uma conquista histórica. Mas, infelizmente, como resultado desse rápido sucesso e recursos inovadores de IA, o ChatGPT está começando a ser utilizado no cibercrime.

Isso não é tão surpreendente, ao longo dos últimos anos, sempre que houve um avanço na tecnologia relacionada à informática, os cibercriminosos oportunistas sempre procuraram utilizá-la para fins criminosos.

No entanto, ao contrário dos avanços anteriores na tecnologia de IA, a capacidade do ChatGPT de imitar a linguagem humana tornou quase impossível para as pessoas identificarem, o que representa uma ameaça imediata para as empresas.

Como os cibercriminosos estão usando o ChatGPT para atacar empresas?

Um dos recursos menos conhecidos do ChatGPT é sua capacidade de produzir código. Isso pode permitir que criminosos cibernéticos invadam empresas e implantem bugs em sistemas comerciais.

Tecnicamente, o ChatGPT restringiu os usuários de usar o software para criar malware, no entanto, um relatório recente mostra que, por meio do uso de fóruns on-line públicos, os hackers encontraram uma 'solução alternativa' para essas restrições. Agora, os cibercriminosos podem usar este software para criar um "ladrão de arquivos python que procura por tipos de arquivos comuns".

A introdução de bugs via ChatGPT pode interromper um negócio por violação de dados e distúrbios de rede. Ambos podem levar as empresas a enfrentar perdas financeiras como resultado, bem como danos subsequentes à sua reputação.

Mas de quem é a responsabilidade por essa má conduta?

A resposta mais óbvia é a OpenAI , a empresa global de tecnologia de IA que produziu o ChatGPT - e, portanto, deve assumir parte da responsabilidade por esses hacks.

Mesmo sendo uma empresa relativamente nova, que originalmente começou como uma organização sem fins lucrativos em 2019, não deveria ser aceitável liberar tecnologia com potencial para se infiltrar em bancos de dados de negócios, sem também equipar as pessoas com o conhecimento para se defenderem dos referidos infiltrações.

É ainda mais difícil defender a OpenAI por não tomar as medidas apropriadas, quando você leva em consideração sua recente parceria com os gigantes globais da tecnologia Microsoft . Devido aos recursos agora à sua disposição como resultado desta parceria, é provável que a OpenAI torne as medidas de segurança uma prioridade no futuro.

O que as empresas podem fazer para se proteger agora?

Felizmente, apesar do potencial do ChatGPT para ser usado para crimes cibernéticos, também existem pessoas que estão equipadas para se defender contra esses ataques. Essas pessoas incluem desenvolvedores de software, bem como outros órgãos da indústria. A fim de evitar futuros ataques potenciais, as empresas devem considerar a contratação de desenvolvedores que já estejam equipados com conhecimento de software de IA e, portanto, saibam como instalar medidas de segurança.

No futuro, idealmente, as pessoas que trabalham em empresas vulneráveis a esses ataques devem aprender mais sobre o software de IA, mas, enquanto isso, a contratação de desenvolvedores terceirizados com experiência em IA deve servir como uma solução imediata.

Outra solução para proteger as empresas contra violações é a autenticação do usuário. Isso pode assumir a forma de autenticação de dois fatores, em que o dispositivo móvel do usuário fornece uma senha de tempo limitado, necessária para acessar o site. Este é um modelo usado por muitas empresas para fornecer proteção contra hackers. Ao contrário das contratações de terceiros, esta solução depende dos próprios usuários para fornecer segurança.

É importante observar que modelos como a autenticação de dois fatores não acabarão com as violações de dados via ChatGPT, mas o tornarão mais inconveniente para os hackers.

Quanto mais autenticação de usuário o OpenAI exigir, não apenas dificultará o acesso dos hackers, mas também o tornará mais inconveniente para 'usuários genuínos'. Portanto, é muito importante para a OpenAI encontrar um equilíbrio entre segurança e conveniência, ou eles correm o risco de perder uma parte de seus usuários.

Apesar do potencial para violações de IA, as empresas não devem se preocupar muito. Se a história nos ensinou alguma coisa, é que, à medida que a tecnologia da Internet avança, também avança a proteção online. Portanto, se houver empresas em risco de violações de IA, é inevitável que elas eventualmente se tornem equipadas para lidar com essa ameaça em um futuro próximo.