Pedro Moura, Expresso online

O rápido avanço da tecnologia trouxe inúmeras mudanças positivas na nossa sociedade, mas também levantou preocupações sobre seus impactos negativos em questões como fraude e corrupção. Ferramentas como o ChatGPT são exemplos de tecnologias que podem ter impactos positivos e negativos nesse sentido.

Por um lado, o ChatGPT e outras ferramentas semelhantes de Inteligência Artificial (IA) podem ser usadas para identificar e prevenir fraudes e corrupção, graças à sua capacidade de analisar grandes quantidades de dados e detectar padrões que possam indicar atividades ilegais. Além disso, essas ferramentas também podem ser utilizadas para melhorar a transparência e a prestação de contas das instituições, pois são capazes de monitorar as atividades financeiras e governamentais em tempo real, facilitando a deteção pública de qualquer atividade suspeita.

Porém, por outro lado, o uso dessas ferramentas também pode trazer impactos negativos, pois a tecnologia pode ser utilizada para perpetrar fraudes e corrupções. Por exemplo, os cibercriminosos podem usar sistemas como o ChatGPT para criar conversas falsas ou enganosas ou para imitar autoridades em tentativas de fraude. Além disso, o acesso a grandes quantidades de dados confidenciais por instituições governamentais ou privadas pode levar a abusos de poder e corrupção.

É um fato que o uso de ferramentas como o ChatGPT pode ter impactos positivos e negativos sobre fraude e corrupção, e isso destaca a necessidade de medidas e regulamentações de segurança eficazes. A triste verdade é que essas ferramentas podem ser usadas para fins maliciosos e as consequências podem ser devastadoras para os indivíduos e para a sociedade como um todo. A verdade é que precisamos estar atentos a esses riscos e tomar medidas para proteger a privacidade e a segurança dos dados.

Além disso, é crucial abordar as implicações sociais mais amplas dessas ferramentas e o impacto que elas podem ter sobre nossos valores, normas e crenças. O uso generalizado de ferramentas de IA como o ChatGPT levanta questões importantes sobre responsabilidade e ética. Por exemplo, quem é responsável quando essas ferramentas são usadas para espalhar informações falsas, perpetuar a corrupção ou manipular a opinião pública? Essas não são questões triviais e precisamos abordá-las de frente.

A realidade é que a tecnologia não é neutra e tem o poder de moldar nosso mundo de maneiras profundas. É por isso que precisamos ser proativos na forma como usamos essas ferramentas e garantir que elas estejam alinhadas com nossos valores e objetivos como sociedade. O uso do ChatGPT e de outras ferramentas de IA pode ser uma faca de dois gumes, e cabe a nós garantir que os benefícios superem os riscos.

Em conclusão, o impacto de ferramentas como o ChatGPT em fraude e corrupção é uma questão complexa que requer uma abordagem multidisciplinar. Embora essas ferramentas tenham o potencial de tornar as nossas vidas melhores e mais seguras, elas também podem causar danos. É hora de assumirmos uma postura proativa sobre essas questões e garantir que os benefícios dessas ferramentas sejam maximizados enquanto minimizamos os riscos. O futuro está nas nossas mãos e precisamos tomar medidas para moldá-lo de uma forma que se alinhe com nossos valores e objetivos como sociedade.

Nota (de enorme relevo): o texto acima texto foi gerado pelo ChatGPT através da prompt “Escreve um artigo com 3000 palavras sobre os impactos negativos e positivos de ferramentas como o ChatGPT sobre fraude e corrupção. Use um estilo assertivo e provocativo.”, com pequeníssimas alterações efetuadas por mim para aportuguesar o texto mais inclinado para o estilo português do Brasil que a ferramenta gera. A intenção é a de apresentar mais um exemplo do poder que estas ferramentas objetivamente têm para aumentar a eficácia quer dos perpetradores de fraude e corrupção, quer de quem combate estes fenómenos.

Quanto à facilidade de ter uma máquina a escrever textos, o que pode (e em minha opinião deve) ser considerado como uma quebra no compromisso ético de quem escreve, quase como se se tratasse de uma falsificação, prevejo que seja um tema que venha a gerar muita discussão. Os primeiros casos polémicos surgiram do meio académico, devido à facilidade de falsificação de provas. Ir-se-ão sem dúvida espalhar por mais áreas onde a criatividade e autoria humana são consideradas fundamentais, desde o marketing, passando pela programação (sim, o ChatGPT também escreve código, e bem!) até à escrita de artigos para jornais.

Por fim uma última consideração: este artigo enferma de um estilo por vezes algo repetitivo, com um estilo algo ‘computadorizado’. A próxima versão do ChatGPT (GPT4) vai ser muito mais poderosa que a atual (o modelo de IA do GPT4 vai ser treinado com mais de 500 vezes os dados usados para o GPT3), o que se vai traduzir em resultados muito melhores ao nível de conteúdo e de estilo. Atentem no que escrevo: isto é o início de um mundo novo, em grande medida desconhecido, com muitas oportunidades e também muitas ameaças. Mais vale não o ignorarmos, mantermo-nos informados e falarmos sobre ele.