Tecnologia e Inovações

OpenAI Intensifica Medidas Contra Fraudes no ChatGPT

A OpenAI está intensificando suas ações contra fraudes no ChatGPT, removendo contas que apresentam comportamentos suspeitos, como a criação de artigos falsos e perfis fictícios, além de colaborar com empresas do setor para garantir a segurança digital.

A OpenAI, criadora do ChatGPT, relatou a remoção de contas suspeitas de uso indevido, como depuração de código e geração de conteúdo para publicação. A empresa reforça que seu serviço não é destinado a usos maliciosos.

Ações Tomadas pela OpenAI para Combater Fraudes

A OpenAI tem adotado medidas rigorosas para mitigar o uso indevido de seu serviço ChatGPT, especialmente em atividades fraudulentas.

A empresa divulgou um relatório detalhando as ações que tomou para identificar e banir contas que utilizam a plataforma de maneira não autorizada.

Entre as medidas, a OpenAI tem monitorado ativamente as tendências de uso do ChatGPT para detectar comportamentos suspeitos.

Quando identificadas, as contas são investigadas e, caso sejam confirmadas atividades maliciosas, são imediatamente removidas da plataforma.

Além disso, a OpenAI compartilha suas descobertas com outras empresas do setor, como a Meta, para evitar que ações fraudulentas se espalhem para outras plataformas. Essa colaboração é essencial para manter um ambiente digital mais seguro e confiável.

Essas ações demonstram o compromisso da OpenAI em garantir que suas ferramentas sejam usadas de forma ética e responsável, protegendo tanto os usuários quanto o ecossistema digital em geral.

Casos de Uso Indevido Identificados pela Empresa

A OpenAI revelou uma série de incidentes que demonstram como atores mal-intencionados estão explorando o ChatGPT para fins fraudulentos e até mesmo para manipulação geopolítica.

Um dos casos mais alarmantes envolveu a criação de artigos com viés negativo contra os Estados Unidos, apresentados como conteúdos autênticos de uma fonte chinesa e disseminados em plataformas latino-americanas.

A descoberta levanta preocupações sobre o uso da IA para influenciar a opinião pública e espalhar desinformação, o que é um grande risco em períodos de eleição.

Outra operação suspeita foi identificada no Camboja, onde redes criminosas utilizaram o ChatGPT para traduzir e gerar comentários em golpes de “romance scam” – uma prática em que estelionatários se passam por pretendentes amorosos para enganar vítimas e obter vantagens financeiras.

A OpenAI também encontrou indícios de que o ChatGPT foi empregado na criação de currículos e perfis fictícios na Coreia do Norte para processos seletivos em empresas ocidentais, o que pode representar um risco para a segurança corporativa e até facilitar tentativas de espionagem industrial.

A OpenAI, ao identificar essas práticas, tomou medidas para banir as contas envolvidas e compartilhou suas descobertas com outras empresas do setor, reforçando a importância de uma vigilância contínua e colaborativa para combater fraudes online.

Rafael Lins

Colunista no segmento Tecnologia e Inovações | Rafael Lins é especialista em tecnologia e inovação, com formação em Ciência da Computação, Engenharia de Software e Engenharia Eletrônica. Sua missão é traduzir tendências tecnológicas em insights estratégicos para negócios e sociedade.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo