
Na corrida entre ferramentas que geram textos com Inteligência Artificial e aquelas que prometem detectá-las, os robôs estão ganhando a dianteira. As últimas atualizações de modelos como GPT-4 e Claude já são capazes de simular até mesmo os erros cometidos por humanos, o que torna a distinção entre o natural e o artificial cada vez mais difícil.
O alerta é do CEO especializado em tecnologia Beerud Sheth. “Algumas (tecnologias) agora conseguem ajustar seu estilo de escrita, introduzir ‘erros’ intencionais ou variar suas estruturas de frases para parecerem mais humanas”, afirma o empresário indiano, em entrevista ao InfoMoney. “O que antes era um diferencial humano está sendo replicado por algoritmos.”

Tom Jobim e Getúlio Vargas usaram IA para produzir textos? “Detectores” dizem que sim
Ferramentas que prometem apontar se um conteúdo foi gerado por humanos ou robôs encontram dificuldades para análises fidedignas e ampliam desafios sobre conteúdo inédito no ambiente acadêmico

3 prompts para realizar planejamento financeiro com IA
Com plataformas de IA é possível descobrir qual o melhor caminho a seguir para conquistar seus sonhos financeiros
A constatação reforça os resultados encontrados em testes promovidos pelo InfoMoney com textos amplamente conhecidos e legítimos, como letras de Tom Jobim ou a carta testamento de Getúlio Vargas, que foram classificados por ferramentas de detecção como se tivessem sido escritos por IA.

Segundo o especialista, ferramentas de detecção analisam aspectos como repetição de palavras, estrutura previsível de frases e uniformidade sintática para tentar identificar se um texto foi produzido por Inteligência Artificial. “Textos gerados por IA frequentemente seguem ritmos e padrões previsíveis, como uma música repetida. Escritores humanos, por outro lado, são maravilhosamente caóticos.”
Mas os modelos mais modernos estão imitando esse caos com cada vez mais precisão. “A tecnologia está se aprimorando justamente em imitar a imprevisibilidade humana. E, ao mesmo tempo, a escrita humana também está se padronizando. Estamos nos aproximando de um ponto de convergência.”
Para o executivo, o debate não deve mais se concentrar em saber se um conteúdo foi feito por IA, mas em quanto da produção contou com assistência dessas ferramentas.
Erosão do pensamento crítico
Ao passo que as ferramentas de Inteligência Artificial generativa avançam, cresce também a preocupação com os impactos do uso dessas tecnologias na educação e no jornalismo. Para o CEO, a adoção indiscriminada dessas ferramentas pode comprometer habilidades fundamentais como o pensamento crítico e a integridade dos processos acadêmicos.
“Quando os alunos conseguem gerar redações inteiras com apenas algumas sugestões, eles estão perdendo o processo complexo de lidar com ideias, formular argumentos e desenvolver sua própria voz analítica”, alerta o executivo. Segundo ele, a capacidade de refletir criticamente e construir conhecimento está sendo substituída por soluções automáticas que, embora eficientes, não promovem aprendizado genuíno.
“Há também a crise de integridade que está se formando. As universidades são construídas com base na premissa de que os trabalhos submetidos refletem a compreensão e o esforço do aluno. Quando essa premissa se rompe, ela prejudica toda a estrutura educacional. Os diplomas começam a perder o sentido se não pudermos confiar que os graduados realmente aprenderam o que suas transcrições afirmam que aprenderam”, alerta.
Ele pondera, ainda, outro fator preocupante: as implicações desse uso desmedido nas pesquisas acadêmicas, das quais ele se refere como “assustadoras”. “Elas se baseiam em trabalhos anteriores, com cada estudo contribuindo para um corpo de conhecimento maior. Se o conteúdo gerado por IA começar a se infiltrar nesse processo, seja por meio de citações fabricadas, dados fabricados ou revisões bibliográficas totalmente artificiais, poderemos acabar com um castelo de cartas onde a pesquisa subsequente será construída sobre fundamentos fundamentalmente falhos.”
Ferramentas de detecção devem ser só o começo
Mesmo com iniciativas como o SynthID, tecnologia do Google que insere marcas d’água invisíveis em textos gerados por IA, o especialista vê limitações. “Essas marcas geralmente podem ser removidas por processos simples de edição, paráfrase ou tradução. E ainda há os modelos de código aberto, que não carregam nenhum tipo de assinatura e estão cada vez mais acessíveis.”
O uso de detectores, afirma, deve ser tratado como ponto de partida. “Na melhor das hipóteses, funcionam como detectores de fumaça. Eles não provam que há incêndio, apenas sugerem que talvez valha a pena investigar mais a fundo.”
The post IAs já simulam erros humanos e desafiam os detectores, alerta CEO appeared first on InfoMoney.