Quando a Inteligência Artificial erra: o risco das análises automáticas de autoria em tempos de retroatividade digital

quando a inteligência artificial erra o risco das análises automáticas de autoria em tempos de retroatividade digital

Me vi recentemente diante de um problema que considero um alerta importante para todos que confiam, muitas vezes sem critério, em ferramentas automatizadas baseadas em Inteligência Artificial para validação de autenticidade e autoria de conteúdos acadêmicos ou profissionais.

Solicitei a um analisador baseado no ChatGPT que verificasse a originalidade da minha monografia de conclusão de curso (TCC), escrita em 2019. Solicitei a um analisador baseado no ChatGPT que verificasse a originalidade da minha monografia de conclusão de curso (TCC), escrita em 2019. O resultado foi surpreendente — e profundamente equivocado: a ferramenta afirmou que 99% do meu trabalho havia sido gerado pelo ChatGPT.

Isso, além de ser tecnicamente impossível, revela uma falha crítica: o ChatGPT sequer existia em 2019. A tecnologia subjacente ainda estava em desenvolvimento, e nenhuma das versões públicas ou acadêmicas da IA havia sido lançada. A primeira versão amplamente disponível, o ChatGPT-3.5, só foi lançada em 2022. Portanto, é cronologicamente inviável que um texto de 2019 tenha sido gerado por essa ferramenta.

Esse tipo de diagnóstico levanta preocupações sérias:

  • Falta de contexto temporal nas ferramentas de análise de IA

As IAs analisadoras de texto não levam em consideração a linha do tempo de sua própria existência ou da produção textual. Elas operam com base em padrões estatísticos e de linguagem que reconhecem em seus datasets, sem avaliar se a suposta autoria é cronologicamente possível.

  • Alta taxa de falsos positivos em detecção de IA

Essas ferramentas frequentemente classificam textos humanos como gerados por IA quando o estilo, a estrutura gramatical ou a coerência argumentativa se assemelham ao padrão de produção textual que os modelos atuais de IA aprendem a replicar. Isso afeta especialmente autores com boa formação técnica e domínio de linguagem formal — como é o caso de muitos trabalhos acadêmicos sérios.

  • Riscos éticos e legais de decisões baseadas em análise automatizada

Imaginemos um cenário onde um estudante ou profissional tem seu trabalho desqualificado ou sua reputação questionada com base em uma análise incorreta feita por IA. Isso contraria os princípios da LGPD, como a necessidade de revisão humana em decisões automatizadas que afetem direitos, e fere o princípio do contraditório e da ampla defesa, presente em nosso ordenamento jurídico.

  • A importância da análise crítica e humana

Ferramentas automatizadas devem ser auxiliares, não substitutas, do juízo humano. Especialmente em temas tão sensíveis quanto integridade, autoria e originalidade, é essencial que qualquer análise baseada em IA seja acompanhada por revisão de especialistas e, sempre que possível, documentada com critérios técnicos claros.

Logo é importante citar que o caso que experimentei é mais do que uma anedota: é um sintoma de uma nova era, onde o uso indiscriminado de tecnologias emergentes pode gerar injustiças, desinformação e sérios problemas reputacionais. Profissionais, instituições de ensino e órgãos públicos precisam estar atentos a esses riscos e adotar políticas que conciliem inovação com responsabilidade, transparência e respeito aos direitos dos indivíduos.

Theonácio Lima Júnior – TavTec Tecnologia

Pesquise no TI RIO