Migalhas Quentes

Candidato contesta nota com IA, mas Justiça mantém correção da banca

Colegiado considerou que ferramenta de IA não possui confiabilidade técnica nem supervisão humana para revisão de avaliações.

7/10/2025

Avaliação de redação feita por inteligência artificial não pode servir como prova para questionar nota atribuída por banca examinadora. Esse foi o entendimento da 1ª turma recursal dos Juizados Especiais do TJ/PR, que negou o pedido de candidato a concurso por entender que a ferramenta não possui explicabilidade nem supervisão humana capazes de garantir sua confiabilidade.

O recurso foi interposto por candidato que, após ter sua redação corrigida em concurso público dodo próprio TJ/PR, submeteu o texto a uma ferramenta de IA chamada Glau e obteve pontuação superior. Com base no resultado, pediu nova correção, reclassificação e indenização por danos morais, alegando violação aos princípios da razoabilidade e da proporcionalidade.

Em 1ª instância, o pedido foi julgado improcedente, sob o entendimento de que não havia demonstração de erro material, ilegalidade ou descumprimento do edital do concurso.

TJ/PR decidiu que a nota de redação de concurso não pode ser contestada com base em avaliação feita por inteligência artificial.(Imagem: Arte Migalhas)

Ao manter a sentença, o juiz relator Fernando Andreoni Vasconcellos destacou que a atuação do Poder Judiciário em questões de concurso público é restrita ao controle de legalidade, não podendo substituir a banca examinadora na avaliação de provas.

Citando precedentes do STF (RE 632.853, Tema 485) e do STJ, afirmou que a intervenção judicial apenas se justifica diante de “violação direta às disposições do edital, não se confundindo com a possibilidade de revisar o mérito do ato administrativo”.

Sobre o uso da ferramenta de inteligência artificial, o relator afirmou que “a falta de explicabilidade e a ausência de auditoria ou supervisão humana efetiva no processo de correção da IA a desqualificam como fonte de prova válida para contestar a correção”.

Segundo ele, a metodologia utilizada pelo sistema não é transparente, uniforme nem verificável, o que “viola, de forma direta, os princípios da segurança jurídica e da isonomia”.

O magistrado ressaltou ainda que admitir a revisão de notas com base em tecnologias externas “comprometeria a objetividade, uniformidade e confiabilidade do processo seletivo”, permitindo que cada candidato utilizasse diferentes sistemas para contestar sua avaliação.

Ele também citou estudo do NIST - National Institute of Standards and Technology, segundo o qual a confiabilidade da inteligência artificial depende de fatores como explicabilidade, resiliência, responsabilidade e ausência de vieses — requisitos não observados no caso concreto.

Quanto ao pedido de indenização, o relator observou que o mero descontentamento do candidato não caracteriza dano moral. Para ele, “mero dissabor, aborrecimento, mágoa ou irritação estão fora da órbita do dano moral”, já que não houve ato ilícito nem ofensa a direitos da personalidade.

A turma concluiu que não havia motivo para intervenção judicial e manteve integralmente a sentença de improcedência.

Leia a decisão.

Veja a versão completa

Leia mais

Migalhas Quentes

Desembargador nega pedido a parte que usou vídeo editado por IA como prova

2/6/2025
Migalhas Quentes

ChatGPT afirma que sentença foi gerada por IA e parte pede anulação

23/1/2025
Migalhas Quentes

CNJ nega suspender uso de ChatGPT por magistrados

3/7/2024