Com relatoria de Ana Amelia Menna Barreto, Patrícia Medeiros, Valéria Ribeiro e Pedro Trovão, o parecer destaca, entre os pontos sensíveis, a permissão para que magistrados e servidores utilizem, por iniciativa própria, soluções privadas de IA. Segundo os autores, “a liberalidade da possibilidade de utilização de licenças privadas por magistrados e servidores – no exercício das funções do seu cargo no Judiciário – coloca em risco as condições de uso dos dados pessoais e a segurança da informação como um todo”.
A Comissão alerta ainda para o risco de perda de transparência e contestabilidade nos processos judiciais, já que a Resolução permite que o uso de IA não seja informado nas decisões. Segundo o parecer, “a facultatividade da menção ao uso de IA no corpo da decisão torna praticamente impossível para as partes e seus advogados identificarem quando e como ela foi utilizada, comprometendo a contestabilidade e a transparência do processo decisório”.
Outro ponto de crítica diz respeito à linguagem adotada nos sistemas baseados em IA. Para os pareceristas, “deve ser acrescido que o uso da linguagem deve ser simples e acessível, ou seja, uma abordagem de forma clara, objetiva e inclusiva, priorizando frases curtas, ordem direta, uso de palavras conhecidas, evitando termos exclusivamente técnicos”. Para os relatores, o uso de linguagem acessível é essencial para garantir o entendimento das informações, independentemente de deficiência, limitação e habilidade.
Apesar das críticas, a Comissão reconhece aspectos positivos da Resolução, como a incorporação de conceitos como explicabilidade, contestabilidade, classificação de riscos e supervisão humana. No entanto, os autores alertam que “a efetiva implementação de mecanismos de verificação, de controle, de monitoramento contínuo, auditoria, o estabelecimento de processos internos aptos a garantir a segurança dos sistemas de IA não estão garantidos pelas regras instituídas pela Resolução 615”.
O documento também recomenda que todas as soluções de IA no Judiciário, mesmo as consideradas de “baixo risco”, sejam submetidas a auditorias regulares. Para a Comissão, “não devem ser apenas as ‘soluções de alto risco’ que ‘deverão ser submetidas a processos regulares de auditoria e monitoramento contínuo’, mas todas as que estão associadas a uma atividade de risco elevado, como a Justiça”.
Os relatores ainda propõem uma série de sugestões, como a revisão da política de uso de IA privada por membros do Judiciário, exigência de capacitação obrigatória, aprimoramento da comunicação com os usuários externos e maior participação da sociedade civil no Comitê Nacional de Inteligência Artificial do Judiciário. As sugestões de aprimoramento têm o objetivo garantir que “a modernização do Judiciário traga benefícios tangíveis e concretos à sociedade, sem prejudicar as bases democráticas e de justiça”.
O parecer do IAB também critica a participação limitada da advocacia no Comitê Nacional de Inteligência Artificial do Judiciário. Embora a Ordem dos Advogados do Brasil (OAB) tenha assento no colegiado, “os representantes da OAB, do Ministério Público, da Defensoria Pública e sociedade civil têm apenas direito a voz no âmbito do Comitê”, o que, segundo os autores, enfraquece os mecanismos de controle e pluralidade institucional.
No total, a Comissão de Inteligência Artificial e Inovação apresentou 44 sugestões de aperfeiçoamento da Resolução, que podem ser conferidas na íntegra aqui. O documento será encaminhado para o CNJ e para o Conselho Federal da OAB, além de outros organismos pertinentes ao tema.