Audiência pública trata sobre riscos, mecanismos e custos associados ao uso de IA no Judiciário
Especialistas reuniram-se na quinta-feira (26/9) na sede do Conselho Nacional de Justiça (CNJ), em Brasília, para discutir a regulamentação da Inteligência Artificial (IA) generativa no Poder Judiciário, mas também os mecanismos, riscos e custos associados ao uso dessa ferramenta. Também falaram sobre linguagem simples e aspectos éticos para evitar discriminação e vieses nocivos ao direito.
Os painéis fazem parte de programação prevista para o segundo dia de audiência pública sobre IA no Judiciário. O evento é coordenado pelo presidente da Comissão de Tecnologia da Informação e Inovação do CNJ, conselheiro Luiz Fernando Bandeira de Mello. As atividades foram iniciadas na quarta-feira (25/9) e se encerram na tarde desta sexta-feira (27/9), com transmissão pelo canal do CNJ no YouTube.
Leia mais:
Em audiência pública, presidente do CNJ diz que IA é questão de sobrevivência
Inteligência Artificial no Judiciário: uso é pouco frequente, mas interesse pela ferramenta é elevado
Primeiro dia de audiência pública sobre IA na Justiça aborda controle e capacitação
Riscos e custos associados
“Estamos diante de um processo que é muito mais amplo do que apenas a incorporação de uma nova tecnologia. Não estamos falando apenas de uma ferramenta adicional, de um novo computador ou software, mas de sistemas que participarão em maior ou menor grau de processos decisórios”, disse pela manhã a advogada e professora da Universidade de Brasília (UnB), Ana Frazão. Para ela, é preciso determinar quais desses processos decisórios podem ser delegados total ou parcialmente para sistemas de IA, além do tratamento das questões de proteção de dados e confidencialidade de informações.
Diretor-fundador da Data Privacy Brasil, Bruno Bioni assinalou que a lógica de direitos e riscos está bem balanceada na minuta de ato normativo. O artigo 8º-E estabelece que sistemas de inteligência artificial generativas poderão ser utilizadas inpidualmente pelos magistrados e servidores como ferramentas de auxílio em suas respectivas atividades, mas desde que o acesso seja monitorado pelos tribunais, em obediência aos padrões de segurança e às diretrizes da regulamentação proposta. Para Bruno, isso cria uma “lógica de licenciamento para uso”, o que contribui para a governança interna.
A secretária-geral do Supremo Tribunal Federal (STF), Aline Osório, discorreu sobre aprendizados obtidos na trajetória de uso de IA na Suprema Corte. Segundo a gestora, existem mais de 140 projetos de IA generativa catalogados nos tribunais. Com isso, surge também a preocupação quanto aos custos dessas tecnologias e a pressão que podem exercer ao orçamento do Judiciário.
Supervisão humana
Durante os painéis, a importância da supervisão humana no processo de implementação de inteligência artificial foi citada com frequência, sobretudo para se evitar vieses inconscientes. Uma das preocupações reside na discriminação algorítmica, apontada pelo pesquisador da Fundação Mozilla Tarcízio Silva. Ele sugeriu que a futura resolução faça uma adição mais explícita de considerações sobre avaliação de discriminação indireta durante o processo de avaliação, auditoria e análise de impactos.
Na mesma linha, a advogada Paula Sion Naves, integrante do Instituto de Defesa do Direito de Defesa (IDDD), tratou sobre o uso de IA no Direito Penal. Segundo a expositora, há preocupação de que o viés de automação opere para prejudicar direitos dos acusados. “A sensibilidade humana é imprescindível na avaliação da prova e no julgamento de processos penais. Envolve empatia, compaixão, bom senso, todos atributos indelegáveis”, defende.
Professor da Pontifícia Universidade Católica do Rio Grande do Sul e integrante da Autoridade Nacional de Proteção de Dados (ANPD), Lucas Borges defende a necessidade de avaliação e monitoramento humano contínuos, justamente para a correção de erros inerentes às inteligências artificiais. Na ocasião, o pesquisador indicou que o ato normativo avance mais nesses aspectos, com previsões de auditoria e de prestação de contas.
Também participaram da audiência: a diretora técnica no OCTO do Google Cloud, Patrícia Florissi, que apresentou a perspectiva do mercado sobre a contribuição das IAs ao sistema de justiça; Caio Vieira Machado, mestre em Ciências Sociais e Internet pela Universidade de Oxford e em Direito e Tecnologia pela Universidade Paris 1 – Panthéon-Sorbonne, que alertou para a “monocultura” de empresas que produzem essas tecnologias; e Gustavo Zaniboni, fundador e diretor-chefe de Inteligência Artificial da Redcore, que apresentou reflexões sobre arbitrariedades dos modelos de linguagem.
Desafios
À tarde, especialistas enfatizaram a importância da transparência e da realização de auditorias no uso da Inteligência Artificial bem como os desafios relacionados à geração de sentenças. Professor associado da Universidade Federal da Paraíba, Gustavo Rabay manifestou cautela com relação aos riscos envolvidos na utilização de sistemas de forma privada pela magistratura.
A advogada Elaine Cristine Zordan Keller pontuou que a abordagem de questões éticas pela IA deve ser feita segundo os valores apontados por aspectos legais. Outro aspecto ético, levantado pela presidente da Comissão de Inteligência Artificial da Ordem dos Advogados do Brasil – Seccional Distrito Federal (OAB-DF), Melissa Cipriano Vanini Tupinambá, é que as decisões judiciais a era da IA sejam passíveis de contestação. “Temos o desafio de evitar a discriminação algorítmica e, para isso, os sistemas devem ser constantemente auditados”, defendeu.
A professora de Direito do Trabalho da Universidade de São Paulo Larissa Matos, falou na mesma linha, quanto à importância de que as auditorias monitorem as decisões para que elas não sejam utilizadas contra trabalhadores e trabalhadoras. “Grandes bancas de advocacia, que representam as empresas, têm maior acesso aos tribunais superiores, o que influencia os algoritmos”, constatou.
O juiz do Tribunal Regional do Trabalho da 12ª Região Daniel Carvalho Martins ressaltou a relevância da persidade de profissionais na auditoria, que, segundo ele, deve abarcar desde especialistas em TI e Direito Digital até cientistas sociais e representantes da sociedade civil.
A professora de Direito em Tecnologia na UFF Renata Braga Klevenhusen ponderou a necessidade de que o conhecimento sobre os sistemas utilizados no Judiciário seja consolidado de forma mais detalhada. Já a pesquisadora Manuela Menezes Silva trouxe números da experiência da Espanha, onde a IA é utilizada na análise do risco de que mulheres vítimas de violência sejam revitimizadas.
O analista de sistemas Márcio Henrique D’ávila fez considerações a respeito da segurança cibernética e da informação. Neste contexto, o promotor de Justiça do Ministério Público do Pará Mauro Guilherme dos Santos também manifestou preocupação com os riscos aos dados pessoais, que precisam passar por um processo de anonimização.
Linguagem simples
Na opinião do professor especialista em IA João Ataíde da Cunha, o que irá diferenciar uma ferramenta da outra é a que tiver o melhor prompt – que permite a escrita “natural”, com a linguagem utilizada de modo espontâneo nas conversas – e o melhor tratamento de dados.
O integrante do comitê gestor de IA do Tribunal de Justiça do Rio de Janeiro (TJRJ) Walter Aranha Capanema chamou a atenção para a importância de que a linguagem simples seja um pré-requisito da “explicabilidade”, em referência à capacidade de explicar de maneira fácil, direta e compreensível as sentenças geradas por IA. “O princípio da transparência tem como elemento fundamental a clareza, que deve ser usada para que os usuários possam entender como funciona a ferramenta de IA”, opinou.
O secretário geral de TI do TJRJ Daniel Haab apresentou o Assistente de IA Generativa (Assis), ferramenta implementada no tribunal para a elaboração de decisões e relatórios, além de resposta a dúvidas de usuários. Segundo Haab, a utilização da ferramenta propicia uma economia de 1.882.320 horas de trabalho ao ano, levando em conta todos os juízes, desembargadores e servidores atuantes. Esse benefício também foi destacado pelo advogado atuante no Direito Digital Alexandre Atheniense, segundo o qual a utilização das ferramentas na magistratura irá, de maneira prática, contribuir com a celeridade processual.
O consultor em IA Dan Lopes Carvalho ressaltou que a fase de desenvolvimento deve levar em conta também fatores regionais. “Um treinamento da IA no Rio de Janeiro é diferente do Rio Grande do Sul. Há outros termos, outra cultura”.
Texto: Jéssica Vasconcelos e Mariana Mainenti
Edição: Sarah Barros
Agência CNJ de Notícias
Número de visualizações: 21