PODER JUDICIÁRIO DO ESTADO DO ESPÍRITO SANTO – PJES
RUA DESEMBARGADOR HOMERO MAFRA,60 – Bairro ENSEADA DO SUÁ – CEP 29050906 – Vitória – ES – www.tjes.jus.br
ATO NORMATIVO N° 324/2025
Altera a Política de Uso de Inteligência Artificial no âmbito do Poder Judiciário do Estado do Espírito Santo.
O Excelentíssimo Senhor Desembargador SAMUEL MEIRA BRASIL JR., Presidente do Egrégio Tribunal de Justiça do Estado do Espírito Santo, no uso de suas atribuições legais,
CONSIDERANDO a Resolução n° 615 de 11/03/2025, do Conselho Nacional de Justiça, que estabeleceu diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial em todo o Poder Judiciário;
CONSIDERANDO a crescente utilização de recursos de inteligência artificial no âmbito do Poder Judiciário, tanto em suas atividades finalísticas quanto de meio;
CONSIDERANDO que o uso da inteligência artificial deve observar práticas que garantam a inovação ética, responsável e segura do seu uso;
CONSIDERANDO o uso crescente de inteligência artificial como forma de se aproveitar melhor os recursos, aumentando a produtividade, reduzindo custos e aumentando a resolubilidade de diferentes desafios;
CONSIDERANDO a necessidade de se garantir a ética, a segurança, a confiabilidade no uso da inteligência artificial no Poder Judiciário;
CONSIDERANDO os potenciais riscos associados à utilização inadequada de inteligência artificial, incluindo ameaças à segurança da informação, à privacidade e proteção de dados pessoais, bem como a possibilidade de intensificação de parcialidades e vieses discriminatórios;
CONSIDERANDO a necessidade de assegurar que o desenvolvimento e a implantação de modelos de inteligência artificial no Poder Judiciário observem critérios éticos de transparência, previsibilidade, auditabilidade e justiça substancial;
RESOLVE:
Art. 1º. Alterar o Ato Normativo n.° 161, de 19 de julho de 2024, que instituiu a Política de Uso da Inteligência Artificial no âmbito do Poder Judiciário do Estado do Espírito Santo.
Art. 2°. Ficam alterados os seguintes artigos, que passam a vigorar com as seguintes alterações:
Art. 3º. Para os fins desta Política, considera-se: […]
XVI – Ciclo de vida: série de fases que compreende a concepção, o planejamento, o desenvolvimento, o treinamento, o retreinamento, a testagem, a validação, a implantação, o monitoramento e eventuais modificações e adaptações de um sistema de inteligência artificial, incluindo sua descontinuidade, que pode ocorrer em quaisquer das etapas referidas, e o acompanhamento de seus impactos após a implantação;
XVII – Desenvolvedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva ou comissione um sistema de inteligência artificial, com a finalidade de colocá-lo no mercado ou aplicá-lo em serviço fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
XVIII – Inteligência artificial generativa : sistema de IA especificamente destinado a gerar ou modificar significativamente, com diferentes níveis de autonomia, texto, imagens, áudio, vídeo ou código de software, além dos modelos estatísticos e de aprendizado a partir dos dados treinados;
XIX – Avaliação preliminar: processo de avaliação de um sistema de IA antes de sua utilização ou entrada em produção, com o objetivo de classificar seu grau de risco e atender às obrigações estabelecidas nas normas do Poder Judiciário do ES;
XX – Avaliação de impacto algorítmico: análise contínua dos impactos de um sistema de IA sobre os direitos fundamentais, com a identificação de medidas preventivas, mitigadoras de danos e de maximização dos impactos positivos, sem a violação da propriedade industrial e intelectual da solução de IA utilizada.
XXI – Privacy by design: preservação da privacidade dos dados desde a concepção de qualquer novo projeto ou serviço de IA durante todo o seu ciclo de vida, inclusive na anonimização e encriptação de dados sigilosos;
XXII – Privacy by default: utilização, por padrão, de alto nível de confidencialidade de dados;
XXIII – Prompt: texto em linguagem natural utilizado na IA generativa para execução de uma tarefa específica;
XXIV – Auditabilidade: capacidade de um sistema de IA se sujeitar à avaliação dos seus algoritmos, dados, processos de concepção ou resultados, sempre que tecnicamente possível;
XXV – Explicabilidade: compreensão clara, sempre que tecnicamente possível, de como as “decisões” são tomadas pela IA; e
XXVI – Contestabilidade: possibilidade de questionamento e revisão dos resultados gerados pela IA.
XXVII – Misinformation: informação falsa ou imprecisa que pode se espalhar, sem que haja a intenção prévia de enganar.
XXVIII – Disinformation: desinformação intencional, a partir do uso de informação falsa criada e compartilhada com o intuito de enganar ou manipular.
XXIX – Malinformation: informação verdadeira, mas utilizada de forma a causar dano ou prejudicar um indivídou ou um grupo.
XXX – Deep fakes: tecnologias baseadas em inteligência artificial capazes de gerar vídeos, áudios e imagens falsas, criando fatos que não ocorreram realmente.
XXXI – Doxing: prática de divulgar informações pessoais e privadas de um indivíduo na internet, com o intuito de prejudicar, assediar ou ameaçar.
XXXII – Jailbreaking em guardrails: prática que contorna ou remove restrições e limitações de um sistema de IA, possibilitando a realização de ações não autorizadas ou perigosas.
XXXIII – Rastreamento de dados privados: prática de coletar e monitorar informações pessoais de indivíduos, frequentemente sem seu consentimento, para fins de análise ou comercialização.
Art. 4º. […]
Parágrafo único. Além dos previstos no caput deste artigo, o desenvolvimento, a governança, a auditoria, o monitoramento e o uso de soluções de IA no Poder Judiciário do Espírito Santo deverão observar também os princípios de inclusão, eficiência, explicabilidade, contestabilidade, auditabilidade, confiabilidade das soluções que adotam técnicas de inteligência artificial; segurança jurídica, segurança da informação; eficiência e qualidade na entrega da prestação jurisdicional, com observância dos direitos fundamentais; devido processo legal, ampla defesa e contraditório; identidade física do juiz e razoável duração do processo, com observância das prerrogativas e dos direitos dos atores do sistema de Justiça; prevenção, a precaução e o controle quanto a medidas eficazes para a mitigação de riscos derivados do uso intencional ou não intencional de soluções que adotam técnicas de inteligência artificial; supervisão humana efetiva, periódica e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido, com possibilidade de ajuste dessa supervisão conforme o nível de automação e impacto da solução utilizada; e oferta de capacitação contínua para magistrados e servidores sobre riscos da automação, vieses algorítmicos e análise crítica dos resultados gerados por IA.
[…]
Art. 7º, §1-A. – Ficam vedadas também, ao Poder Judiciário do Espírito Santo, o desenvolvimento ou uso de soluções que:
I – que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão;
II – que valorem traços da personalidade, características ou comportamentos de pessoas naturais ou de grupos de pessoas naturais, para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva na fundamentação de decisões judiciais, bem como para fins preditivos ou estatísticos com o propósito de fundamentar decisões em matéria trabalhista a partir da formulação de perfis pessoais;
III – que classifiquem ou ranqueiem pessoas naturais, com base no seu comportamento ou situação social ou ainda em atributos da sua personalidade, para a avaliação da plausibilidade de seus direitos, méritos judiciais ou testemunhos; e
IV – a identificação e a autenticação de padrões biométricos para o reconhecimento de emoções.
[…]
Art. 7º, §4º – A Presidência do Tribunal de Justiça deverá divulgar periodicamente lista atualizada de práticas, sistemas e modelos classificados com os respectivos níveis de riscos, devendo observar também a Classificação de Riscos estabelecida pelo Conselho Nacional de Justiça. (VIDE ANEXO)
Art. 7º, §5° – O Poder Judiciário do Estado do Espírito Santo deverá observar a atualização anual da Classificação de Riscos, a ser feita pelo Comitê Nacional de Inteligência Artificial do Judiciário, conforme dispõe a Resolução n° 615/2025 do Conselho Nacional de Justiça e alterações posteriores, de modo a assegurar que a classificação de contextos de alto risco permaneça atualizada e continue adequada às exigências legais e éticas.
Art. 7º, §6° – O Poder Judiciário do Espírito Santo deverá implementar mecanismos de monitoramento contínuo, de modo a garantir o cumprimento das vedações, bem como monitorar o desenvolvimento de soluções de IA, a fim de prevenir o uso inadvertido das tecnologias proibidas.
Art. 7º, §7º – Qualquer solução de IA que, ao longo de seu uso, for enquadrada em alguma das vedações listadas, deverá ser descontinuada, com registro no Sinapses, das razões e providências adotadas, para análise pelo Comitê Nacional de Inteligência Artificial do Judiciário, com fins de prevenir casos semelhantes.
Art. 7º, §8º – O Poder Judiciário do ES promoverá avaliação de impacto algorítmico da solução de inteligência artificial classificada como de alto risco.
Art. 7º, §9º – A avaliação de impacto algorítmico consistirá em processo contínuo e deverá ser executado conforme as diretrizes técnicas e os requisitos formulados previamente pelo Comitê Nacional de Inteligência Artificial do Judiciário, incluindo auditorias regulares, monitoramento contínuo, revisões periódicas e a adoção de ações corretivas quando necessário.
Art. 7°, §10º – A elaboração da avaliação de impacto deve, sempre que possível, incluir a participação pública, ainda que de maneira simplificada, e o acompanhamento, com acesso aos relatórios, de representante da OAB, do Ministério Público e da Defensoria Pública.
Art. 7º, §11º – As conclusões da avaliação de impacto, incluindo eventuais ações corretivas adotadas, serão públicas e disponibilizadas na plataforma Sinapses, por meio de relatórios claros e acessíveis, de forma a permitir o entendimento por magistrados, servidores e o público em geral.
[…]
Art. 9º […]
Parágrafo único. O Poder Judiciário do Espírito Santo, enquanto desenvolvedor ou contratante, deverá estabelecer processos internos aptos a garantir a segurança dos sistemas de inteligência artificial, incluindo, ao menos:
I – medidas de transparência quanto ao emprego e à governança dos sistemas de IA, com a publicação de relatórios que detalhem o funcionamento dos sistemas, suas finalidades, dados utilizados e mecanismos de supervisão;
II – a prevenção e mitigação de potenciais vieses discriminatórios ilegais ou abusivos, por meio de monitoramento contínuo, com a análise de resultados e a correção de eventuais desvios, garantindo a revisão periódica dos modelos de IA;
III – a implementação de mecanismos de governança que garantam o acompanhamento contínuo dos sistemas de IA, prevendo a definição de pessoas ou comitês internos responsáveis pela fiscalização do cumprimento das diretrizes de segurança e transparência, bem como pela análise de relatórios e recomendações de melhorias;
IV – a diretriz para que seja priorizado o desenvolvimento de soluções interoperáveis que possam ser compartilhadas e integradas entre diferentes órgãos judiciais, evitando a duplicação de esforços e garantindo eficiência no uso de recursos tecnológicos;
V – a determinação de que só deverão ser adotadas soluções de código aberto ou comerciais que permitam flexibilidade de adaptação aos contextos locais, desde que respeitadas as diretrizes de segurança, transparência e proteção de dados pessoais;
VI – a orientação de que as soluções de IA devem ser tratadas com práticas de gestão de produto, que incluam fases de definição de requisitos, desenvolvimento, testes, implementação, suporte e melhorias contínuas, com revisões que garantam a evolução dessas soluções e a mitigação de riscos associados;
VII – a diretriz de incentivo ao desenvolvimento de interfaces de programação de aplicações (APIs) que permitam a interoperabilidade para comunicação direta com os sistemas tecnológicos de outras instituições públicas que atuam junto à estrutura de Justiça, garantindo-se a celeridade, segurança e integridade dos dados; e
VIII – acesso à OAB, à advocacia pública, ao Ministério Público e às Defensorias, conforme o caso, aos relatórios de auditoria e monitoramento e à parametrização ao longo do ciclo de vida da solução que envolver o uso de inteligência artificial, nos termos deste Ano Normativo.
[…]
Art. 12. Os dados utilizados no desenvolvimento ou treinamento de modelos de inteligência artificial devem ser representativos de casos judiciais e observar as cautelas necessárias quanto ao segredo de justiça e à proteção de dados pessoais, nos termos da Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).
§ 1º Consideram-se dados representativos aqueles que refletem de forma adequada a diversidade de situações e contextos presentes no Poder Judiciário do Espírito Santo, evitando vieses que possam comprometer a equidade e a justiça decisória.
§ 2º Os dados deverão ser anonimizados sempre que possível, providência obrigatória para os dados sigilosos ou protegidos por segredo de justiça, de acordo com as melhores práticas de proteção de dados e segurança da informação.
§ 3º O Poder Judiciário do Espírito Santo deverá implementar mecanismos de curadoria e monitoramento dos dados utilizados, assegurando a conformidade com a legislação de proteção de dados e a revisão periódica das práticas de tratamento de dados.
Art. 3°. Ficam incluídos os seguintes artigos, com a seguinte redação:
Art. 13. – Qualquer modelo de inteligência artificial que venha a ser adotado pelo Poder Judiciário do Espírito Santo deverá observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as Resoluções e as Recomendações do Conselho Nacional de Justiça, a Lei Geral de Proteção de Dados Pessoais, a Lei de Acesso à Informação, a propriedade intelectual e o segredo de justiça.
§ 1º A conformidade com essas regras deverá ser assegurada contratualmente, garantida por meio de monitoramento contínuo e eventual auditoria, com foco na proteção de dados, na propriedade intelectual e na transparência dos modelos de IA adotados.
Art. 14. Os dados utilizados no processo de desenvolvimento de soluções de inteligência artificial deverão ser preferencialmente provenientes de fontes públicas ou governamentais, e serão objeto de curadoria de qualidade, particularmente quando desenvolvidos internamente, e em qualquer caso, respeitando as diretrizes da Lei Geral de Proteção de Dados Pessoais.
§ 1º Consideram-se fontes seguras para a obtenção de dados aquelas que possuam mecanismos de validação e curadoria de dados, garantindo a sua precisão, equilíbrio, integridade e confiabilidade. Quando dados de fontes não governamentais forem utilizados, deverá ser realizada uma verificação rigorosa da qualidade e segurança dos dados.
§ 2º A utilização de dados provenientes de fontes não governamentais será permitida em casos em que os dados governamentais forem insuficientes ou inadequados para o objetivo específico da solução de inteligência artificial, desde que esses dados sejam validados conforme os critérios estabelecidos neste artigo.
§ 3º No caso de soluções contratadas pelos tribunais, as fornecedoras de serviços devem garantir contratualmente o respeito às diretrizes da Lei Geral de Proteção de Dados Pessoais.
§ 4º Deverão ser coletados apenas os dados estritamente necessários ao treinamento, não devendo ser mantidos conjuntos de dados sem uso ou controle quanto ao armazenamento.
§ 5°. Para o tratamento de dados pessoais no âmbito de mecanismos de inteligência artificial, deverão ser observadas também as orientações e determinações da Autoridade Nacional de Proteção de Dados Pessoais (ANPD).
Art. 15. O armazenamento e a execução de soluções de inteligência artificial, operadas em datacenters próprios, provedores de serviço de nuvem ou por meio de APIs (interfaces de programação de aplicações), devem garantir o isolamento dos dados compartilhados pelo tribunal, utilizando mecanismos de segurança adequados, como criptografia e segregação de ambientes.
Art. 16. O Poder Judiciário do Espírito Santo assegurará a “transparência ativa” na utilização de soluções de IA, mediante a publicação de informações técnicas relevantes, relatórios de auditoria, bem como a disponibilização pública do inventário de sistemas de IA em uso.
Art. 17. Os produtos que forem gerados por IA, em especial aqueles cujo objetivo é dar suporte às decisões judiciais, deverão preservar a igualdade, a não discriminação abusiva ou ilícita e a pluralidade, assegurando que os sistemas de IA auxiliem no julgamento justo e contribuam para eliminar ou minimizar a marginalização do ser humano e os erros de julgamento decorrente de discriminação.
§1°. Quando na utilização de ferramentas de IA, o Poder Judiciário do ES implementará medidas preventivas para evitar o surgimento de vieses discriminatórios, incluindo a validação contínua das soluções de IA, auditoria e monitoramento de suas decisões ao longo de todo o ciclo de vida da aplicação, de modo as soluções de IA permaneçam em conformidade com os princípios que regem o seu uso neste Poder, devendo ainda serem gerados relatórios periódicos que subsidiem a análise do impacto das soluções nas atividades judiciais.
§ 2º Verificado viés discriminatório ou incompatibilidade da solução de inteligência artificial com os princípios previstos neste normativo, medidas corretivas deverão ser adotadas, a exemplo de suspensão temporária (imediata ou programada) da ferramenta, correção ou, se necessário, eliminação definitiva da solução ou de seu viés.
§3° Sendo constatada a impossibilidade de eliminação do viés discriminatório, a solução de IA deverá ser descontinuada, com o consequente cancelamento do registro de seu projeto no Sinapses e confecção de relatório das medidas adotadas com as razões que justificaram a decisão.
Art. 18 – O presente ato entra em vigor na data de sua publicação.
Art. 4°. O presente ato entra em vigor na data de sua publicação, ficando revogadas todas as normas em contrário.
Publique-se.
Vitória/ES, 09 de dezembro de 2025.
Desembargador SAMUEL MEIRA BRASIL JR.
Presidente
ANEXO – CLASSIFICAÇÃO DE RISCOS
Consideram-se de alto risco as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:
AR1 – identificação de perfis e de padrões comportamentais de pessoas naturais ou de grupos de pessoas naturais, exceto quando enquadradas como situações de risco mínimo ou controlado, conforme critérios objetivos estabelecidos;
AR2 – aferição da adequação dos meios de prova e a sua valoração nos processos de jurisdição contenciosa, sejam documentais, testemunhais, periciais ou de outras naturezas, especialmente quando tais avaliações possam influenciar diretamente a decisão judicial;
AR3 – averiguação, valoração, tipificação e a interpretação de fatos como sendo crimes, contravenções penais ou atos infracionais, ressalvadas as soluções voltadas à mera rotina da execução penal e de medidas socioeducativas;
AR4 – formulação de juízos conclusivos sobre a aplicação da norma jurídica ou precedentes a um conjunto determinado de fatos concretos, inclusive para a quantificação ou a qualificação de danos suportados por pessoas ou grupos, em ações criminais ou não;
AR5 – identificação e a autenticação facial ou biométrica para o monitoramento de comportamento de pessoas naturais, exceto quando utilizada para a mera confirmação da identidade de uma pessoa natural específica ou para atividades de segurança pública devidamente justificadas, sempre garantida a observância dos direitos fundamentais e monitoramento contínuo de tais soluções.
Consideram-se de baixo risco as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:
BR1 – execução de atos processuais ordinatórios ou de tarefas de apoio à administração judiciária, mediante a extração de informações de sistemas e de documentos, com a finalidade de classificação e agrupamento de dados e processos, enriquecimento de cadastros, certificação e transcrição de atos processuais, sumarização ou resumo de documentos, entre outras finalidades de gestão processual e operacional, desde que supervisionadas por responsável humano;
BR2 – detecção de padrões decisórios ou de desvios de padrões decisórios, bem como detecção de precedentes qualificados pertinentes, observado o caráter complementar da técnica de inteligência artificial, desde que não haja substituição da avaliação humana sobre processos, sendo seu uso destinado para apoio interno ao tribunal e para uniformização da jurisprudência;
BR3 – fornecimento aos magistrados de subsídios para a tomada de decisão mediante relatórios gerenciais e análises que adotem técnica jurimétrica, com a integração de fontes de informação relevantes ou a detecção de padrões decisórios, desde que não haja substituição da avaliação humana e que a solução não realize valorações de cunho moral sobre provas ou sobre perfis e condutas de pessoas;
BR4 – produção de textos de apoio para facilitar a confecção de atos judiciais, desde que a supervisão e a versão final do documento sejam realizadas pelo magistrado e com base em suas instruções, especialmente as decisões acerca das preliminares e questões de mérito;
BR5 – aprimoramento ou formatação de uma atividade humana anteriormente realizada, desde que não se altere materialmente o seu resultado, ou ainda realização de uma tarefa preparatória para uma outra, considerada como de alto risco;
BR6 – realização de análises estatísticas para fins de política judiciária, sempre com supervisão humana contínua, especialmente para evitar conclusões enviesadas;
BR7 – transcrição de áudio e vídeo para o auxílio das atividades do magistrado, com revisão final realizada por pessoa responsável;
BR8 – anonimização de documentos ou de sua exibição, especialmente para garantir sua conformidade com as normas de privacidade e proteção de dados.
TEXTO COMPILADO – ATO NORMATIVO N° 161/2024
Dispõe sobre a instituição da Política de Uso da Inteligência Artificial no âmbito do Poder Judiciário do Estado do Espírito Santo.
O Excelentíssimo Senhor Desembargador SAMUEL MEIRA BRASIL JR., Presidente do egrégio Tribunal de Justiça do Estado do Espírito Santo, no uso de suas atribuições legais,
CONSIDERANDO o estado-da-arte da Inteligência Artificial, que se destaca como ferramenta transformadora dos diversos ambientes sociais e profissionais;
CONSIDERANDO o uso crescente de inteligência artificial como forma de se aproveitar melhor os recursos, aumentando a produtividade, reduzindo custos e incrementando a resolubilidade de diferentes desafios;
CONSIDERANDO a necessidade de se garantir a ética no uso da inteligência artificial, notadamente quanto a equidade, responsabilidade e transparência (fairness, accountability, transparency);
CONSIDERANDO a necessidade de estabelecer métodos de segurança (guardrails) para se evitar o abuso na utilização de sistemas e modelos de inteligência artificial, promovendo segurança de dados, conformidade regulatória, uso ético com mitigação de vieses e verificação sistêmica;
CONSIDERANDO a importância de se diminuir vieses cognitivos em modelos de inteligência artificial treinados com dados históricos, que reproduzem discriminação encontrada na sociedade.
CONSIDERANDO a imprescindível busca de humanização da inteligência artificial e de seu alinhamento com valores humanos essenciais e com os direitos fundamentais;
RESOLVE:
Art. 1º. Instituir e regulamentar a Política de Uso de Inteligência Artificial no âmbito do Poder Judiciário do Estado do Espírito Santo.
Art. 2°. O objetivo da presente política é o de estabelecer diretrizes e estimular o uso responsável e ético da Inteligência Artificial em todos os níveis e áreas do Poder Judiciário do Estado do Espírito Santo, de modo a promover a justiça e a equidade algorítmica, a transparência, a responsabilidade e a não discriminação, em consonância com os princípios gerais do Direito, da Administração Pública e das Constituições Estadual e Federal.
Art. 3º. Para os fins desta Política, considera-se:
I – Inteligência Artificial (IA): área que trata da criação de sistemas e modelos inteligentes, capazes de raciocinar, aprender e agir de forma autônoma, a partir de objetivos definidos pelo usuário, gerando conteúdos, recomendações, sugestões e produções de diferentes materiais.
II – Modelo de IA: algoritmo (ou conjunto de algoritmos) treinado em um conjunto de dados para realizar tarefa específica, ou conjunto de tarefas distintas, podendo ser integrado em uma variedade de sistemas ou aplicações.
III – Sistema de IA: sistema baseado em um modelo de IA com capacidade de servir uma variedade de finalidades, tanto para utilização direta como para integração em outros sistemas de IA.
IV – Viés (bias): Preconceito ou distorção presente em um sistema de IA que pode levar a resultados discriminatórios, injustos ou antiéticos.
V – Preconceito: Opinião ou sentimento preconcebido em relação a um indivíduo ou grupo de pessoas, geralmente baseado em estereótipos ou generalizações.
VI – Risco de IA: potencial de o uso da inteligência artificial causar danos ou impactos adversos a pessoas, organizações, com diferentes níveis de risco.
VII – Risco sistêmico: risco específico oriundo da capacidade de alto impacto dos modelos de IA para fins gerais, devido ao seu alcance, ou devido a efeitos negativos reais ou razoavelmente previsíveis em áreas sensíveis como direitos fundamentais, igualdade – inclusive de oportunidades –, liberdades, educação, saúde pública, segurança, proteção pública, direitos fundamentais ou na sociedade no seu todo, podendo ser propagado em grande escala.
VIII – Avaliação de Risco: avaliação elaborada para identificar possíveis impactos e mitigar riscos encontrados.
IX – Incidente grave: incidente ou mau funcionamento de um sistema de IA que conduza, direta ou indiretamente, a danos graves à incolumidade física ou psíquica; à saúde das pessoas; perturbação grave e irreversível da gestão ou operação de infraestruturas críticas; violação de obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais; ou danos graves à propriedade ou ao meio ambiente.
X – Accountability: responsabilidade de se assegurar que os sistemas de inteligência artificial sejam usados de forma ética, segura e com transparência, além de permitir a realização de auditorias e atribuição de responsabilidades.
XI – Justiça e equidade algorítmica (algorithmic fairness): abordagem abrangente que objetiva adotar práticas que protejam os direitos e garantias, quando no uso de inteligência artificial.
XII – Usuário: pessoa física ou jurídica que utiliza o sistema de inteligência artificial sob sua autoridade, para fins profissionais.
XIII – Fornecedor: aquele que desenvolve sistema ou modelo de IA.
XIV – Representante: aquele que atua em nome do fornecedor de sistema ou modelo de IA cumprindo obrigações em nome do fornecedor.
XV – Distribuidor: aquele que distribui sistema ou modelo de IA.
XVI – Ciclo de vida: série de fases que compreende a concepção, o planejamento, o desenvolvimento, o treinamento, o retreinamento, a testagem, a validação, a implantação, o monitoramento e eventuais modificações e adaptações de um sistema de inteligência artificial, incluindo sua descontinuidade, que pode ocorrer em quaisquer das etapas referidas, e o acompanhamento de seus impactos após a implantação;
XVII – Desenvolvedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva ou comissione um sistema de inteligência artificial, com a finalidade de colocá-lo no mercado ou aplicá-lo em serviço fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
XVIII – Inteligência artificial generativa : sistema de IA especificamente destinado a gerar ou modificar significativamente, com diferentes níveis de autonomia, texto, imagens, áudio, vídeo ou código de software, além dos modelos estatísticos e de aprendizado a partir dos dados treinados;
XIX – Avaliação preliminar: processo de avaliação de um sistema de IA antes de sua utilização ou entrada em produção, com o objetivo de classificar seu grau de risco e atender às obrigações estabelecidas nas normas do Poder Judiciário do ES;
XX – Avaliação de impacto algorítmico: análise contínua dos impactos de um sistema de IA sobre os direitos fundamentais, com a identificação de medidas preventivas, mitigadoras de danos e de maximização dos impactos positivos, sem a violação da propriedade industrial e intelectual da solução de IA utilizada.
XXI – Privacy by design: preservação da privacidade dos dados desde a concepção de qualquer novo projeto ou serviço de IA durante todo o seu ciclo de vida, inclusive na anonimização e encriptação de dados sigilosos;
XXII – Privacy by default: utilização, por padrão, de alto nível de confidencialidade de dados;
XXIII – Prompt: texto em linguagem natural utilizado na IA generativa para execução de uma tarefa específica;
XXIV – Auditabilidade: capacidade de um sistema de IA se sujeitar à avaliação dos seus algoritmos, dados, processos de concepção ou resultados, sempre que tecnicamente possível;
XXV – Explicabilidade: compreensão clara, sempre que tecnicamente possível, de como as “decisões” são tomadas pela IA; e
XXVI – Contestabilidade: possibilidade de questionamento e revisão dos resultados gerados pela IA.
XXVII – Misinformation: informação falsa ou imprecisa que pode se espalhar, sem que haja a intenção prévia de enganar.
XXVIII – Disinformation: desinformação intencional, a partir do uso de informação falsa criada e compartilhada com o intuito de enganar ou manipular.
XXIX – Malinformation: informação verdadeira, mas utilizada de forma a causar dano ou prejudicar um indivídou ou um grupo.
XXX – Deep fakes: tecnologias baseadas em inteligência artificial capazes de gerar vídeos, áudios e imagens falsas, criando fatos que não ocorreram realmente.
XXXI – Doxing: prática de divulgar informações pessoais e privadas de um indivíduo na internet, com o intuito de prejudicar, assediar ou ameaçar.
XXXII – Jailbreaking em guardrails: prática que contorna ou remove restrições e limitações de um sistema de IA, possibilitando a realização de ações não autorizadas ou perigosas.
XXXIII – Rastreamento de dados privados: prática de coletar e monitorar informações pessoais de indivíduos, frequentemente sem seu consentimento, para fins de análise ou comercialização.
Art. 4º. A utilização de inteligência artificial no Poder Judiciário do Estado do Espírito Santo deverá observar os princípios da legalidade, transparência, neutralidade, imparcialidade, uso responsável, segurança, robustez, privacidade, accountability, bem-estar social e, principalmente, da justiça e equidade algorítmica.
Parágrafo único. Além dos previstos no caput deste artigo, o desenvolvimento, a governança, a auditoria, o monitoramento e o uso de soluções de IA no Poder Judiciário do Espírito Santo deverão observar também os princípios de inclusão, eficiência, explicabilidade, contestabilidade, auditabilidade, confiabilidade das soluções que adotam técnicas de inteligência artificial; segurança jurídica, segurança da informação; eficiência e qualidade na entrega da prestação jurisdicional, com observância dos direitos fundamentais; devido processo legal, ampla defesa e contraditório; identidade física do juiz e razoável duração do processo, com observância das prerrogativas e dos direitos dos atores do sistema de Justiça; prevenção, a precaução e o controle quanto a medidas eficazes para a mitigação de riscos derivados do uso intencional ou não intencional de soluções que adotam técnicas de inteligência artificial; supervisão humana efetiva, periódica e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido, com possibilidade de ajuste dessa supervisão conforme o nível de automação e impacto da solução utilizada; e oferta de capacitação contínua para magistrados e servidores sobre riscos da automação, vieses algorítmicos e análise crítica dos resultados gerados por IA.
Art. 5º. O uso de inteligência artificial no Poder Judiciário do Estado do Espírito Santo deverá se pautar em boas práticas que estejam alinhadas com princípios de governança e com respeito às normas gerais de direito.
Art. 6º. O Poder Judiciário do Estado do Espírito Santo deverá, quando no uso de inteligência artificial, obrigatoriamente, realizar supervisão humana dos sistemas utilizados; monitorar contínua e permanentemente os sistemas de IA, gerar relatórios periódicos e efetuar auditorias regulares.
Art. 7º. A avaliação de risco dos sistemas e modelos de IA será distribuído em quatro níveis:
I – Risco mínimo: sistemas e modelos de IA cuja utilização tenha impacto inexpressivo;
II – Risco Moderado: sistemas e modelos de IA relacionadas a decisões de recursos humanos, podendo causar algum impacto negativo, mas que não afetam direitos fundamentais e valores essenciais;
III – Risco Alto: sistemas e modelos de IA que influenciem decisões críticas, com probabilidade de gerar danos a valores humanos essenciais e a direitos fundamentais;
IV – Risco Inaceitável: quando existir risco potencial de dano a seres humanos em grau insuportável, com profunda e irreparável violação a direitos fundamentais e aos valores sociais essenciais.
§ 1º. Ficam vedadas, no Poder Judiciário do Estado do Espírito Santo, práticas ou ferramentas que possam resultar em riscos inaceitáveis ou em discriminação injusta contra indivíduos ou grupos, bem como ferramentas que explorem vulnerabilidades específicas ou que influenciem o comportamento das pessoas de modo iníquo ou preconceituoso, assim como o uso de sistemas de avaliação social baseada em comportamento ou características pessoais.
§1-A. Ficam vedadas também, ao Poder Judiciário do Espírito Santo, o desenvolvimento ou uso de soluções que:
I – que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão;
II – que valorem traços da personalidade, características ou comportamentos de pessoas naturais ou de grupos de pessoas naturais, para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva na fundamentação de decisões judiciais, bem como para fins preditivos ou estatísticos com o propósito de fundamentar decisões em matéria trabalhista a partir da formulação de perfis pessoais;
III – que classifiquem ou ranqueiem pessoas naturais, com base no seu comportamento ou situação social ou ainda em atributos da sua personalidade, para a avaliação da plausibilidade de seus direitos, méritos judiciais ou testemunhos; e
IV – a identificação e a autenticação de padrões biométricos para o reconhecimento de emoções.
§ 2º. Os sistemas de inteligência artificial considerados de alto risco somente poderão ser usados no Poder Judiciário do Estado do Espírito Santo de maneira controlada e desde que sejam verificados, previamente, o atendimento das seguintes condições:
I. Análise de riscos para identificar e avaliar os riscos potenciais do sistema;
II. Implementação de medidas de mitigação para reduzir os riscos identificados;
III. Garantia de transparência sobre o funcionamento do sistema;
IV. Estabelecimento de mecanismos de supervisão humana, com o escopo de que o uso da ferramenta seja feito de modo responsável e ético.
§ 3º. A utilização de inteligência artificial considerada de alto risco será condicionada a avaliação de conformidade, incluindo verificação de possíveis vieses nos dados e nos algoritmos, de modo a eliminar a discriminação algorítmica.
§ 4º. A Presidência do Tribunal de Justiça deverá divulgar periodicamente lista atualizada de práticas, sistemas e modelos classificados com os respectivos níveis de riscos, devendo observar também a Classificação de Riscos estabelecida pelo Conselho Nacional de Justiça. (VIDE ANEXO)
§5°. O Poder Judiciário do Estado do Espírito Santo deverá observar a atualização anual da Classificação de Riscos, a ser feita pelo Comitê Nacional de Inteligência Artificial do Judiciário, conforme dispõe a Resolução n° 615/2025 do Conselho Nacional de Justiça e alterações posteriores, de modo a assegurar que a classificação de contextos de alto risco permaneça atualizada e continue adequada às exigências legais e éticas.
§6°. O Poder Judiciário do Espírito Santo deverá implementar mecanismos de monitoramento contínuo, de modo a garantir o cumprimento das vedações, bem como monitorar o desenvolvimento de soluções de IA, a fim de prevenir o uso inadvertido das tecnologias proibidas.
§7º. Qualquer solução de IA que, ao longo de seu uso, for enquadrada em alguma das vedações listadas, deverá ser descontinuada, com registro no Sinapses, das razões e providências adotadas, para análise pelo Comitê Nacional de Inteligência Artificial do Judiciário, com fins de prevenir casos semelhantes.
§8º. O Poder Judiciário do ES promoverá avaliação de impacto algorítmico da solução de inteligência artificial classificada como de alto risco.
§9º. A avaliação de impacto algorítmico consistirá em processo contínuo e deverá ser executado conforme as diretrizes técnicas e os requisitos formulados previamente pelo Comitê Nacional de Inteligência Artificial do Judiciário, incluindo auditorias regulares, monitoramento contínuo, revisões periódicas e a adoção de ações corretivas quando necessário.
§10º. A elaboração da avaliação de impacto deve, sempre que possível, incluir a participação pública, ainda que de maneira simplificada, e o acompanhamento, com acesso aos relatórios, de representante da OAB, do Ministério Público e da Defensoria Pública.
§11º. As conclusões da avaliação de impacto, incluindo eventuais ações corretivas adotadas, serão públicas e disponibilizadas na plataforma Sinapses, por meio de relatórios claros e acessíveis, de forma a permitir o entendimento por magistrados, servidores e o público em geral.
Art. 8º. O sistema de Processo Eletrônico usado pelo Poder Judiciário do Estado do Espírito Santo poderá incorporar, desenvolver ou utilizar ferramentas de IA, mas deverá realizar o treinamento dos modelos observando os princípios de qualidade dos dados, diversidade dos dados, mitigação de vieses, monitoramento e avaliação periódica e permanente.
Art. 9º. O Poder Judiciário do Estado do Espírito Santo deverá estabelecer estrutura de governança destinada ao gerenciamento do uso de ferramentas de inteligência artificial, podendo, para tanto, instituir Comitê de Ética em IA, com unidade de especialistas em IA, além de processos de análise e aprovação de projetos de IA a serem implementados.
Parágrafo único. O Poder Judiciário do Espírito Santo, enquanto desenvolvedor ou contratante, deverá estabelecer processos internos aptos a garantir a segurança dos sistemas de inteligência artificial, incluindo, ao menos:
I – medidas de transparência quanto ao emprego e à governança dos sistemas de IA, com a publicação de relatórios que detalhem o funcionamento dos sistemas, suas finalidades, dados utilizados e mecanismos de supervisão;
II – a prevenção e mitigação de potenciais vieses discriminatórios ilegais ou abusivos, por meio de monitoramento contínuo, com a análise de resultados e a correção de eventuais desvios, garantindo a revisão periódica dos modelos de IA;
III – a implementação de mecanismos de governança que garantam o acompanhamento contínuo dos sistemas de IA, prevendo a definição de pessoas ou comitês internos responsáveis pela fiscalização do cumprimento das diretrizes de segurança e transparência, bem como pela análise de relatórios e recomendações de melhorias;
IV – a diretriz para que seja priorizado o desenvolvimento de soluções interoperáveis que possam ser compartilhadas e integradas entre diferentes órgãos judiciais, evitando a duplicação de esforços e garantindo eficiência no uso de recursos tecnológicos;
V – a determinação de que só deverão ser adotadas soluções de código aberto ou comerciais que permitam flexibilidade de adaptação aos contextos locais, desde que respeitadas as diretrizes de segurança, transparência e proteção de dados pessoais;
VI – a orientação de que as soluções de IA devem ser tratadas com práticas de gestão de produto, que incluam fases de definição de requisitos, desenvolvimento, testes, implementação, suporte e melhorias contínuas, com revisões que garantam a evolução dessas soluções e a mitigação de riscos associados;
VII – a diretriz de incentivo ao desenvolvimento de interfaces de programação de aplicações (APIs) que permitam a interoperabilidade para comunicação direta com os sistemas tecnológicos de outras instituições públicas que atuam junto à estrutura de Justiça, garantindo-se a celeridade, segurança e integridade dos dados; e
VIII – acesso à OAB, à advocacia pública, ao Ministério Público e às Defensorias, conforme o caso, aos relatórios de auditoria e monitoramento e à parametrização ao longo do ciclo de vida da solução que envolver o uso de inteligência artificial, nos termos deste Ano Normativo.
Art. 10. O Poder Judiciário do Estado do Espírito Santo deverá primar pela diversidade na equipe responsável por avaliar, implementar, estudar ou utilizar a inteligência artificial, com o escopo de possibilitar a detecção e a antecipação de problemas que possam ocasionar resultados discriminatórios e antiéticos, bem como a de evitar a ocorrência de incidentes graves.
Art. 11. O presente regulamento é destinado a todos os agentes do Poder Judiciário, incluindo magistrados, servidores, estagiários e demais colaboradores e unidades, bem como fornecedores, representantes e distribuidores de sistemas de IA.
Parágrafo único. Todos os agentes são responsáveis pelas consequências nocivas ocasionadas pelo uso abusivo da inteligência artificial, seja de forma dolosa ou culposa, que possam prejudicar, discriminar, produzir informação falsa e/ou maliciosa (misinformation, disinformation, malinformation), deep fakes, doxing, jailbreaking em guardrails, rastreamento de dados privados ou qualquer uso nocivo que reproduza ou facilite ilícitos criminais, civis ou administrativos, devendo cada um deles, na medida de suas responsabilidades, desenvolver e implementar mecanismos de mitigação ou eliminação de riscos.
Art. 12. Os dados utilizados no desenvolvimento ou treinamento de modelos de inteligência artificial devem ser representativos de casos judiciais e observar as cautelas necessárias quanto ao segredo de justiça e à proteção de dados pessoais, nos termos da Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais – LGPD).
§1º. Consideram-se dados representativos aqueles que refletem de forma adequada a diversidade de situações e contextos presentes no Poder Judiciário do Espírito Santo, evitando vieses que possam comprometer a equidade e a justiça decisória.
§2º. Os dados deverão ser anonimizados sempre que possível, sendo essa uma providência obrigatória para os dados sigilosos ou protegidos por segredo de justiça, de acordo com as melhores práticas de proteção de dados e segurança da informação.
§3º. O Poder Judiciário do Espírito Santo deverá implementar mecanismos de curadoria e monitoramento dos dados utilizados, assegurando a conformidade com a legislação de proteção de dados e a revisão periódica das práticas de tratamento de dados.
Art. 13. Qualquer modelo de inteligência artificial que venha a ser adotado pelo Poder Judiciário do Espírito Santo deverá observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as Resoluções e as Recomendações do Conselho Nacional de Justiça, a Lei Geral de Proteção de Dados Pessoais, a Lei de Acesso à Informação, a propriedade intelectual e o segredo de justiça.
§1º. A conformidade com essas regras deverá ser assegurada contratualmente, garantida por meio de monitoramento contínuo e eventual auditoria, com foco na proteção de dados, na propriedade intelectual e na transparência dos modelos de IA adotados.
Art. 14. Os dados utilizados no processo de desenvolvimento de soluções de inteligência artificial deverão ser preferencialmente provenientes de fontes públicas ou governamentais, e serão objeto de curadoria de qualidade, particularmente quando desenvolvidos internamente, e em qualquer caso, respeitando as diretrizes da Lei Geral de Proteção de Dados Pessoais.
§1º. Consideram-se fontes seguras para a obtenção de dados aquelas que possuam mecanismos de validação e curadoria de dados, garantindo a sua precisão, equilíbrio, integridade e confiabilidade. Quando dados de fontes não governamentais forem utilizados, deverá ser realizada uma verificação rigorosa da qualidade e segurança dos dados.
§2º. A utilização de dados provenientes de fontes não governamentais será permitida em casos em que os dados governamentais forem insuficientes ou inadequados para o objetivo específico da solução de inteligência artificial, desde que esses dados sejam validados conforme os critérios estabelecidos neste artigo.
§3º. No caso de soluções contratadas pelos tribunais, as fornecedoras de serviços devem garantir contratualmente o respeito às diretrizes da Lei Geral de Proteção de Dados Pessoais.
§4º. Deverão ser coletados apenas os dados estritamente necessários ao treinamento, não devendo ser mantidos conjuntos de dados sem uso ou controle quanto ao armazenamento.
§5°. Para o tratamento de dados pessoais no âmbito de mecanismos de inteligência artificial, deverão ser observadas também as orientações e determinações da Autoridade Nacional de Proteção de Dados Pessoais (ANPD).
Art. 15. O armazenamento e a execução de soluções de inteligência artificial, operadas em datacenters próprios, provedores de serviço de nuvem ou por meio de APIs (interfaces de programação de aplicações), devem garantir o isolamento dos dados compartilhados pelo tribunal, utilizando mecanismos de segurança adequados, como criptografia e segregação de ambientes.
Art. 16. O Poder Judiciário do Espírito Santo assegurará a “transparência ativa” na utilização de soluções de IA, mediante a publicação de informações técnicas relevantes, relatórios de auditoria, bem como a disponibilização pública do inventário de sistemas de IA em uso.
Art. 17. Os produtos que forem gerados por IA, em especial aqueles cujo objetivo é dar suporte às decisões judiciais, deverão preservar a igualdade, a não discriminação abusiva ou ilícita e a pluralidade, assegurando que os sistemas de IA auxiliem no julgamento justo e contribuam para eliminar ou minimizar a marginalização do ser humano e os erros de julgamento decorrente de discriminação.
§1°. Quando na utilização de ferramentas de IA, o Poder Judiciário do ES implementará medidas preventivas para evitar o surgimento de vieses discriminatórios, incluindo a validação contínua das soluções de IA, auditoria e monitoramento de suas decisões ao longo de todo o ciclo de vida da aplicação, de modo as soluções de IA permaneçam em conformidade com os princípios que regem o seu uso neste Poder, devendo ainda serem gerados relatórios periódicos que subsidiem a análise do impacto das soluções nas atividades judiciais.
§2º Verificado viés discriminatório ou incompatibilidade da solução de inteligência artificial com os princípios previstos neste normativo, medidas corretivas deverão ser adotadas, a exemplo de suspensão temporária (imediata ou programada) da ferramenta, correção ou, se necessário, eliminação definitiva da solução ou de seu viés.
§3° Sendo constatada a impossibilidade de eliminação do viés discriminatório, a solução de IA deverá ser descontinuada, com o consequente cancelamento do registro de seu projeto no Sinapses e confecção de relatório das medidas adotadas com as razões que justificaram a decisão.
Art. 18. O presente ato entra em vigor na data de sua publicação.
Publique-se.
Vitória, ES, 09 de dezembro de 2025.
Desembargador SAMUEL MEIRA BRASIL JR.
Presidente
ANEXO – CLASSIFICAÇÃO DE RISCOS
Consideram-se de alto risco as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:
AR1 – identificação de perfis e de padrões comportamentais de pessoas naturais ou de grupos de pessoas naturais, exceto quando enquadradas como situações de risco mínimo ou controlado, conforme critérios objetivos estabelecidos;
AR2 – aferição da adequação dos meios de prova e a sua valoração nos processos de jurisdição contenciosa, sejam documentais, testemunhais, periciais ou de outras naturezas, especialmente quando tais avaliações possam influenciar diretamente a decisão judicial;
AR3 – averiguação, valoração, tipificação e a interpretação de fatos como sendo crimes, contravenções penais ou atos infracionais, ressalvadas as soluções voltadas à mera rotina da execução penal e de medidas socioeducativas;
AR4 – formulação de juízos conclusivos sobre a aplicação da norma jurídica ou precedentes a um conjunto determinado de fatos concretos, inclusive para a quantificação ou a qualificação de danos suportados por pessoas ou grupos, em ações criminais ou não;
AR5 – identificação e a autenticação facial ou biométrica para o monitoramento de comportamento de pessoas naturais, exceto quando utilizada para a mera confirmação da identidade de uma pessoa natural específica ou para atividades de segurança pública devidamente justificadas, sempre garantida a observância dos direitos fundamentais e monitoramento contínuo de tais soluções.
Consideram-se de baixo risco as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:
BR1 – execução de atos processuais ordinatórios ou de tarefas de apoio à administração judiciária, mediante a extração de informações de sistemas e de documentos, com a finalidade de classificação e agrupamento de dados e processos, enriquecimento de cadastros, certificação e transcrição de atos processuais, sumarização ou resumo de documentos, entre outras finalidades de gestão processual e operacional, desde que supervisionadas por responsável humano;
BR2 – detecção de padrões decisórios ou de desvios de padrões decisórios, bem como detecção de precedentes qualificados pertinentes, observado o caráter complementar da técnica de inteligência artificial, desde que não haja substituição da avaliação humana sobre processos, sendo seu uso destinado para apoio interno ao tribunal e para uniformização da jurisprudência;
BR3 – fornecimento aos magistrados de subsídios para a tomada de decisão mediante relatórios gerenciais e análises que adotem técnica jurimétrica, com a integração de fontes de informação relevantes ou a detecção de padrões decisórios, desde que não haja substituição da avaliação humana e que a solução não realize valorações de cunho moral sobre provas ou sobre perfis e condutas de pessoas;
BR4 – produção de textos de apoio para facilitar a confecção de atos judiciais, desde que a supervisão e a versão final do documento sejam realizadas pelo magistrado e com base em suas instruções, especialmente as decisões acerca das preliminares e questões de mérito;
BR5 – aprimoramento ou formatação de uma atividade humana anteriormente realizada, desde que não se altere materialmente o seu resultado, ou ainda realização de uma tarefa preparatória para uma outra, considerada como de alto risco;
BR6 – realização de análises estatísticas para fins de política judiciária, sempre com supervisão humana contínua, especialmente para evitar conclusões enviesadas;
BR7 – transcrição de áudio e vídeo para o auxílio das atividades do magistrado, com revisão final realizada por pessoa responsável;
BR8 – anonimização de documentos ou de sua exibição, especialmente para garantir sua conformidade com as normas de privacidade e proteção de dados.
Desembargador SAMUEL M. BRASIL
Presidente

