A incorporação da inteligência artificial (IA) à prática jurídica deixou de ser uma hipótese futura e passou a integrar o cotidiano da advocacia. Recentemente, a OAB-RJ anunciou convênio para facilitar o acesso de advogados a ferramentas de IA jurídica, sinalizando uma aposta institucional na modernização da profissão. Segundo matéria noticiada no site da Seccional, trata-se de um convênio com a empresa Be You Business Units, especializada em soluções de inteligência artificial (IA), que dá acesso a uma ferramenta específica para a advocacia que é a plataforma “Legal AI”.
A iniciativa é compreensível. O Direito contemporâneo opera em ambiente de elevada complexidade normativa, sobrecarga informacional e pressão por eficiência. Nesse contexto, ferramentas tecnológicas podem auxiliar na pesquisa jurisprudencial, organização de processos, análise documental e elaboração de minutas, liberando tempo para atividades estratégicas e reflexivas que exigem maior densidade intelectual.
Contudo, o entusiasmo com a tecnologia não dispensa cautela. Pelo contrário: exige reflexão crítica, ética e jurídica — especialmente à luz das advertências feitas pelo neurocientista Miguel Nicolelis, um dos principais críticos do uso acrítico da inteligência artificial.
Nicolelis sustenta que sistemas de IA não pensam, não compreendem e não possuem consciência. Funcionam por correlação estatística de dados, e não por entendimento semântico ou juízo de valor. Tal distinção mostra-se essencial para o Direito, área em que decisões envolvem interpretação, responsabilidade moral e consequências humanas concretas.
Na advocacia, existe o risco de se confundir fluência textual com solidez jurídica. Uma peça bem redigida, com aparência técnica e citações corretas, pode conter fragilidades conceituais, inadequação estratégica ou até erros factuais.
Além disso, a IA não conhece o cliente, não responde disciplinarmente e não assume responsabilidade civil ou ética. E essa responsabilidade permanece integralmente atribuída ao advogado que utiliza a ferramenta.
Esse ponto foi recentemente reforçado pelo próprio sistema OAB. A Recomendação nº 001/2024 do Conselho Federal da OAB (CFOAB) estabelece diretrizes éticas claras para o uso de IA generativa na prática jurídica. O documento reafirma que a tecnologia deve ser instrumento auxiliar, jamais substituta dos atos privativos da advocacia, exigindo supervisão humana obrigatória em todas as etapas relevantes.
A Recomendação também enfatiza a observância rigorosa da legislação aplicável, incluindo o Estatuto da Advocacia, o Código de Ética e Disciplina da OAB, o Código de Processo Civil e a Lei Geral de Proteção de Dados (LGPD). Em especial, destaca-se o dever de confidencialidade, com a orientação expressa de que dados de clientes não devem ser inseridos em sistemas de IA sem anonimização adequada, sob pena de violação de sigilo profissional.
No campo processual, a supervisão humana ganha relevância ainda maior. O art. 77 do CPC impõe às partes e a seus procuradores o dever de agir com boa-fé, o que inclui verificar a veracidade das informações apresentadas em juízo. Eventuais erros, distorções ou “alucinações” produzidas por sistemas de IA não afastam a responsabilidade do advogado que os utiliza.
Esse entendimento se harmoniza com o Provimento nº 205/2021 do Conselho Federal da OAB, que já havia afirmado a responsabilidade pessoal do advogado pelas informações que produz e divulga no exercício profissional quanto à publicidade e o marketing jurídico, reforçando a responsabilidade por informações objetivas e verdadeiras (art. 1º, §1º), independentemente das ferramentas utilizadas. Por analogia, conclui-se que a tecnologia não cria qualquer zona de isenção ética ou disciplina.
Não podemos jamais esquecer de que a advocacia é exercício pessoal e indelegável, fundado na confiança, na lealdade e na responsabilidade técnica. Assim, erros cometidos com auxílio de IA via continuam sendo falhas do advogado — não do algoritmo.
Outro risco apontado por críticos como Nicolelis é a chamada “delegação cognitiva”. O uso acrítico e contínuo de sistemas automatizados pode levar à padronização excessiva de argumentos, à redução do esforço intelectual próprio e ao empobrecimento da criatividade jurídica. O Direito, contudo, avança justamente quando é interpretado de forma crítica, contextual e inovadora — papel que não pode ser terceirizado a modelos estatísticos.
Ferramentas que prometem traçar perfis decisórios de magistrados também exigem prudência. Embora dados estatísticos possam auxiliar na compreensão do cenário jurisprudencial, reduzir decisões humanas complexas a padrões fixos pode gerar estratégias equivocadas e reforçar uma visão mecanicista do Judiciário, incompatível com a dinâmica real da Justiça.
Nada disso significa rejeitar a inteligência artificial. Quando utilizada de forma responsável, transparente e supervisionada, ela pode democratizar o acesso a recursos, fortalecer pequenos escritórios e aumentar a eficiência da advocacia. A própria Recomendação nº 001/2024 do CFOAB reconhece esse potencial positivo, desde que acompanhado de ética, controle humano e respeito às normas profissionais.
O desafio, portanto, não é escolher entre tradição e inovação, mas garantir que a tecnologia amplie — e não substitua — o pensamento jurídico. Usar IA de forma ética significa reconhecer seus limites, preservar o protagonismo humano e assumir integralmente a responsabilidade pelas decisões tomadas.
A advocacia do futuro poderá ser mais tecnológica, mas não pode ser menos responsável, menos crítica ou menos humana.













