Por José Adriano
A Inteligência Artificial já deixou de ser assunto de laboratório e virou pressão do dia a dia. Só que tem um detalhe que pouca gente encara de frente: a IA não muda apenas a forma como a gente executa tarefas, ela muda a forma como a gente aprende, decide e assina embaixo. No episódio 23 do José Adriano Talks, eu conversei com Alexandre Atheniense, advogado de Direito Digital, professor e perito em TI, sobre profissões na era da IA e o ponto mais espinhoso dessa história: direitos autorais.
O Atheniense tem uma trajetória rara, de quem viu essa convergência nascer. Ele conta como foi pioneiro no uso de computador na advocacia e no conteúdo digital, e como vive agora um tipo de déjà vu com a IA. A diferença é que, dessa vez, a onda veio mais rápida, mais massiva e com um impacto brutal no trabalho intelectual. A conversa foi bem no estilo que eu gosto: menos teoria e mais vida real, com exemplos, riscos e caminhos práticos.
Uma das ideias mais fortes do episódio é simples e incômoda: acabou a era do “eu não sei” como desculpa. Não porque todo mundo virou gênio, mas porque ficou barato e acessível perguntar, explorar, comparar e aprender. Quem se recusa a fazer isso, na prática, está escolhendo ficar para trás. E aqui entra o ponto executivo: IA não é só ferramenta, é uma competência. É reskilling, reaprender a aprender, com curiosidade e método.
O livro novo do Alexandre, O advogado exponencial na era da IA, organiza essa visão em três frentes: análise de plataformas, desenvolvimento de talentos humanos e aplicações práticas no escritório. Ele estudou dezenas de ferramentas e reforça um ponto que vale para qualquer profissão: não existe uma IA igual à outra. Tem ferramenta boa para pesquisa profunda, tem ferramenta melhor para multimodalidade, tem agente especializado para uma tarefa específica. O profissional que amplia repertório de ferramentas, com critério, amplia repertório de soluções.
E aí vem a pergunta de sempre: e as plataformas chinesas, dá para usar? A resposta dele é pragmática: “dá, desde que você trate dados com maturidade”. A salvaguarda número um não é geopolítica, é governança. Não coloque dado sensível de cliente, não exponha segredo de negócio, não entregue informação identificável. Quando for necessário trabalhar um caso, anonimize, masqueie, tire nome, tire CPF, tire qualquer coisa que permita reidentificação. Isso não é frescura, é o mínimo para usar IA com responsabilidade, seja a plataforma de onde for.
Na prática, o Atheniense descreve como isso se traduz no escritório dele: eles criaram avatares e agentes especialistas por assunto, alimentados com curadoria diária, funcionando como copilotos. O ganho não é só velocidade, é aumento de capacidade cognitiva com atualização contínua, sem perder controle. A lógica é parecida com ter um time de especialistas “de prontidão”, mas com uma regra inegociável: a revisão e a decisão final continuam sendo humanas.
Essa regra aparece na analogia que eu achei mais didática do episódio: acabou o advogado psicografado. Aquele profissional que senta, despeja tudo que sabe e entrega uma peça longa, repetitiva, que ninguém quer ler. IA bem usada inverte o jogo: ela ajuda a estruturar, sugerir referências, organizar argumentos e reduzir desperdício, e o humano entra para criticar, validar, ajustar estratégia e garantir autoria real. Resultado: entrega mais objetiva, mais consistente e com menos retrabalho.
Quando a gente entra em direitos autorais, o assunto esquenta. Nos Estados Unidos, a briga tem muito peso econômico e gira em torno de conceitos como fair use, o tal uso razoável, essa zona cinzenta que depende do caso. No Brasil, a discussão tende a ser mais protetiva e muitas vezes encosta com força em direitos da personalidade, como imagem e identidade, além do direito autoral em si. O episódio lembra como a nossa lei é antiga para o tamanho do problema atual e como a regulação está tentando fechar lacunas, inclusive reforçando que autoria exige participação humana explícita, não pode ser atribuída ao sistema.
E aqui está o alerta mais importante para qualquer executivo e profissional: o risco não é só multa, processo ou dor de cabeça jurídica. O risco é reputação. O Alexandre cita casos em que a IA foi usada sem revisão humana e gerou conteúdo falso, desatualizado, incoerente, e isso tem sido punido. Quem se deslumbra, copia e cola, assina embaixo e publica, está fazendo roleta russa com a própria credibilidade. O caminho seguro é chato, mas funciona: processo de checagem, revisão humana, curadoria de fontes, e humildade para admitir quando a IA não sabe ou alucina.
Acompanhe este e os demais episódios do José Adriano Talks, porque a ideia do podcast é provocar reflexão executiva em temas que estão mudando o jogo, de IA a compliance, de governança a Reforma Tributária, sempre com pé no chão e foco no que dá para fazer agora.
O podcast José Adriano Talks é apoiado por BlueTax, MitySafe, Grupo LPJ e KTGroup.
Ouça e participe:
O episódio completo está disponível no Spotify e demais plataformas de áudio. Links em https://www.joseadrianotalks.com.br/