- Por que os advogados devem ser cautelosos (e por que ainda devem usar IA)
- Os riscos principais: o que pode correr mal
- Casos reais de advogados sancionados por uso descuidado de IA
- Comparacao de planos do ChatGPT: Gratuito vs Plus vs Team vs Enterprise vs API
- Casos de uso seguros: pesquisa, redigir, resumir, traduzir
- O que nunca inserir no ChatGPT
- Quadro regulatorio portugues: OA, Codigo Deontologico e sigilo profissional
- RGPD Arts. 28, 30 e 35: o que os escritorios de advocacia precisam de saber
- O Ato de IA da UE e as implicacoes para ferramentas de IA juridica
- Alternativas para trabalho sensivel: Luminance, CoCounsel, Harvey AI, Spellbook, Legartis
- Ferramentas portuguesas e locais: vLex, DGSI, Citius
- Como criar uma politica de uso de IA para o seu escritorio
- Recomendacoes de formacao da equipa
- Erros comuns dos advogados com o ChatGPT
Por que os advogados devem ser cautelosos (e por que ainda devem usar IA)
A profissao juridica tem uma relacao complicada com o ChatGPT. Por um lado, e genuinamente util. Os advogados que o utilizam bem relatam poupancas de horas semanais em resumos de pesquisa, primeiros rascunhos e comunicacoes internas. Por outro lado, os escritorios de advocacia lidam com alguns dos dados pessoais e comerciais mais sensiveis que existem. As consequencias de uma violacao nao se limitam a uma coima. Podem destruir relacoes com clientes, desencadear processos disciplinares da Ordem dos Advogados e expor o escritorio a reclamacoes de responsabilidade profissional.
Ambos os instintos estao corretos. A cautela e justificada. O interesse tambem.
O erro esta em tratar isto como algo binario: ou evitar completamente o ChatGPT, ou usa-lo sem pensar. Nenhum dos extremos serve os seus clientes nem a sua pratica. A abordagem correta consiste em saber exatamente o que pode e o que nao pode inserir em cada versao da ferramenta, e incorporar esse conhecimento na politica do escritorio antes que alguem faca algo irreversivel.
A estatistica-chave: Um estudo da Thomson Reuters de 2025 revelou que 74% dos advogados acredita que as ferramentas de IA generativa como o ChatGPT vao alterar significativamente o trabalho juridico nos proximos dois anos. O mesmo estudo revelou que 52% ja utilizou ferramentas de IA para pelo menos uma tarefa profissional. A questao nao e se deve envolver-se. E como faze-lo com seguranca.
O mercado juridico portugues encontra-se numa fase de adocao precoce mas crescente da IA. Os grandes escritorios de Lisboa e Porto comecaram a experimentar ferramentas de IA, mas a maioria dos escritorios medios e pequenos ainda nao formalizou o seu uso. Esta situacao cria uma janela de oportunidade: os escritorios que adotarem a IA agora, de forma refletida e segura, vao obter uma vantagem competitiva significativa num mercado em transformacao.
Este guia nao lhe da licoes teoricas. Diz-lhe o que configurar, o que escrever, o que nunca escrever e que ferramentas usar quando a tarefa e demasiado sensivel para uma IA de uso geral.
Os riscos principais: o que pode correr mal
Antes da secao de configuracao, precisa de compreender os riscos reais. Nao os titulos vagos de "a IA e perigosa", mas os modos de falha especificos que afetam os escritorios de advocacia.
Dados de clientes em conjuntos de treino
A configuracao padrao da OpenAI para os planos gratuito e Plus inclui a utilizacao de dados das conversas para melhorar os seus modelos. Isto significa que se colar o nome de um cliente, os detalhes de um processo ou os termos de um contrato numa conversa standard do ChatGPT, existe uma probabilidade real de essa informacao poder surgir em respostas a outros utilizadores. Nao e hipotetico. Em 2023, um engenheiro da Samsung carregou inadvertidamente codigo proprietario para o ChatGPT e o incidente tornou-se publico. Os escritorios de advocacia enfrentam o mesmo risco com informacoes protegidas pelo sigilo profissional.
A boa noticia: este risco e totalmente configuravel. A ma noticia: a maioria dos advogados nao sabe como configurar, e as definicoes padrao nao sao seguras para trabalho juridico.
Alucinacoes em contextos juridicos
O ChatGPT inventa factos. Nao ocasionalmente. Com regularidade, com confianca e de forma convincente. As alucinacoes em contextos juridicos tendem a ocorrer precisamente onde sao mais perigosas: citacoes de acordaos, numeros de artigos, prazos processuais e clausulas contratuais especificas. O ChatGPT produz texto que parece autoritativo mesmo quando os dados subjacentes sao inventados.
Nunca trate os resultados do ChatGPT como fonte primaria para citacoes juridicas, referencias legislativas ou jurisprudencia. Utilize-o para encontrar pistas e verifique cada referencia em bases de dados como a DGSI, o Citius, a vLex ou a Wolters Kluwer antes de qualquer coisa se aproximar de uma peca processual ou de um parecer para um cliente.
Sigilo profissional e confidencialidade
Na profissao juridica, as comunicacoes entre advogado e cliente estao protegidas pelo sigilo profissional. Esta protecao pode ser perdida se a comunicacao for revelada a um terceiro. O estatuto juridico da informacao processada por uma plataforma de IA comercial ainda esta em desenvolvimento, mas a posicao prudente e que carregar comunicacoes protegidas pelo sigilo profissional para uma plataforma de IA de uso geral constitui um risco de violacao desse sigilo. A Ordem dos Advogados Portuguesa (OA) ja se pronunciou formalmente sobre este ponto.
RGPD e obrigacoes de protecao de dados
Para os advogados europeus existe um quarto risco que os seus homologos de outras jurisdicoes nao enfrentam da mesma forma: a regulamentacao de protecao de dados. Carregar dados pessoais de clientes para uma plataforma comercial sem base juridica, sem as garantias adequadas e sem um contrato de subcontratante valido viola o RGPD. Os escritorios de advocacia sao responsaveis pelo tratamento. Nao podem delegar essa responsabilidade apontando para os termos de servico da OpenAI.
Casos reais de advogados sancionados por uso descuidado de IA
Os riscos nao sao teoricos. Varios casos documentados demonstram que as consequencias para os advogados que usam IA de forma descuidada sao graves e reais.
Mata v. Avianca (EUA, 2023)
O caso que abalou a profissao juridica internacionalmente. Um advogado de Nova Iorque apresentou um articulado com seis citacoes de jurisprudencia completamente inventadas, todas geradas pelo ChatGPT. O tribunal sancionou os advogados envolvidos. O escritorio enfrentou um desastre de reputacao. O caso foi noticiado na imprensa de todo o mundo e deu origem a orientacoes formais de dezenas de barros.
Desafios de sigilo profissional no Reino Unido
A Solicitors Regulation Authority (SRA) publicou em 2025 orientacoes especificas apos varios casos em que advogados carregaram documentos de clientes para ferramentas de IA sem verificar se o tratamento de dados cumpria as obrigacoes profissionais. Nenhum dos casos resultou em sancao publica, mas as orientacoes sao inequivocas: o incumprimento das regras de confidencialidade atraves do uso de IA pode dar origem a processos disciplinares.
Investigacoes de protecao de dados na Europa
Varias autoridades de protecao de dados europeias, incluindo a italiana (Garante) e a irlandesa (DPC), investigaram a OpenAI pelo tratamento de dados pessoais. Embora estas investigacoes se centrem na OpenAI como responsavel pelo tratamento, os escritorios que enviam dados de clientes para estas plataformas sem os acordos adequados partilham da exposicao regulatoria. A Comissao Nacional de Protecao de Dados (CNPD) em Portugal segue de perto a jurisprudencia das suas congeneres europeias.
O padrao esta a elevar-se: O que era tolerado como "experiencia" em 2023 esta a tornar-se objeto de escrutinio em 2026. Os barros e as autoridades de supervisao estao a desenvolver quadros mais claros, e os escritorios que nao tenham politicas de uso de IA documentadas vao encontrar-se em posicao dificil quando for questionado o que fizeram com os dados dos clientes.
Comparacao de planos do ChatGPT: Gratuito vs Plus vs Team vs Enterprise vs API
O ChatGPT nao e uma coisa so. Existem varios planos com condicoes de tratamento de dados significativamente diferentes. Escolher o adequado nao e uma decisao tecnica. E uma decisao de conformidade.
Os cinco planos e o que significam para o trabalho juridico
| Plano | Preco | Treina com os seus dados? | Contrato de subcontratante (Art. 28 RGPD)? | Adequado para trabalho juridico? |
|---|---|---|---|---|
| Gratuito | 0 EUR | Sim, por defeito | Nao | Nao. Nunca usar para trabalho com clientes. |
| Plus | 20 USD/mes por utilizador | Sim, salvo que desative manualmente | Nao | So se desativou o treino. Ainda sem contrato de subcontratante. Apenas para tarefas sem dados de clientes. |
| Team | 30 USD/mes por utilizador | Nao (excluido por defeito) | Sim (BAA disponivel) | Aceitavel para trabalho juridico nao sensivel com dados anonimizados. Verifique os termos. |
| Enterprise | Preco negociado | Nao | Sim (DPA completo) | A opcao mais segura para escritorios com requisitos de conformidade serios. Dados alojados na UE negociaveis. |
| API (OpenAI) | Por utilizacao | Nao (por defeito desde marco 2023) | Sim (DPA disponivel) | Seguro com DPA assinado. Requer integracao tecnica. Adequado para fluxos de trabalho personalizados. |
A conclusao pratica: para a maioria dos escritorios de advocacia portugueses, o plano Team e o ponto de entrada minimo razoavel para qualquer trabalho que envolva dados relacionados com clientes. O Enterprise e a API oferecem garantias mais fortes. O Gratuito e o Plus sem configuracao adequada nao sao opcoes para trabalho profissional.
Como desativar o treino de dados no plano Plus
Se a sua conta Plus for a unica opcao disponivel de momento, pode desativar o uso dos seus dados para treino em: Definicoes (icone do perfil, canto inferior esquerdo) > Controles de dados > desativar "Melhorar o modelo para todos". Isto nao substitui um contrato de subcontratante adequado, mas elimina o risco mais obvio de os seus dados aparecerem em respostas a outros utilizadores.
Casos de uso seguros: pesquisa, redigir, resumir, traduzir
Uma vez configurado o plano correto e compreendidas as limitacoes, o ChatGPT pode ser genuinamente util para uma serie de tarefas juridicas. A chave esta em separar tarefas que envolvem dados de clientes das que nao envolvem.
Pesquisa juridica geral
O ChatGPT e util para obter uma orientacao inicial sobre areas do direito com as quais nao esta familiarizado. "Explica o regime geral da responsabilidade civil extracontratual em Portugal" ou "quais sao os principais requisitos do regime de insolvencia portugues" sao perguntas validas. O ChatGPT pode fornecer um mapa util do territorio. Nunca deve ser a fonte final. Verifique sempre em fontes primarias como a DGSI, o Citius ou bases de dados juridicas especializadas.
Redigir documentos sem dados de clientes
O ChatGPT e eficaz a produzir primeiros rascunhos de contratos padrao, clausulas de uso geral, modelos de correspondencia e minutas internas, desde que nao incluam detalhes especificos de clientes. "Redija uma clausula de confidencialidade para um contrato de prestacao de servicos de software" e uma utilizacao adequada. "Redija uma clausula de confidencialidade para o contrato entre [nome do cliente] e [nome da empresa]" nao e.
Resumir documentos longos (anonimizados)
Resumir legislacao, regulamentos, acordaos ou artigos doutrinarios longos e uma das utilizacoes mais produtivas do ChatGPT para advogados. Se precisar de resumir documentos especificos de clientes, anonimize primeiro. Substitua nomes por identificadores genericos ("Parte A", "Parte B"), remova datas especificas e outros detalhes identificadores antes de colar o texto.
Traducao de documentos juridicos
O ChatGPT faz traducoes uteis de documentos juridicos para fins de compreensao interna. Nao deve ser usado como traducao certificada ou para documentos que serao submetidos a tribunal. Para trabalho com dados sensiveis de clientes, use versoes anonimizadas e, de preferencia, ferramentas especializadas em traducao juridica com garantias de confidencialidade adequadas.
Comunicacoes internas e formacao
Elaborar comunicacoes internas, sumarios de formacao, materiais de apresentacao para colegas e explicacoes de conceitos juridicos complexos para uso interno sao todas utilizacoes seguras, desde que nao incluam dados identificaveis de clientes.
A regra pratica: Se a tarefa produziria um resultado identico independentemente do cliente especifico em causa, provavelmente e seguro usa-la no ChatGPT. Se a tarefa esta fundamentalmente ligada a factos, estrategia ou dados de um cliente especifico, reconsidere.
O que nunca inserir no ChatGPT
Esta lista nao e exaustiva, mas abrange as categorias de maior risco. Incorpore-a na sua politica de uso de IA e reveja-a com a sua equipa.
- Nomes de clientes em contexto de processo. Mesmo acompanhados de contexto anonimo, o nome de um cliente num prompt cria uma ligacao identificavel.
- Detalhes especificos de processos. Numeros de processo, datas de audiencia, descricoes de factos que identificam o caso.
- Comunicacoes protegidas pelo sigilo profissional. Emails, cartas ou notas trocadas com clientes sobre estrategia juridica.
- Dados pessoais de terceiros. Nomes de partes contrarias, testemunhas ou outros individuos mencionados em ficheiros de clientes.
- Informacao financeira confidencial. Contas, balancetes, valorizacoes de ativos ou estrutura fiscal de clientes.
- Acordos de confidencialidade e os seus termos especificos. O conteudo de um NDA e, por definicao, confidencial.
- Estrategia de litigacao. A teoria do caso, os pontos fracos identificados, as testemunhas a convocar.
- Documentos de due diligence. Em operacoes de M&A ou financiamentos, estes documentos contem informacao altamente sensivel.
- Informacao sobre menores ou vitimas de crimes. Categorias de dados especialmente sensiveis ao abrigo do RGPD com restricoes adicionais.
Quadro regulatorio portugues: OA, Codigo Deontologico e sigilo profissional
Os advogados portugueses operam dentro de um quadro regulatorio especifico que deve informar todas as decisoes sobre o uso de IA. O incumprimento das normas deontologicas pode dar origem a processos disciplinares na Ordem dos Advogados.
A Ordem dos Advogados Portuguesa (OA)
A Ordem dos Advogados e o orgao regulador da profissao de advogado em Portugal. Embora ainda nao tenha publicado orientacoes especificas e detalhadas sobre o uso de IA comparaveis as de algumas barros europeias (como a BRAK alemã ou a SRA britanica), o seu Codigo Deontologico fornece o quadro dentro do qual os advogados devem avaliar o uso de qualquer tecnologia.
O Estatuto da Ordem dos Advogados (aprovado pela Lei n.o 145/2015) e o Codigo Deontologico estabelecem obrigacoes fundamentais de competencia, de protecao do cliente e de sigilo profissional que se aplicam independentemente das ferramentas utilizadas. Em 2025, a OA publicou uma nota orientadora sobre o uso etico de ferramentas de IA na advocacia, sublinhando que a responsabilidade pelo trabalho produzido permanece sempre no advogado, mesmo quando auxiliado por IA.
Sigilo profissional
O artigo 92.o do Estatuto da Ordem dos Advogados consagra a obrigacao de sigilo profissional como um dever fundamental. Esta obrigacao abrange todas as informacoes que o advogado receba dos seus clientes ou que obtenha no exercicio das suas funcoes. O sigilo nao e apenas um direito do cliente: e um dever do advogado cuja violacao pode ser objeto de processo disciplinar e, em casos graves, de responsabilidade criminal.
A questao central para o uso de IA e: ao carregar informacao de um cliente para uma plataforma de IA comercial, esta a revelar informacao a um terceiro? A posicao prudente e que sim, em ausencia de garantias contratuais e tecnicas adequadas. Um contrato de subcontratante (Art. 28 RGPD) nao resolve automaticamente a questao do sigilo profissional, que tem uma natureza propria.
Competencia profissional e dever de atualizacao
O Codigo Deontologico exige que os advogados mantenham um nivel de competencia adequado. Em 2026, isto inclui compreender as ferramentas de IA que estao a transformar a profissao juridica. A ignorancia das capacidades e dos riscos das ferramentas de IA nao e uma defesa aceitavel. Os advogados devem-se manter atualizados sobre estas tecnologias, os seus limites e as suas implicacoes regulatorias.
RGPD Arts. 28, 30 e 35: o que os escritorios de advocacia precisam de saber
O Regulamento Geral sobre a Protecao de Dados impoe obrigacoes especificas que se aplicam diretamente a como os escritorios de advocacia podem usar ferramentas de IA de terceiros. Tres artigos sao especialmente relevantes.
Artigo 28: Contratos de subcontratante
Quando um escritorio de advocacia usa uma ferramenta de IA de terceiros que processa dados pessoais de clientes, o fornecedor dessa ferramenta torna-se um subcontratante ao abrigo do RGPD. O artigo 28 exige que este relacionamento seja regulado por um contrato escrito que especifique, entre outras coisas: a natureza e finalidade do tratamento, as categorias de dados pessoais tratados, as obrigacoes e direitos do responsavel pelo tratamento, e as garantias tecnicas e organizativas adequadas.
A implicacao pratica: antes de usar qualquer ferramenta de IA com dados de clientes, o seu escritorio precisa de um Acordo de Processamento de Dados (DPA) assinado com o fornecedor. O ChatGPT Team e Enterprise oferecem estes contratos. O plano Gratuito e o Plus nao. Sem DPA, qualquer tratamento de dados pessoais de clientes atraves da plataforma e uma violacao do RGPD.
Artigo 30: Registos de atividades de tratamento
Os responsaveis pelo tratamento devem manter registos das suas atividades de tratamento de dados pessoais. Para escritorios de advocacia, isto significa que quando comecam a usar ferramentas de IA para processar dados de clientes, esta nova atividade de tratamento deve ser adicionada ao registo de atividades de tratamento. O registo deve incluir a descricao das categorias de dados, as finalidades do tratamento, os destinatarios e, se aplicavel, as transferencias para paises terceiros.
A maioria dos escritorios de advocacia portugueses tem o seu registo de atividades de tratamento atualizado para as atividades tradicionais, mas esquece-se de o atualizar quando introduz novas ferramentas de IA. Esta e uma lacuna de conformidade comum e facilmente remediavel.
Artigo 35: Avaliacao de impacto sobre a protecao de dados (DPIA)
Para tratamentos que sao "suscetivos de resultar num risco elevado para os direitos e liberdades das pessoas singulares", o RGPD exige uma avaliacao de impacto sobre a protecao de dados (DPIA) antes do inicio do tratamento. O uso de sistemas de IA para processar dados juridicos de clientes, especialmente dados de categorias especiais como dados de saude ou dados relacionados com condenacoes penais, e muito provavelmente abrangido por este requisito.
Uma DPIA nao e um processo complicado para escritorios pequenos. Consiste em documentar: a descricao do tratamento previsto, a avaliacao da necessidade e proporcionalidade, os riscos para os titulares dos dados e as medidas previstas para os mitigar. A CNPD publicou orientacoes sobre como realizar uma DPIA que sao um bom ponto de partida.
Lista de verificacao RGPD para uso de IA em escritorios de advocacia: (1) Identificar todas as ferramentas de IA que processam dados de clientes. (2) Verificar se existe DPA com cada fornecedor. (3) Atualizar o registo de atividades de tratamento. (4) Avaliar se e necessaria uma DPIA. (5) Verificar se os fornecedores de IA sediados fora da UE oferecem garantias adequadas para transferencias internacionais.
O Ato de IA da UE e as implicacoes para ferramentas de IA juridica
O Ato de IA da Uniao Europeia (Regulamento (UE) 2024/1689, em vigor desde agosto de 2024) introduz um quadro de classificacao de risco para sistemas de IA que tem implicacoes diretas para o setor juridico.
Sistemas de IA de alto risco
O Ato de IA classifica como de "alto risco" varios sistemas de IA relevantes para a advocacia, incluindo sistemas usados na administracao da justica e em processos democraticos. Sistemas de IA usados para influenciar resultados de processos judiciais ou para ajudar na interpretacao de factos e aplicacao da lei podem estar sujeitos a requisitos adicionais de transparencia, supervisao humana e documentacao tecnica.
Obrigacoes de literacia em IA
O artigo 4.o do Ato de IA exige que os fornecedores e utilizadores de IA garantam que o pessoal que opera sistemas de IA tem um nivel adequado de literacia em IA. Para escritorios de advocacia que usam ferramentas de IA de forma regular, isto traduz-se na obrigacao pratica de formar a equipa sobre como estas ferramentas funcionam, as suas limitacoes e os riscos especificos do contexto juridico.
Transparencia com clientes
O Ato de IA impoe obrigacoes de transparencia quando se interage com sistemas de IA. Embora as obrigacoes especificas para escritorios de advocacia ainda estejam a ser clarificadas, a tendencia regulatoria e clara: os clientes devem ser informados quando a IA e usada de forma significativa na prestacao de servicos juridicos. Os escritorios que adotam agora uma politica de divulgacao proativa estao a posicionar-se bem para as exigencias regulatorias futuras.
Alternativas para trabalho sensivel: Luminance, CoCounsel, Harvey AI, Spellbook, Legartis
Para trabalho juridico sensivel que requer o processamento de dados reais de clientes, existem ferramentas especificas para o setor juridico que foram concebidas com as obrigacoes de confidencialidade em mente.
Luminance
Luminance e uma plataforma de IA juridica britanica especializada em revisao de contratos e due diligence. Oferece alojamento de dados na UE, contrato de subcontratante ao abrigo do RGPD e o modelo de IA e treinado com literatura juridica e nao com os dados dos clientes. E usada por grandes escritorios europeus e por departamentos juridicos de empresas. O ponto negativo: o preco e orientado para utilizadores empresariais.
Thomson Reuters CoCounsel
CoCounsel (anteriormente Casetext) e a ferramenta de IA juridica da Thomson Reuters. Integra-se com as bases de dados Westlaw e oferece pesquisa juridica, revisao de documentos e redigir assistido com as garantias de protecao de dados adequadas para uso profissional. Para escritorios que ja utilizam os produtos Thomson Reuters, e a integracao mais natural.
Harvey AI
Harvey AI e uma plataforma de IA juridica desenvolvida especificamente para advogados, construida sobre modelos da OpenAI mas com garantias contratuais e tecnicas adicionais. Foi adotada por varios dos maiores escritorios internacionais. Oferece DPA e os dados dos clientes nao sao usados para treino. Requer avaliacao cuidadosa dos seus termos para conformidade com o RGPD.
Spellbook
Spellbook (da Rally Legal) e especializado em redigir e rever contratos. Integra-se diretamente com o Microsoft Word, o que torna a adocao mais simples para escritorios que ja usam o ecossistema Microsoft. Oferece garantias de privacidade adequadas para trabalho juridico profissional.
Legartis
Legartis e uma ferramenta de IA juridica suica especializada em analise de contratos para escritorios europeus. A sua origem suica e o alojamento de dados na Europa sao pontos favoraveis para escritorios com requisitos estritos de conformidade. E especialmente forte em direito contratual e gestao de contratos a escala.
Precisa de ajuda para escolher a ferramenta certa para o seu escritorio?
Ajudamos escritorios de advocacia europeus a selecionar ferramentas de IA com as garantias de conformidade adequadas, a redigir politicas de uso e a construir fluxos de trabalho que oferecem poupanca real de tempo sem tocar nos dados dos clientes. A nossa avaliacao de prontidao para a IA identifica exatamente por onde o seu escritorio pode comecar com seguranca.
Avaliacao gratuita de IAEscrever a Irene diretamente
Ferramentas portuguesas e locais: vLex, DGSI, Citius
Antes de adotar qualquer ferramenta de IA de uso geral, os advogados portugueses devem conhecer as fontes de informacao juridica especializadas ja disponiveis, algumas das quais estao a incorporar funcionalidades de IA.
DGSI (Direito Geral da Secretaria Informatica)
A DGSI e a base de dados oficial da jurisprudencia portuguesa, mantida pelo Ministerio da Justica. Disponibiliza acordaos dos tribunais superiores portugueses, incluindo o Supremo Tribunal de Justica, o Supremo Tribunal Administrativo e os Tribunais da Relacao. E gratuita e deve ser sempre a fonte primaria de verificacao de jurisprudencia portuguesa antes de qualquer peca processual.
Citius
O Citius e o portal da justica portuguesa para pratica de atos processuais electronicos. Permite o acesso a processos e a pratica de atos processuais online. E fundamental para o dia a dia da advocacia em Portugal e oferece informacao atualizada sobre o estado dos processos.
vLex Portugal
A vLex e uma plataforma global de investigacao juridica que oferece cobertura abrangente da legislacao e jurisprudencia portuguesa. Inclui funcionalidades de IA para pesquisa e analise de documentos juridicos, com as garantias de seguranca e confidencialidade esperadas de uma plataforma de uso profissional. E uma das opcoes mais completas para pesquisa juridica em lingua portuguesa.
Wolters Kluwer Portugal
A Wolters Kluwer oferece em Portugal ferramentas de informacao juridica e fiscal especializadas para advogados e consultores fiscais. Os seus produtos sao concebidos especificamente para o mercado portugues e incorporam gradualmente funcionalidades de IA com as garantias de conformidade adequadas.
Como criar uma politica de uso de IA para o seu escritorio
Uma politica de uso de IA nao precisa de ser um documento longo e complexo. Para a maioria dos escritorios de advocacia portugueses, um documento de quatro a seis paginas que aborde as questoes fundamentais e suficiente para comecar. O objetivo nao e criar burocracia. E garantir que todos na equipa sabem o que podem fazer, o que nao podem fazer e porque e que as regras existem.
Secoes essenciais de uma politica de IA para escritorios de advocacia
1. Ambito e objetivos. Que ferramentas sao abrangidas? Que tipos de trabalho? Qual e o objetivo da politica (proteger clientes, cumprir o RGPD, garantir qualidade do trabalho)?
2. Ferramentas aprovadas. Uma lista explodita das ferramentas de IA que o escritorio aprovou para uso profissional, com indicacao do nivel de aprovacao (uso geral, uso com dados anonimizados, uso com dados de clientes so com autorizacao). As ferramentas nao listadas requerem aprovacao previa.
3. O que nao e permitido. Dados de clientes sem aprovacao. Nomes de partes em contexto de processo. Comunicacoes protegidas pelo sigilo profissional. Estrategia de litigacao. Esta secao deve ser concreta, nao vaga.
4. Requisitos de verificacao. Todo o output de IA que sera usado em pecas processuais, pareceres para clientes ou comunicacoes formais deve ser verificado por um advogado qualificado. Esta verificacao e documentada. O advogado que assina o trabalho assume a responsabilidade pelo conteudo, independentemente de ter sido gerado por IA.
5. Divulgacao aos clientes. O escritorio divulga aos clientes o uso de ferramentas de IA na prestacao de servicos? Em que circunstancias? Esta e uma questao emergente e a tendencia regulatoria aponta para maior transparencia. Defina agora a posicao do escritorio.
6. Incidentes e comunicacao. O que acontece se alguem cometer um erro, como enviar dados de clientes para uma ferramenta nao aprovada? Quem e notificado? Como e avaliado o impacto? Quando e que a CNPD deve ser notificada?
7. Revisao e atualizacao. As ferramentas e o quadro regulatorio estao a evoluir rapidamente. A politica deve ter uma data de revisao definida, pelo menos anual, e um responsavel identificado pela sua atualizacao.
Conselho pratico: Nao tente escrever a politica perfeita antes de a publicar. Uma politica razoavel publicada esta semana e infinitamente melhor do que uma politica perfeita que ainda esta a ser redigida quando ocorre um incidente. Comece com o essencial e refine com base na experiencia da equipa.
Recomendacoes de formacao da equipa
Uma politica so funciona se a equipa a compreende e a aplica. A formacao nao precisa de ser extensa, mas deve ser especifica e pratica.
O que cobrir numa sessao de formacao inicial
Uma sessao de 90 minutos com toda a equipa deve cobrir: como o ChatGPT funciona a nivel basico (incluindo a questao do treino de dados), a demonstracao pratica das ferramentas aprovadas e das suas configuracoes, casos praticos de "isto pode entrar/isto nao pode entrar", um exercicio de anonimizacao de documentos antes de usar IA, e a revisao das seccoes principais da politica de uso.
Diferenciacao por nivel de experiencia
Advogados senior e associados junior tem necessidades de formacao diferentes. Os advogados senior precisam de compreender as implicacoes regulatorias e de responsabilidade profissional. Os associados junior precisam de compreender as regras praticas e os fluxos de trabalho aprovados. Os assistentes e pessoal administrativo precisam de saber que ferramentas podem usar para tarefas de suporte e onde estao os limites.
Formacao continua
O mercado de ferramentas de IA juridica esta a evoluir rapidamente. Uma formacao anual e o minimo. Considere sessoes mais curtas (30 minutos) a cada trimestre para abordar novas ferramentas, alteracoes regulatorias e licoes aprendidas da experiencia do escritorio. Os documentos de orientacao dos barros europeus sao uma boa fonte de atualizacao.
Erros comuns dos advogados com o ChatGPT
Baseando-nos nos padrao que emergem da adocao de IA em escritorios de advocacia europeus, estes sao os erros mais frequentes.
Nao anonimizar antes de colar
Este e o erro mais comum. Um advogado tem um litigio contratual que envolve um cliente e uma contraparte especificos. Quer ajuda para pensar nos argumentos. Cola o contrato diretamente no ChatGPT, com nomes incluidos. A anonimizacao demora dois minutos. A maioria dos advogados omite-a por falta de tempo. Construa o habito de forma explicita. Ensine-o na proxima reuniao de equipa.
Usar o plano errado
Contas gratuitas, contas Plus pessoais ou usar ChatGPT.com sem verificar as definicoes de treino. A secao de comparacao de planos acima da-lhe o desdobramento claro. A solucao e fornecer acesso do escritorio atraves do plano correto para que os advogados nao recorram por defeito a contas pessoais.
Tratar o output da IA como fonte primaria
Citar jurisprudencia sem verificar. Referenciar artigos de lei sem confirmar a numeracao atual. Aceitar clausulas contratuais sugeridas sem avaliar a sua adequacao ao contexto portugues especifico. O ChatGPT produz texto que soa autoritativo. Nao e uma fonte juridica. E um ponto de partida para investigacao propria.
Ignorar as orientacoes da OA
Os principais barros europeus ja publicaram orientacoes sobre o uso de IA. A OA portuguesa emitiu uma nota orientadora em 2025. Os advogados que nao leram as orientacoes atuais do seu barro sobre IA praticam sem o enquadramento adequado. Estes documentos nao sao longos. Vale a pena le-los antes da proxima decisao relacionada com IA.
Nao ter uma politica antes de um incidente
Os escritorios quase sempre criam politicas de IA em resposta a um problema. Um associado junior usou o plano gratuito. Um cliente perguntou se os seus dados foram partilhados com IA. Um socio viu algo nas noticias. A conversa sobre a politica devia ocorrer antes de qualquer um desses eventos. Redigir uma politica razoavel demora duas horas. Gerir as consequencias de um incidente demora muito mais.
O seu escritorio esta pronto para usar IA com seguranca?
Ajudamos escritorios de advocacia europeus a configurar ferramentas de IA corretamente, a redigir politicas de uso e a construir fluxos de trabalho que oferecem poupanca real de tempo sem comprometer dados de clientes. A nossa consultoria de implementacao de IA inclui uma avaliacao inicial gratuita.
Ver consultoria de IAEscrever a Irene diretamente
Leitura relacionada
Fontes
- Thomson Reuters. "2025 Generative AI in Legal Survey." thomsonreuters.com
- Levidow, Levidow & Oberman, P.C. v. Mata (Mata v. Avianca). S.D.N.Y. 2023. Case No. 1:22-cv-01461. Opinion sanctioning counsel for AI-fabricated citations.
- OpenAI. "Enterprise Privacy and Security." Data processing terms and training opt-out documentation. openai.com/enterprise-privacy
- OpenAI. "ChatGPT Team." Product page and data handling terms. openai.com/chatgpt/team
- Ordem dos Advogados Portuguesa. Estatuto da Ordem dos Advogados (Lei n.o 145/2015). Artigo 92.o (Segredo profissional). portal.oa.pt
- Ordem dos Advogados Portuguesa. Codigo Deontologico. Obrigacoes de competencia e confidencialidade. portal.oa.pt
- Comissao Nacional de Protecao de Dados (CNPD). Orientacoes sobre avaliacoes de impacto sobre a protecao de dados (DPIA). cnpd.pt
- Parlamento Europeu e Conselho. Regulamento (UE) 2024/1689 (Ato de IA da UE). Agosto de 2024. eur-lex.europa.eu
- European Data Protection Board. "Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models." 2024. edpb.europa.eu
- RGPD, Artigo 28. Obrigacoes do subcontratante. Texto oficial em gdpr.eu
- RGPD, Artigo 30. Registos das atividades de tratamento. Texto oficial em gdpr.eu
- RGPD, Artigo 35. Avaliacao de impacto sobre a protecao de dados. Texto oficial em gdpr.eu
- Solicitors Regulation Authority (SRA). "Generative AI: Guidance for Solicitors." 2025. sra.org.uk
- Bundesrechtsanwaltskammer (BRAK). "Hinweise zur Nutzung von KI in der Anwaltschaft." 2024. brak.de
- Luminance. "Legal AI Platform." Data protection and EU hosting documentation. luminance.com
- Thomson Reuters CoCounsel. Product documentation and data security overview. legal.thomsonreuters.com
- Harvey AI. Enterprise security and privacy documentation. harvey.ai
- Spellbook (Rally). "Enterprise Security and Privacy." spellbook.legal
- Legartis. "Contract AI for European Law Firms." legartis.ai
- DGSI. "Base de dados da jurisprudencia portuguesa." Ministerio da Justica. dgsi.pt
- vLex Portugal. Plataforma de investigacao juridica em lingua portuguesa. pt.vlex.com
Read this article in English · Diesen Artikel auf Deutsch lesen · Przeczytaj ten artykuł po polsku · Leer en espanol