As penalizações continuam a acumular-se — os advogados dos EUA estão a adotar IA mais depressa do que nunca, apesar do aumento das sanções dos tribunais por apresentarem pareceres jurídicos falsos com alucinações de IA

Cryptonews

Advogados norte-americanos estão a apresentar articulados gerados por IA com citações fictícias a um ritmo cada vez mais acelerado; as sanções judiciais estão a estabelecer novos recordes e a tecnologia está a penetrar tão profundamente no software jurídico que, segundo especialistas, as regras de divulgação obrigatória poderão já estar obsoletas.
Resumo

  • No ano passado, verificou-se um aumento rápido das sanções judiciais contra advogados por articulados gerados por IA que continham citações fictícias, e a taxa continua a subir — um investigador que acompanha a tendência registou 10 casos em 10 tribunais diferentes num único dia.
  • Um tribunal federal poderá ter estabelecido um novo recorde no mês passado, com uma ordem para um advogado do Oregon pagar 109.700 $ em sanções por apresentar erros gerados por IA, enquanto os tribunais supremos da Nebrasca e da Geórgia realizaram audições públicas sobre citações de casos alucinadas.
  • A OpenAI foi processada em março pela Nippon Life Insurance Company of America, que alegou que uma mulher estava a usar o ChatGPT como conselheiro jurídico, produzindo processos judiciais frívolos — uma acusação que a OpenAI considerou sem mérito.

Advogados norte-americanos estão a apresentar articulados gerados por IA com citações fictícias a um ritmo cada vez mais acelerado; as sanções judiciais estão a estabelecer novos recordes e a tecnologia está a penetrar tão profundamente no software jurídico que, segundo especialistas, as regras de divulgação obrigatória poderão já estar obsoletas. De acordo com a investigação de 3 de abril da NPR, o volume de sanções judiciais por erros gerados por IA disparou ao longo de 2025 e não abrandou em 2026 — um padrão que tem consequências diretas para qualquer setor, incluindo a cripto, cuja exposição jurídica depende da qualidade dos articulados apresentados na sua defesa.

Os números continuam a subir

Damien Charlotin, um investigador da HEC Paris que mantém um registo mundial das sanções judiciais por erros jurídicos gerados por IA, disse à NPR que o ritmo não estabilizou. “Recentemente tivemos 10 casos em 10 tribunais diferentes num único dia”, disse. “Temos este problema porque a IA é simplesmente demasiado boa — mas não é perfeita.” O caso mais proeminente do ciclo passado foi o dos advogados do CEO da MyPillow, Mike Lindell, que foram multados em 3.000 $ cada um por apresentarem articulados com citações fictícias.

Um tribunal federal poderá ter estabelecido um novo recorde no mês passado, quando um advogado sediado no Oregon foi mandado pagar 109.700 $ em sanções e custas. Os tribunais supremos estaduais também foram chamados a intervir: o tribunal superior da Nebrasca interrogou em fevereiro, no meio de uma grande exposição, um advogado de Omaha sobre citações fictícias e encaminhou-o para disciplina, e uma cena igualmente pública desenrolou-se no Tribunal Supremo da Geórgia em março. “Fico surpreendida que as pessoas ainda façam isto quando já esteve nas notícias”, disse Carla Wale, vice-deã associada de informação e tecnologia da University of Washington School of Law.

Porque é que as regras de divulgação não vão funcionar

Alguns tribunais responderam exigindo que os advogados rotulem qualquer conteúdo assistido por IA nos seus articulados. Joe Patrice, editor sénior do Above the Law e um advogado convertido em jornalista, disse à NPR que essas regras provavelmente se tornarão inexequíveis quase imediatamente. “Vai ficar tão integrado na forma como tudo funciona que, para cumprir diligentemente a regra, terias de pôr em tudo o que apresentas, ‘Ei, isto é assistência por IA’, e, a partir daí, passa a ser um esforço meio inútil”, disse. A economia da faturação jurídica também está a acelerar a adoção em vez de a abrandar. À medida que as ferramentas de IA reduzem o tempo de elaboração, os escritórios de advogados enfrentam pressão para encontrar novos modelos de faturação — e Patrice sugere que a pressão resultante sobre o tempo torna mais tentador para os advogados aceitarem rascunhos iniciais gerados por IA sem verificação adequada.

A mudança do próprio DOJ no sentido de deixar de processar programadores de cripto ficou a dever-se, em parte, ao argumento de que o código é neutro, a menos que haja intenção criminal — uma distinção que exige exatamente o tipo de raciocínio jurídico cuidadoso que os articulados assistidos por IA, em disparada, falham consistentemente em replicar. Um tribunal federal do Texas rejeitou recentemente um caso de responsabilidade de software cripto, em parte ao citar um memorando do DOJ sobre padrões de acusação de programadores, ilustrando como a qualidade do raciocínio jurídico em casos adjacentes à IA molda diretamente os resultados regulamentares para todo o setor.

O processo da OpenAI

A própria OpenAI já entrou nas mira jurídicas para além do problema do erro em tribunal. Em março, a OpenAI foi processada em tribunal federal em Illinois pela Nippon Life Insurance Company of America, que alegou que uma mulher estava a usar o ChatGPT como conselheiro jurídico, recebendo orientações que conduziram a processos judiciais frívolos contra a seguradora. A queixa acusou a OpenAI de exercer advocacia sem licença. Num comunicado escrito à NPR, a OpenAI disse: “Esta queixa não tem absolutamente nenhum mérito.” Wale, por seu lado, rejeita ambos os extremos. “Acho que advogados que compreendem como usar de forma eficaz e ética a IA generativa substituem advogados que não compreendem”, disse. “É isso que eu acho que será o futuro.”

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário