Em cenário no qual a arbitragem se expande de forma consistente e ferramentas de IA começam a ser incorporadas à prática jurídica, caberá não apenas aos tribunais, mas também às câmaras arbitrais estabelecer diretrizes que preservem a integridade do julgamento.
Um processo em curso na Califórnia está chamando a atenção do meio jurídico por colocar em xeque o uso da inteligência artificial (IA) por árbitros. Trata-se da disputa LaPaglia versus Valve Corporation, que tramita perante a Corte Distrital do Sul da Califórnia. A peculiaridade? O perdedor da arbitragem afirma que o árbitro utilizou o ChatGPT ou ferramenta similar para redigir o laudo arbitral. O pleito agora é pela anulação do laudo com base nesse alegado uso indevido de IA, que teria substituído a função deliberativa do julgador por uma operação algorítmica.
A controvérsia teve origem em arbitragem de consumo entre usuário da plataforma Steam (de propriedade da Valve Corporation) e a própria empresa. Após decisão desfavorável, o consumidor entrou com pedido de vacatur – aproximadamente, anulação – do laudo, alegando que o árbitro teria delegado sua função decisória a uma ferramenta de IA.
A petição sustentou que o texto do laudo continha marcas estilísticas típicas de conteúdos produzidos por IA, como repetições, inconsistências formais e formulações genéricas. Por exemplo, o laudo mencionaria, sem base nos autos do procedimento arbitral, que “outras plataformas como o Roblox inovam com conteúdo mais maduro, como elementos de horror”, embora o Roblox seja um jogo voltado ao público infantil. Em outro trecho, a petição afirma que “Sony e Microsoft firmaram parceria no último ano para explorar soluções de streaming via Microsoft Cloud Azure”, informação alegadamente ausente do procedimento e incluída no laudo sem referências ou citações.
O fundamento jurídico do pedido de anulação reside na alegação de que o árbitro teria excedido os limites de sua autoridade ao recorrer à IA para redigir a decisão. Nos Estados Unidos, o Federal Arbitration Act, em seu parágrafo 10 (a) (4), autoriza a anulação de um laudo quando o árbitro ultrapassa os poderes que lhe foram atribuídos. A petição invoca analogia com o precedente Move, Inc. versus Citigroup Global Markets Inc., em que um laudo foi anulado porque um “árbitro impostor” – pessoa não autorizada – teria participado da deliberação.
LaPaglia versus Valve Corp. levanta questões importantes sobre os limites éticos e jurídicos da automação na arbitragem – e, a bem da verdade, sobre a prática do direito de modo geral. Até que ponto um árbitro pode se valer de ferramentas de IA sem comprometer a validade do laudo? Existe diferença entre utilizar IA como instrumento auxiliar ou como sujeito oculto da decisão? Há um dever de transparência nesse uso? E ainda mais fundamental: o que significa julgar? Trata-se apenas de aplicar regras e decidir discricionariamente diante de suas lacunas? Ou o que distingue o ato de julgar é a assunção de compromissos normativos vinculantes diante de alternativas igualmente admissíveis?
O desafio não é apenas teórico, mas político. A legitimidade do direito como prática social de organização da vida não é dada pelo desempenho desta ou daquela função, e sim pelo seu modo particular de desempenhar as diferentes funções que lhe são atribuídas. O laudo arbitral não é apenas instrumento para resolver disputas, mas culminação de processo deliberativo orientado por regras e princípios bem definidos. Delegar substancialmente sua redação a algoritmos compromete esse modo de funcionamento do direito, ainda que o conteúdo final da decisão venha a ser juridicamente defensável. O risco não é apenas técnico ou simbólico, mas estrutural: compromete-se a própria prática institucional de julgar.
O procedimento discutido em LaPaglia versus Valve Corp. foi conduzido sob as regras da American Arbitration Association (AAA), cujo regulamento não disciplina o uso de IA por árbitros. Não se trata de omissão isolada. Câmaras internacionais como ICC, LCIA, SIAC e HKIAC, assim como as brasileiras CAM-CCBC, Ciesp/Fiesp, Amcham, B3 e Camarb, para ficarmos com alguns poucos exemplos apenas, não contam com regras sobre o tema.
Mas o cenário começa a mudar. O Silicon Valley Arbitration & Mediation Center (SVAMC), por exemplo, publicou, em abril de 2024, suas Guidelines on the Use of Artificial Intelligence in Arbitration, que vedam expressamente a delegação da função decisória a ferramentas de IA e exigem diligência, verificação de acurácia e respeito à integridade do processo. Da mesma forma, o Chartered Institute of Arbitrators (Ciarb) emitiu, em março deste ano, suas próprias diretrizes, recomendando que os árbitros consultem previamente as partes sobre o uso de IA e se abstenham de utilizá-la em caso de oposição, preservando o julgamento autônomo e a responsabilidade pessoal dos árbitros.
A disputa travada em LaPaglia versus Valve Corp. aponta para debate que inevitavelmente chegará também à arbitragem brasileira. Em cenário no qual a arbitragem se expande de forma consistente e ferramentas de IA começam a ser incorporadas à prática jurídica, caberá não apenas aos tribunais, mas também às câmaras arbitrais estabelecer diretrizes que preservem a integridade do julgamento e o papel da presença humana na formação da decisão.
Este artigo reflete as opiniões do autor, e não do jornal Valor Econômico. O jornal não se responsabiliza e nem pode ser responsabilizado pelas informações acima ou por prejuízos de qualquer natureza em decorrência do uso dessas informações.
FONTE: VALOR ECONÔMICO – POR BRUNO MEYERHOF SALAMA E OSNY DA SILVA FILHO