*
O Direito na Era da Inteligência Artificial (IA) – é o pórtico sob o qual se acolhem um conjunto de estudos que se reúnem no presente volume da Julgar. O lema que nos orientou foi pensar o Direito. Não nos devemos deixar iludir pelo paradoxo de Zenão, em que por mais que Aquiles (a Ciência) corra, sempre haverá um espaço a separá-lo da tartaruga (o Direito) e não conseguirá vencer a corrida. Contra as evidências dóxicas em que a sociedade algorítmica nos quer fazer crer, o Direito tem de ser pensado. Ele é hoje desafiado nos seus princípios e conceitos, na sua normatividade e nas metodologias que utiliza para oferecer soluções – as definições surgem vagas e indeterminadas e correm o risco de cercear o progresso económico e social, as normas não abarcam os problemas e falham as respostas para a responsabilidade das pessoas físicas e os processos de decisão escapam ao domínio humano.
A IA não é, em si, uma novidade, mas a velocidade e a intensidade da sua evolução confronta-nos com uma mudança cultural extraordinária – um «facto social total» (Marcel Mauss (Sociologie et anthropologie, 1973) –, que atinge os fundamentos da existência coletiva. A viragem digital trouxe consigo as duas premissas de base para aumentar exponencialmente a utilização de algoritmos em toda a espécie de processos de tomada de decisões e introduzir-lhes automaticidade. A quantidade ingente de dados (big data) produzidos, gratuita e constantemente, que a difusão de aparelhos digitais permitiu, associada ao aumento sem precedentes da capacidade computacional do seu processamento, em tempo e quantidades inimagináveis para um ser humano, permitiram oferecer ao sistema de justiça instrumentos que lhe são de enorme utilidade em vários setores de atividade social e que não param de evoluir, como bem se evidencia nos textos aqui incluídos. A revolução da IA não diz respeito apenas a mais dados, mais poder computacional, mais velocidade e mais resultados – ela alimenta-se do melhor conhecimento sobre o nosso cérebro, que as neurociências ou a economia comportamental favoreceram. Se as emoções e os desejos «não passarem de algoritmos bioquímicos» e «resultarem de um processo bioquímico», a IA pode «ultrapassar o desempenho humano em muitas áreas profissionais, como emprestar dinheiro a estranhos, negociar um acordo comercial ou conduzir um veículo numa rua cheia de peões.» (Yuval Noah Harari, 21 Lições para o Século XXI, 2018). Neste momento, estamos no ponto de confluência de duas gigantescas revoluções: os biólogos estão a decifrar o cérebro e os sentimentos e os cientistas informáticos estão a dar-nos uma capacidade de processamento de dados nunca antes vista. O conceito de liveware (David Eagleman, O Cérebro em Ação. Nos bastidores do cérebro em constante mudança, 2020) abrir-nos-á a porta «para fabricar novas máquinas: engenhos que determinam de forma dinâmica os seus próprios circuitos através da otimização dos dados que recebem (inputs) e da aprendizagem pela experiência».
Todos os estudos que se apresentam são problematizantes, identificando e confrontando os riscos deste caminho inevitável, e abertos às novas fronteiras do desenvolvimento tecnológico e da aplicação de sistemas de IA às nossas vidas. Mas dão-nos um fio condutor que nos orienta na busca de um Futuro Humano. O leitor vai encontrá-lo nos sucessivos Cadernos em que se arrumam os textos.
No Caderno Julgar, o texto a abrir, de Mafalda Castanheira Neves, remete-nos para o relevo dos dados para o desenvolvimento da IA, que é, ao mesmo tempo, um dos principais domínios de risco da IA. A utilização de dados pessoais suscita à Autora atenção especial pelos riscos em que coloca os seus titulares e analisa-os, não só em geral, ao nível da proteção que o Regulamento Geral da Proteção de Dados lhes confere, mas também na perspetiva do potencial discriminatório que as decisões totalmente automatizadas encerram. Neste contexto, a interrogação sobre os mecanismos de reação previstos é uma questão crucial, que é abordada criticamente.
No estudo seguinte, é tratada, por Paulo Mota Pinto, a questão da aplicação e/ou adaptação do regime da formação do negócio jurídico e do contrato à nova realidade hoje difundida da contratação automatizada por intermédio de agentes artificiais. Os problemas abordados vão desde a imputação de declarações geradas por inteligência eletrónica, passando depois pelo tratamento das regras da formação do contrato e da interpretação das declarações de agentes inteligentes, da formação de contratos de adesão ou com cláusulas contratuais gerais por esse mesmo tipo de agentes, até à questão da falta e vícios da vontade, que desafiam os conceitos de «vontade», «conhecimento», «dever de conhecer» e «atuação de acordo com os ditames da boa fé».
Numa via de reinterpretação e de alteração dos tipos legais de crime existentes no domínio do abuso de mercado, é tratado por mim o envolvimento da IA na prática destes crimes, designadamente através da negociação algorítmica de alta frequência (HFT – High Frequency Trading). Neste contexto, abordam-se os conceitos de informação privilegiada e de investidor razoável, à luz da incriminação de abuso de informação, e discute-se a alteração do tipo legal de manipulação de mercado, recorrendo à utilização do elemento subjetivo «intenção de manipulação de mercado», sem abandonar a sua configuração apenas na forma dolosa.
No âmbito laboral, é o próprio destino do trabalho humano e o futuro do Direito do Trabalho que se tocam no estudo de João Leal Amado. Para já, os tribunais, de ambos os lados do Atlântico, defrontam-se com a questão de saber se são workers os prestadores de serviços via apps, através de plataformas digitais que permitem pôr em contato a oferta e a procura de um determinado serviço em moldes inovadores. Analisam-se, assim, duas decisões marcantes: do Tribunal Supremo espanhol (caso Glovo) e do Supreme Court britânico (caso Uber).
No contexto de novas respostas do Direito para os problemas colocados pela IA, o debate é intenso.
O caderno Debater abre, no âmbito da responsabilidade civil e no domínio dos seguros, com um texto de Filipe Albuquerque Matos. Avançam-se soluções que passam, em diversos setores, pela exigência de seguros e respetivos registos obrigatórios e discute-se a criação de um Fundo de Garantia para robôs. Em qualquer caso, não deixa de se acentuar que não se concorda com as propostas de atribuição de personalidade jurídica aos robôs, pois tal representaria uma artificial equiparação de sistemas automatizados a pessoas humanas.
Nesta mesma linha de recusa de personalidade jurídica a robôs inteligentes insere-se o estudo de Matilde Lavouras, que, confrontando-nos com o impacto do uso crescente da IA ao nível da receita fiscal, discorda das várias propostas relativas a um imposto sobre robôs para minimizar essa perda. A Autora traz, então, para o debate a criação de um novo índice de capacidade contributiva.
O compliance é uma das áreas da atividade empresarial onde mais se reflete a utilização de IA. Pedro Maia conduz-nos pelo compliance bancário, cujo enquadramento regulatório lhe confere especificidades significativas que analisa em profundidade. Para além de lembrar como o compliance pode desempenhar uma função na atribuição de responsabilidade a pessoas físicas e jurídicas e que a disponibilização de serviços de IA para a realização dessa função trouxe, a este propósito, novas interrogações, o Autor distingue o compliance de feição legislativa, destinado a evitar ou impedir que uma organização infrinja o seu contexto normativo, do compliance de cariz prático e da gestão, onde a IA assume relevo no compliance do branqueamento de capitais e do financiamento ao terrorismo. Assinalando os seus benefícios, não deixa de relevar os riscos que, não podendo ser totalmente evitados, devem ser identificados e, na medida do possível, mitigados.
Finalmente, neste Caderno, são apresentados e analisados por mim e por Susana Aires de Sousa os desafios e as consequências que a digitalização empresarial envolve, no domínio penal, por força da transformação fundamental que significou do processo produtivo. No plano substantivo, são abordadas, no contexto dos modelos legais hoje difundidos de atribuição da responsabilidade coletiva assentes no conceito de pessoa humana e pessoa coletiva, as dificuldades levantadas, quer à responsabilização das pessoas físicas, quer das pessoas coletivas. Atende-se, ainda, ao fenómeno da distribuição da responsabilidade que se favorece. E discute-se, por fim, o significado de um modelo de controlo e vigilância digital, equacionando, no plano processual, a questão do aproveitamento para fins penais de informação recolhida por formas de monitorização «inteligente», à custa da limitação indevida de direitos fundamentais das pessoas envolvidas.
No Caderno Divulgar, Alexandre Soveral Martins dá-nos a conhecer as alternativas aos conhecimentos de carga em papel que as novas tecnologias e a IA propiciam. Os riscos que as envolvem, de desfechos muito incertos se surgirem conflitos em relação a transportes marítimos de mercadorias, explicam a resistência na sua utilização por parte de transportadores e seguradoras. O Autor analisa em detalhe esses riscos, tendo em vista abrir vias para os superar.
Na área da saúde e da prestação de cuidados de saúde, André Dias Pereira dá-nos conta como a IA terá (tem?) uma presença avassaladora. Ligada à revolução genómica, nanotecnológica e robótica, torna a medicina cada vez mais omnipresente e omnipotente nas nossas vidas. Este e outros problemas relacionados com a responsabilidade civil e os novos danos causados pela IA ou com a necessidade de repensar a informação e o consentimento e a proteção de dados pessoais são equacionados à luz da salvaguarda de uma medicina personalizada e transparente.
O Caderno encerra com um estudo de Miguel Lemos e Miguel João Costa sobre o desenvolvimento e a utilização de Armas Autónomas Mortíferas (AAMs), que suscitam vigoroso repúdio. Os Autores analisam o movimento que pugna pela celebração de um tratado destinado a proscrever essas armas, para concluir que os princípios e o direito da guerra não lhe oferecem bases fortes. Salientando os riscos associados às AAMs, defendem que é noutros planos de análise que eles têm de ser discutidos e prosseguida a sua proscrição.
Anabela Miranda Rodrigues