As oportunidades e desafios trazidos pelas novas tecnologias para o Direito e o que isso tem a ver com o presente e o futuro da sua empresa
Ideias centrais:
1 – O termo Big Data refere-se à dimensão e à diversidade dos dados que podem ser utilizados para a aplicação das tecnologias digitais, bem como às várias possibilidades de as combinar e avaliar e de as tratar pelas autoridades públicas e privadas em diferentes contextos.
2 – Os algoritmos de aprendizagem são programados não só para resolver problemas, mas também para aprender como os problemas são resolvidos. Eles então devem ser capazes de se desenvolver independentemente de programação humana. Entra em ação o Deep Learning.
3 – As possibilidades da influência baseada em algoritmos também podem ser usadas para influenciar o comportamento político eleitoral/voto. Um exemplo é a utilização de bots em 2016 na campanha para o referendo sobre a retirada do Reino Unido da UE (“Brexit”).
4 – Para avaliar oportunidades e riscos da TI, é preferível criar instituição especializada em monitorar não só, mas acima de tudo, a IA e possivelmente com jurisdição nacional ou comunitária, como uma agência digital, à maneira da Administração Federal de Drogas dos EUA.
5 – No futuro, não será mais suficiente para os juristas aprenderem e praticarem o Direito na forma típica do mundo analógico. Eles também terão que adquirir habilidades em tecnologias da informação. Por outro lado, especialistas em softwares para a Legal Technology precisam aprender noções de direito.
Prefácio/notícia sobre o autor:
Wolfgang Hoffmann-Riem, nascido em março de 1940, em Hannover, estudou Direito e Economia nas Universidades de Hamburg, Freiburg im Breisgau e Berkeley, onde obteve seu LL.M (Master). Aprovado com alto desempenho no rigoroso exame estatal (duas fases) de admissão às carreiras jurídicas alemãs (Staatsexamen), obteve seu doutorado (1968) e a livre-docência (1974), vindo a assumir a Cátedra de Direito Público e Administração Pública na Universidade de Hamburgo.
No que diz respeito particularmente às matérias versadas na obra que ora se prefacia, Hoffmann-Riem foi diretor do Instituto Hans-Bredow para Rádio e Televisão (1978-1995 e 1997-1999), tendo fundado e presidido o pioneiro Centro de Pesquisas sobre Direito e Inovação junto à Universidade de Hamburgo (1995-2012), além de ainda ser um dos diretores do Instituto de Direito Ambiental da mesma instituição de ensino superior.
De 2007 a 2018, integrou, como representante da Alemanha, a assim chamada Comissão de Veneza (Comissão Europeia para Democracia pelo Direito), vinculada ao Conselho da Europa. De 1999 a 2008, foi juiz do Tribunal Federal Constitucional da Alemanha [STF alemão], tendo se destacado como relator, entre outros domínios, de decisões nas áreas de proteção de dados e privacidade, liberdade de expressão e informação, inviolabilidade do domicílio e direito da concorrência.
Em 2018, foi agraciado pelo presidente da República da Alemanha com a mais alta condecoração, a Ordem do Mérito Federal (Bundesverdienstkreuz).
Mas, além de tudo o que foi referido sobre a trajetória iluminada e fecunda de Hoffmann-Riem, é de destacar a sua crescente proximidade com o Brasil e sua academia jurídica, iniciada com a sua participação, a convite do signatário, como conferencista do I Seminário internacional do Direito, Tecnologia e Inovação promovido pelo PPGD e Grupo de Pesquisas em Direitos Fundamentais da PUCRS, em 2013, seguindo-se palestras proferidas no Instituto Brasiliense de Direito Público – IDP em Brasília e São Paulo.
(Ingo Wolfgang Sarlet, professor titular e coordenador do programa de pós-graduação em direito da PUCRS – Pontifícia Universidade Católica do Rio Grande do Sul)
Capítulo I – Introdução
O termo “digitalização” refere-se inicialmente apenas às tecnologias da informação específicas que processa dados digitais e às infraestruturas (software e hardware) criadas para as tecnologias digitais. No entanto, o termo também representa a mudança fundamental nas condições de vida desencadeada pela sua utilização em todo o mundo. Permite a utilização de sistemas ciberfísicos para novos processos de produção em rede e automatizados (por exemplo, na indústria 4.0), alterações na forma como as pessoas vivem as suas vidas (por exemplo, na “casa inteligente”), a criação e utilização de redes sociais (como o Google ou o Facebook) e outros novos serviços de comunicação (por exemplo, mensagens instantâneas), bem como novos sistemas de vigilância por empresas privadas e agências governamentais.
Um elemento do uso de técnicas digitais é o uso de Big Data. O termo refere-se à dimensão e à diversidade dos dados que podem ser utilizados para a aplicação das tecnologias digitais, bem como às várias possibilidades de as combinar e avaliar e de as tratar pelas autoridades públicas e privadas em diferentes contextos. O Big Data é utilizado para controlar comportamentos individuais e coletivos, para registrar tendências de desenvolvimento, para permitir novos tipos de produção e distribuição, bem como tarefas do Estado, mas também para novas formas de ilegalidade, especialmente o cibercrime.
Novas qualificações-chave, como engenharia de software, segurança de TI, Cloud Computing ou Data Analytics estão se tornando importantes como resultado das mudanças. Em muitos setores, estão surgindo novas possibilidades de resolução de problema com apoio digital, por exemplo, no domínio do diagnóstico e terapia medicamentosa, da genética, da vida profissional (informatização, utilização de robôs), do controle dos sistemas de tráfego ou da monitorização dos espaços públicos, da meteorologia ou mesmo da influência de processos no mercado financeiro controlada por algoritmos.
É grande a probabilidade de que a pandemia do Corona, eclodida mundialmente no ano de 2020, conduza a transformações com consequências permanentes, também no que se refere às áreas de aplicação das tecnologias digitais, acompanhada por mudanças de hábitos de vida. Já estão sendo cada vez mais utilizadas as tecnologias digitais, sob influência dos sistemas de aprendizagem, para analisar o curso da pandemia e sobretudo para superar seus problemas.
Uma questão central é: como podem ser alcançados os objetivos de bem-estar público, para além das oportunidades para a sociedade como um todo e para os indivíduos no uso da digitalização, tendo em vista os riscos envolvidos? Até que ponto precisamos de conceitos e instrumentos de regulação jurídica mudados ou mesmo fundamentalmente utilizados novos, possivelmente até novos modelos de governança? Além dos modos tradicionais de governança amplamente utilizados no mercado, hierarquia, negociação e rede, o controle baseado em algoritmos de comportamento e estruturas está agora sendo adicionado como um novo tipo de modo de governança – a esse respeito, falamos também de Algorithmic Regulation.
É também importante notar que os países individuais estão, pelo menos em parte, seguindo modelos estrangeiros na criação da estrutura legal para o setor digital. Exemplos disso podem ser encontrados, em particular, na lei de proteção de dados. Por exemplo, a California Consumer Privacy Act 2018 (CCPA), que foi recentemente criada na Califórnia, baseia-se em parte em modelos da regulamentação básica da UE sobre proteção de dados.
A nova Lei Geral de Proteção de Dados (LGPD) brasileira, que entrou em vigor na sua parte substancial em setembro de 2020, também se baseia em modelos europeus, incluindo os da lei alemã e, sobretudo, na regulamentação básica de proteção de dados da UE.
Capítulo 2 – Noções básicas
O termo algoritmo é antigo. Inicialmente, ele foi usado para designar apenas uma regra de ação clara que é usada para resolver certos problemas em etapas individuais definidas. As pessoas utilizam tais procedimentos em suas atividades diárias. Há muito tempo, as máquinas têm sido tecnicamente controladas por algoritmos. Algoritmos são indispensáveis em quase todas as áreas da sociedade, mas especialmente para a comunicação digital e o funcionamento das modernas infraestruturas de comunicação, incluindo a internet.
Para uso em computadores, os algoritmos são escritos em linguagem digital processável por máquinas e a respectiva tarefa é processada com a ajuda de um número finito de etapas individuais predefinidas. Típica é a estrutura determinística da programação. Na maioria dos casos – como nos exemplos discutidos neste trabalho – os algoritmos individuais são partes de sistemas algorítmicos complexos. Eles consistem de software (programas) e hardware e muitas vezes estão ligados a outros componentes de software.
Atualmente, as capacidades computacionais e de análise dos computadores estão sendo expandidas e as possibilidades de aplicação e desempenho dos algoritmos estão crescendo e mudando rapidamente. A chamada inteligência artificial é particularmente importante para isso. Esse termo refere-se em particular ao esforço de reproduzir digitalmente estruturas de decisão semelhantes às humanas, ou seja, de projetar um computador de tal forma e, em particular, de programá-lo usando as chamadas redes neurais de tal forma que possa processar os problemas da maneira mais independente possível e, se necessário, desenvolver ainda mais os programas utilizados.
Cada vez mais, os sistemas de aprendizagem algorítmica são capazes de se adaptar a novas situações problemáticas de forma independente e de continuar a escrever seus próprios programas. Os algoritmos de aprendizagem são assim programados não só para resolver problemas específicos, mas também para aprender como os problemas são resolvidos. Eles devem então ser capazes de se desenvolver independentemente da programação humana. Falamos de Deep Learning quando o sistema aprende a compreender inter-relações, estruturas e arquiteturas sem intervenção humana adicional, de tal forma que pode melhorar seu desempenho de forma independente. Tais programas, que dependem da capacidade de aprender, são utilizados, por exemplo, no processamento de imagem e fala, robótica e prognóstico.
Um importante impulso para a discussão sobre o significado dos algoritmos no controle do comportamento e sua relação com a regulação legal foi dado por Lawrence Lessig – inspirado no trabalho preliminar, especialmente por Joel Reidenberg – com seu livro “Code and Other Laws of Cyberspace”, publicado em 1999. Ele usa o termo código em sentido amplo, em particular ele não o limita – como outros frequentemente fazem – a software e hardware de computador ou a sistemas específicos de controle técnico. Refere-se – e a esse respeito utiliza em inglês uma grafia com “C” maiúsculo – à arquitetura de decisão da internet, que é configurada por hardware e software e sua interação. Isso estende a visão além dos algoritmos isolados para os contextos de seu uso. A relação dos algoritmos não só com a interação software e hardware, mas também com a sua incorporação em infraestruturas complexas e, portanto, indiretamente, a importância de outros requisitos funcionais e possíveis usos das tecnologias de informação e comunicação é esclarecida.
Capítulo 3 – Sobre as diferenças entre controle por normas legais e por algoritmos
As normas jurídicas tradicionais contêm especificações formuladas em palavras, mas também a serem desenvolvidas por meio de outras especificações, para comportamentos permitidos, possíveis, necessários e proibidos e, indiretamente, para os efeitos desencadeados por comportamentos em conformidade com as normas. Existem diferentes regras jurídicas – como competência e requisitos processuais, mas também orientações materiais (por exemplo, sobre liberdades civis) – de um lado para o estabelecimento de direito geral abstrato e, de outro, para a aplicação da lei a casos individuais, mas também para o monitoramento do cumprimento das regras e, se necessário, para a sanção de violações de regras.
Algoritmos contêm regras técnicas para a realização automática de uma tarefa. Eles são baseados em uma linguagem técnica específica, não textual. O chamado código binário utilizado para isso representa informações por sequências de dois símbolos diferentes, como 1 e 0, que podem ser representados por sinais eletrônicos ou ópticos. A clareza destes símbolos e a descrição dos passos individuais predefinidos é um requisito para o seu uso em computadores. O uso concreto de algoritmos para lidar com problemas não é um ato de interação social. Os resultados não são construções sociais, mas técnicas.
O fator humano não é excluído para a solução de um problema concreto com a ajuda de algoritmos, na medida em que ainda é necessária informação que não é tecnicamente gerada, mas fornecida por pessoas/organizações como input. Neste sentido, uma certa recontextualização pode ocorrer no processo de aplicação concreta, ou seja, uma centralização na solução de um problema concreto com contextos específicos. No entanto, o seu processamento utilizando os algoritmos é então um processo exclusivamente técnico.
Não se pode descartar que a criação de algoritmos possa estar sujeita a requisitos e estímulos similares aos utilizados na legislação. No entanto, isso não é certo. Em particular, o desenvolvimento de software empresarial não é o produto de um procedimento que é regido pelo Estado de Direito e geralmente não é transparente, especialmente um procedimento que pode ser controlado por terceiros. Embora a participação das partes afetadas ou de terceiros não seja, em princípio excluída, ela quase nunca é feita na prática. Uma exceção é o desenvolvimento de software por crowsourcing. Mas também aqui a participação de terceiros não é realizada em procedimentos legalmente independentes; nem está sujeita a qualquer controle democrático pelo Estado de Direito.
Capítulo 4 – Possibilidades para a proteção de relevantes bens jurídicos individuais e coletivos
As características especiais de Big Data e IA e as aplicações que elas moldam só são levadas em conta de forma limitada nas normas emitidas até o momento. Continua sendo uma tarefa a ser dominada para adaptar as liberdades civis (não apenas aquelas relativas à proteção de dados) aos novos potenciais – ou seja, também às possibilidades inovadoras – de digitalização e, em particular, à utilização de Big Data, ao mesmo tempo em que se leva em conta as ameaças aos interesses legais que são possíveis ao mesmo tempo. Isso pode ser conseguido em parte pela interpretação de padrões já emitidos (como o RGDP – Regulamento Básico de Proteção de Dados, da UE) ou, quando isso não for suficiente – por meio da alteração de padrões antigos ou da criação de novos padrões.
Embora o conteúdo da garantia do direito fundamental de informática tenha sido especificado pelo Tribunal Institucional Alemão no decorrer de uma decisão sobre reclamações constitucionais dirigida à proteção de dados pessoais, a garantia dos direitos fundamentais também tem um efeito reflexivo sobre a proteção de dados não pessoais. Se o sistema de tecnologia da informação é protegido por uma parede de proteção legal contra intervenções como a instalação de malware ou outros tipos de manipulação de software, isso também tem um efeito limitador reflexo na possibilidade de acesso aos dados não pessoais disponíveis no sistema.
A regulamentação pública na área de digitalização muitas vezes encontra resistência considerável por parte das empresas de TI, que tentam impedir ou desarmar a regulamentação na medida do possível. Eles também têm oportunidade de fugir às regras que foram criadas, por exemplo, selecionando a sede de uma empresa ou dividindo-a, deslocando o foco de suas atividades para outras partes de um grupo, tornando seus procedimentos comerciais não transparentes ou projetando uma tecnologia difícil de ser reconhecida por terceiros. Estes últimos também são regularmente difíceis de entender e em grande parte não estão sujeitos a controles públicos.
O objeto da atividade econômica são os chamados bens de informação. Os efeitos de rede são associados a eles. É típico destes bens que, mesmo com altos custos fixos de sua produção, os custos médios de produção e reprodução da informação caiam infinitamente, uma vez que apenas baixos custos variáveis são incorridos e os bens não se desgastam em grande parte durante o consumo. Se os bens da rede são utilizados por redes de comunicação – neste caso telecomunicações -, também é importante notar que quanto maior o número de pessoas que já estão conectadas à rede e a utilizam, maior o benefício para os consumidores e, sobretudo, para as próprias empresas. Isso é chamado de efeitos diretos de rede, que permitem às empresas de sucesso obter aumentos exponenciais de valor.
Os dados de conexão e conteúdo gerados durante o processo de uso obviamente têm um alto valor – como pode ser visto, por exemplo, a partir dos imensos lucros obtidos com o uso do mecanismo de busca Google -, mas os usuários não são recompensados por isso. Afinal, eles podem utilizar os serviços gratuitamente. Entretanto, essa vantagem é – financeiramente falando – muito menor em geral do que as possibilidades de empresas e terceiros explorarem os dados.
Capítulo 5 – Controle digital do comportamento
Uma área socialmente muito importante de controle tecnológico relacionado ao comportamento é a seleção e controle do acesso à informação por intermediários da informação na área de serviços sociais na internet (por exemplo, por meio de mecanismos de busca ou plataformas de comunicação). Os meios tradicionais também filtram informações e influenciam o nível de informação social, bem como os valores e comportamentos das pessoas. No entanto, as possibilidades de controle da tecnologia digital vão quantitativa e qualitativamente muito além das formas tradicionais de influência da mídia.
Influência no comportamento eleitoral. As possibilidades de influência baseada em algoritmos também podem ser usadas para influenciar o comportamento político eleitoral/voto. Um exemplo é a utilização de bots em 2016 na campanha para o referendo sobre a retirada do Reino Unido da UE (“Brexit”).
Bots são atores técnicos controlados por computador em redes sociais que realizam certas tarefas repetitivas automaticamente e sem a necessidade de interação com comunicadores humanos. Na comunicação pela internet, eles podem se comportar como usuários humanos e, por exemplo, enviar solicitações de contato ou destruir continuamente (o chamado Trolling) as comunicações de outros por contribuições provocatórias ou deliberadamente falsas (Fake News).
Uso da Legal Technology. Algoritmos também podem ser utilizados em contextos legais. Os esforços e discussões que visam a isso são conduzidos sob o guarda-chuva conceitual da Análise Jurídica, da Legal Technology ou da Legal Tech. Em alguns países, especialmente nos EUA, já existem muitas áreas da Legal Technology na prática. Recentemente, tais esforços também têm sido observados, e cada vez mais, na Alemanha. Por exemplo, na continuação de abordagens anteriores à automação em direito, isso envolve a crescente digitalização da comunicação jurídica – como já está planejado e praticado na Alemanha, em certa medida, por meio da autorização de manutenção de registros eletrônicos, registros administrativos eletrônicos ou outras formas de administração eletrônica. Os defensores da Legal Technology, porém, não se preocupam apenas em substituir formulários em papel por comunicação online, mas também com novas formas de coleta e pesquisa de dados para o maior número possível de tipos de trabalho jurídico. São coletadas informações sobre a legislação, mas também a prestação e consultoria jurídica online.
Controle técnico por meio do design. Os tipos de controle de tecnologia permitidos por lei ou utilizados independentemente dela são a proteção de direitos e interesses – como a proteção de dados – por meio da configuração de tecnologia (exemplo: Privacy by Design) ou o uso de Tecnologias de Melhoria de Privacidade (PETs). Outro exemplo, utilizado aqui em particular para apoiar o caráter imperativo do direito, é o Digital Rights Management (DRM). A proteção de direitos autorais – por exemplo, para o conteúdo de um DVD – é feita diretamente através de bloqueio técnico de dublagem/cópia.
Capítulo 6 – Desafios jurídicos no uso de dados, em especial no que diz respeito a Big Data e IA
O termo targeting refere-se a uma abordagem a grupos-alvo, especialmente para fins de controle da informação, por exemplo, uma mensagem publicitária “feita sob medida”. Este targeting pode ser realizado pela própria empresa que coleta os dados ou por outra empresa que tenha adquirido os dados para seu próprio uso. Como resultado da avaliação dos dados, também podem ser abertas possibilidades de filtragem pessoal de informações adicionais dadas aos usuários e, portanto, também possibilidades de influência indireta em suas experiências pessoais, atitudes e comportamentos.
Os dados coletados desta forma são frequentemente combinados (agregados) com outros conjuntos de dados e também são usados para análise de Big Data e aplicação em outras áreas temáticas e áreas de uso. Os dados também são frequentemente passados a outros interessados – incluindo corretores especiais de dados que podem comercializá-los junto com outros dados – e possivelmente também a órgãos governamentais, em parte devido a obrigações legais.
O caráter voluntário do consentimento é um elemento importante para a proteção da autonomia dos usuários. Entretanto, se determinados serviços são praticamente indispensáveis aos usuários por razões profissionais e pessoais importantes – por exemplo, para atuar no mundo do trabalho ou nas autoridades públicas ou para a participação social na comunicação – e se não existem serviços concorrentes de qualidade comparável, os usuários não têm praticamente outra escolha senão dar seu consentimento. O pressuposto de que eles dão seu consentimento voluntariamente é, então, ficção.
O Tribunal Constitucional Alemão também identificou este dilema e o formulou do seguinte modo: “Em todas as áreas da vida, serviços básicos para o público em geral estão sendo cada vez mais prestados por empresas privadas, muitas vezes poderosas, com base em extensas coletas da dados pessoais e medidas de processamento de dados. Os indivíduos dificilmente terão outra escolha senão a de revelar em grande medida seus dados pessoais para as empresas, caso não queiram ser excluídos desses serviços básicos. Diante da capacidade de manipulação, reprodução e de possibilidades de divulgação praticamente ilimitadas de dados, tanto em termos de tempo como de espaço, bem como sua imprevisível capacidade de recombinação em procedimentos de processamento não transparentes por meio de algoritmos incompreensíveis, os indivíduos podem se tornar amplamente dependentes ou ficar expostos a condições contratuais impositivas”. Ainda que aqui não se trate dos pressupostos para a validade de um consentimento do usuário, a importância das circunstâncias citadas devem ser levadas em consideração para a avaliação da natureza voluntária de um consentimento.
Capítulo 7 – Reações possíveis aos desafios da digitalização
As razões para a revisão da legislação existente não se limitam, de forma alguma, aos aspectos tecnológicos da transformação digital. Paralelamente a ela, a ordem social também está mudando e as condições de vida individual e social estão sendo redefinidas. Assim, o uso de algoritmos digitais – como já mencionado várias vezes – pode mudar a percepção dos eventos reais, pode ser usado para influenciar atitudes, valores e comportamentos, e pode influenciar processos de tomada de decisão sociopolíticos.
A criação de sistemas ciberfísicos nas áreas de produção e distribuição, que atualmente está sendo vigorosamente perseguida não apenas na Alemanha, também deve ser mencionada. Novos requisitos de regulamentação legal também estão sendo criados por novas formas de networking – por exemplo, na smart home – e por novas possibilidades de mobilidade, como a smartphone, a computação em nuvem ou a condução automática ou autônoma de carros. Os problemas surgem também do fato de que uma grande quantidade de dados é gerada, processada e utilizada. Também merecem destaque as novas formas de influência comunicativa (como Social Bots ou a divulgação de notícias falsas). Existem também áreas particularmente sensíveis de aplicação, como no diagnóstico médico. Entre outras coisas, temos de reagir a possibilidades crescentes e mais diferenciadas de vigilância estatal e privada, mas também à espionagem e sabotagem, que também se dão por meio de Big Data e do uso da inteligência artificial.
Além disso, os dados pessoais também teriam que ser classificados como dados que não são coletados de uma pessoa específica, mas que podem ser usados para filtrar indivíduos específicos e submetê-los a certas medidas. Esse é o caso, por exemplo, se alguém é atribuído a um grupo de pessoas (um cluster) formado no curso de Big Data utilizando métodos estatísticos sem interferir com seus próprios dados pessoais e outras caraterísticas são atribuídas á pessoa apenas com base nesta atribuição. Elas podem incluir, por exemplo, questões de saúde, solidez financeira, orientação sexual, dentre outras. A atribuição de tais características pode desencadear consequências adversas atuais ou potenciais para as pessoas atribuídas a esse grupo. O Direito tradicional de proteção de dados não oferece nenhuma proteção contra isso.
Extensão da proteção judicial. Devem ser tomadas providências para uma revisão judicial eficaz. Isso também pode ser conseguido quando se justifica o reconhecimento de segredos comerciais de empresas ou segredos oficiais de autoridades públicas. Neste sentido, a proteção judicial para aqueles prejudicados pelo uso de algoritmos não precisa necessariamente ser abandonada, mas pode ser possibilitada pela introdução dos chamados procedimentos in-camera nos tribunais: as empresas são obrigadas a divulgar ao Tribunal algoritmos sensíveis, em especial aqueles que possam ser utilizados de forma a colocar em risco a liberdade – se necessário, apenas as máximas e critérios em que se baseiam, as informações utilizadas como imput e, no caso de sistemas de aprendizagem, as regras de treinamento utilizadas e, se necessário, também o tipo de utilização da análise de Big Data. Tais informações não devem, contudo, ser tornadas públicas em geral e não devem ser acessíveis às partes no processo, ou apenas de forma limitada, mas devem estar disponíveis para o tribunal que trata dos problemas, que pode, no entanto, providenciar um exame por peritos independentes.
Ampliação da transparência do design técnico e algoritmos. Garantir a transparência suficiente é essencial não apenas para a proteção de dados, mas também para a proteção de outros interesses legalmente fundamentados. Nesse contexto, a transparência não deve ser um fim em si mesma, mas deve ser utilizável como base para a possibilidade de identificação de riscos e para a rastreabilidade e controlabilidade e, se necessário, para a possibilidade de revisão. Objetos de uma demanda por transparência adequada não são apenas a coleta e processamento de dados, mas também o projeto tecnológico utilizado e os algoritmos empregados em cada caso, ou melhor: os sistemas algorítmicos, incluindo as disposições para “treinamento” de tais sistemas.
Capítulo 8 – Sobre a importância das precauções para a boa governança digital
Já foi mencionado (capítulo 2, F) que a criação da lei e, em particular, das disposições de regulamentação pública devem ser coordenadas com as respectivas modalidades de solução de problemas escolhidas em cada caso (as “modalidades de governança”: mercado, concorrência, negociação, rede, contrato, controle digital). Como um dos vários exemplos de metas importantes para o projeto de IA, pode-se citar uma lista de um grupo criado pela Comissão Europeia:
- Dignidade Humana;
- Autonomia;
- Responsabilidade;
- Justiça, Equidade e Solidariedade;
- Estado de Direito e Responsabilidade;
- Proteção de Dados e Privacidade;
- Sustentabilidade.
A classificação de tais padrões no campo da ética por este grupo não altera, no entanto, o fato de que eles são, em grande parte, de relevância legal. Isso deixa claro que o direito e a ética estão muitas vezes inter-relacionados. O direito também tem fundamentos éticos e os princípios éticos também são influenciados pelo Direito.
Tendo em vista as oportunidades e riscos da TI, que vão muito além daqueles associados ao tratamento de dados pessoais, é preciso esclarecer se faz sentido recorrer às autoridades de proteção de dados existentes para a tarefa de supervisão. Para isso, seus poderes teriam que ser ampliados e os níveis de pessoal teriam que ser qualitativa e quantitativamente adequados. Entretanto, talvez seja preferível criar uma instituição especializada em monitorar não apenas, mas acima de tudo, a IA, e possivelmente com jurisdição nacional ou mesmo comunitária, como uma agência digital. Para o setor jurídico americano, Andrew Tutt propôs – como já mencionado – o estabelecimento de uma autoridade que deveria ser tão poderosa quanto a Administração Federal de Drogas. Além do monitoramento, tal instituição também deve ser encarregada do desenvolvimento de normas (Performance Standards, Design Standards, Liability Standards) ou, pelo menos, estar envolvida no seu desenvolvimento.
Um dos desafios para configurar o desenvolvimento e uso das tecnologias digitais é esclarecer a relação entre os requisitos éticos e legais.
Mais recentemente, muitas instituições têm lidado com questões de ética da digitalização, especialmente no que diz respeito à IA, e várias ainda estão trabalhando nesse sentido. O governo federal alemão adotou pontos-chave para uma estratégia de inteligência artificial. Também criou uma comissão de ética de dados e definiu algumas questões-chave. O notável relatório está disponível desde o final de 2019. O parlamento alemão criou uma comissão de inquérito sobre inteligência artificial, que também deve lidar com questões éticas. Vale ressaltar também que empresas individuais elaboraram diretrizes ou princípios éticos para sub-problemas, como o Google e a Deutsche Telekom. Há também discussões intensivas no público, incluindo a comunidade científica, sobre o papel da ética e sua elação com as normas legais.
Capítulo 9 – Autorregulação, autorregulamentação e autorregulamentação regulada no contexto digital
Os particulares – protegidos pelas liberdades civis – são, em princípio, livres para perseguir seus interesses e especificar seus cálculos de benefício. No entanto, não estão completamente isentos de consideração pelos interesses dos outros e pelo bem comum. Se necessário, a lei pode ou deve estabelecer uma estrutura para garantir o exercício socialmente aceitável da liberdade. A grande importância da autodeterminação privada e da autorregulação não altera, portanto, a tarefa do estado como “Estado garantidor” de assumir uma “responsabilidade garantidora” pela salvaguarda do bem individual e comum também por lei.
Falo de autorregulação social regulada pelo Estado (ou autorregulação) – em suma: de autorregulação/regulação regulada – quando as autoridades públicas contam com os serviços de regulação prestados pelos membros da sociedade em (relativa) autonomia para a solução de problemas, mas trabalham de forma reguladora para garantir que o bem comum seja (também) observado ou especificamente perseguido. A ação do Poder Público visando à contenção legal da autorregulação pode ocorrer de diversas formas, por exemplo, na forma de diretrizes comportamentais ou incentivos, por meio da criação de estruturas – como as da natureza corporativa – ou viabilizando e apoiando sistemas funcionais sociais, como o mercado.
Compromissos voluntários para evitar sanções do Poder Público. Uma combinação específica da atuação estatal e a influência de sua implementação pode ser encontrada na área dos compromissos jurídicos voluntários, porém iniciados pelo Poder Público. No setor de TI, tais compromissos voluntários existem, por exemplo, em resposta a reclamações das autoridades supervisoras do cartel. O ponto de partida é o processo de cartel iniciado pelas autoridades da Alemanha e no exterior contra empresas de internet.
No passado, tais procedimentos foram frequentemente encerrados por compromissos voluntários das empresas. A empresa em questão pôde assim evitar condições ou proibições, bem como multas; porém, como requisito, teve que se comprometer com determinadas mudanças de suas práticas ou mesmo com prestações financeiras. A vantagem foi mútua. O Poder Público foi aliviado dos problemas muitas vezes difíceis de provar e do ônus de um possível procedimento judicial subsequente, e a empresa afetada pôde afirmar seus próprios interesses de forma mais eficaz, formulando o compromisso voluntário em casos de dúvida do que no caso de uma medida unilateral do Poder Público. A obrigação de pagamento pretendida como sanção também poderia ser mantida abaixo do que seria esperado se uma multa fosse imposta. Por outro lado, a perspectiva de encerrar um procedimento de objeção por meio de um compromisso voluntário poderia motivar as empresas a explorar ao máximo seu poder de mercado e a aceitar procedimentos de objeção sem o risco de pesadas sanções. A renúncia oficial do pleno uso de seu poder estatal pode levar a consideráveis déficits de implementação.
Capítulo 10 – Legal Technology/Computational Law – exemplos de uso das tecnologias digitais no direito
O termo “Legal Technology” foi usado pela primeira vez nos EUA, mas desde então se estabeleceu em todo o mundo, inclusive na Alemanha. No entanto, não está em lugar algum claramente definido. Em suma, refere-se ao uso da tecnologia da informação nos campos jurídicos de atividades como assessoria jurídica, jurisprudência, na aplicação do Direito, mas também no processo legislativo.
Atualmente, novas formas de encontrar informações jurídicas relevantes (chamadas de recuperação de informações), pesquisa jurídica (chamada de E-Discovery), análise de documentos, uso digital do conhecimento especializado, instrumentos para prever futuras decisões judiciais (Legal Prediction), suporte online para atividades jurídicas, resolução de conflitos via internet (On-line Dispute Resolution) e muito mais estão surgindo em muitos países, muitas vezes em cooperação entre advogados e especialistas em TI. Decisões que antes eram tomadas por seres humanos estão cada vez mais sendo executadas automaticamente, como procedimentos de cobrança ou a emissão de atos administrativos em determinadas áreas.
Muitas empresas de TI estabelecidas e startups começaram a oferecer modelos de negócios e a desenvolver softwares adequados à Legal Technology. Estes incluem os principais players globais. A IBM, por exemplo, desenvolveu um computador muito poderoso, o Watson/Ross, que pode pesquisar e avaliar bilhões de textos em questão de segundos, e que está cada vez mais começando a entender os textos legais.
Muitas vantagens da Legal Technology são elogiadas. Por exemplo, facilitar a pesquisa e avaliação de fontes legais, incluindo precedentes judiciais como base para consultoria jurídica ou litígio estratégico. Espera-se uma considerável economia nos custos de transação, bem como um aumento na velocidade, eficiência e eficácia da análise dos materiais de origem e da preparação, tomada e execução das decisões. A Legal Technology também permite a remoção de certas barreiras ao acesso legal.
Perspectivas da Legal Tech. Quanto mais a transformação digital também afeta o próprio sistema jurídico, mais importante é que a sociedade esteja bem preparada para ela. Isso inclui também garantir que os evolvidos no desenvolvimento tenham as qualificações adequadas. No futuro, não será mais suficiente para os juristas aprenderem e praticarem o Direito da forma que era típica no mundo analógico. Em particular, eles também terão que adquirir habilidades em tecnologia da informação. Por outro lado, os especialistas em tecnologia da informação que desenvolvem software para Legal Technology terão que aprender a entender as características especiais do direito.
No entanto, não se trata apenas de habilidades técnicas, mas também de refletir sobre o que a digitalização traz consigo. Por exemplo, se os contratos são celebrados automaticamente e sua violação é automaticamente sancionada, isso traz consequências em relação à forma de aplicação do Direito, e, portanto, para a proteção de interesses. O mesmo se aplica se a adoção de atos administrativos for deixada a um software não transparente e não especificado. Também faz diferença se a verificação da legalidade é feita por autômatos de autoaprendizagem e não mais em procedimentos estruturados de acordo com o Estado de Direito, assim como não mais por pessoas treinadas em direito e atuando com um ethos profissional.
Resenha: Rogério H. Jönck
Fotos: reprodução e unsplash
Ficha técnica:
Título: Teoria geral do Direito Digital – Transformação digital e desafios para o Direito
Título original: Die Digitale Transformation – Herausforderung für das Recht
Autor: Wolfgang Hoffmann-Riem
Primeira edição: Editora Forense