Por Tarcisio Burlandy de Melo 

Você já parou para pensar na quantidade de dados pessoais que você fornece todos os dias para empresas e organizações? Seja ao navegar na internet, ao usar aplicativos no celular, ao fazer compras online ou ao se cadastrar em redes sociais, você está constantemente compartilhando informações sobre seus hábitos, preferências, opiniões e comportamentos.

Mas você sabe o que essas empresas fazem com esses dados? Você sabe como eles são armazenados, tratados, analisados e usados?

Muitas vezes, esses dados são utilizados para alimentar sistemas de inteligência artificial (IA) e machine learning (ML), ou seja, tecnologias que usam grandes volumes de dados para gerar insights e soluções personalizadas. Essas tecnologias podem trazer muitos benefícios para os usuários, como oferecer serviços mais eficientes, produtos mais adequados e experiências mais satisfatórias.

Mas elas também podem trazer muitos riscos para a privacidade e a dignidade dos indivíduos. Afinal, quem garante que esses dados não serão usados para fins ilícitos, abusivos ou discriminatórios? Quem garante que esses dados não serão vazados, roubados ou manipulados? Quem garante que esses dados não serão usados contra os próprios usuários?

Essa é uma questão que ainda não é muito debatida no Brasil, mas que pode trazer muitas implicações jurídicas no futuro. Afinal, estamos diante de uma nova realidade onde os dados pessoais são considerados o novo petróleo da economia digital.

Como então resolver essa questão? Quais são as regras de direito aplicáveis aos casos envolvendo a proteção de dados pessoais na era da IA e do ML?

Uma possível resposta seria recorrer à Lei Geral de Proteção de Dados Pessoais (LGPD), que entrou em vigor em setembro de 2020 e regulamenta o tratamento dos dados pessoais no Brasil. Segundo essa lei, os titulares dos dados têm direitos fundamentais como:

  • O direito à informação sobre o tratamento dos seus dados;
  • O direito ao acesso aos seus dados;
  • O direito à correção dos seus dados;
  • O direito à eliminação dos seus dados;
  • O direito à portabilidade dos seus dados;
  • O direito à oposição ao tratamento dos seus dados;
  • O direito à revisão das decisões automatizadas baseadas nos seus dados.

Esses direitos devem ser respeitados pelos agentes de tratamento dos dados, ou seja, aqueles que coletam, armazenam, processam ou transmitem os dados pessoais. Além disso, esses agentes devem seguir os princípios da LGPD, como:

  • O princípio da finalidade: os dados devem ser tratados para fins legítimos, específicos e informados ao titular;
  • O princípio da adequação: os dados devem ser compatíveis com as finalidades informadas ao titular;
  • O princípio da necessidade: os dados devem ser limitados ao mínimo necessário para a realização das finalidades;
  • O princípio da qualidade: os dados devem ser exatos, claros e atualizados;
  • O princípio da transparência: os dados devem ser tratados de forma clara e acessível ao titular;
  • O princípio da segurança: os dados devem ser protegidos contra acessos não autorizados ou situações acidentais ou ilícitas;
  • O princípio da prevenção: os dados devem ser tratados de forma a evitar danos aos titulares;
  • O princípio da não discriminação: os dados não devem ser usados para fins discriminatórios ou ilícitos;
  • O princípio da responsabilização e prestação de contas: os agentes de tratamento devem demonstrar o cumprimento das normas de proteção de dados.

Essas normas poderiam ser aplicadas aos casos envolvendo IA e ML? Em tese sim, mas na prática há muitas dificuldades e limitações.

Uma delas é a questão do consentimento. Para se tratar dados pessoais, é preciso obter o consentimento livre, expresso e informado do titular (art. 7º). Mas como garantir que esse consentimento seja válido e efetivo se muitas vezes o usuário não tem conhecimento ou compreensão sobre o uso dos seus dados? Como garantir que esse consentimento não seja viciado por práticas abusivas ou enganosas?

Outra dificuldade é a questão da transparência. Para se tratar dados pessoais, é preciso informar ao titular as características e consequências do tratamento (art. 9º). Mas como garantir essa informação se muitas vezes os sistemas de IA e ML são opacos e complexos? Como garantir que o usuário tenha acesso aos critérios e aos resultados das decisões automatizadas baseadas nos seus dados?

Uma terceira dificuldade é a questão da responsabilidade. Para se tratar dados pessoais, é preciso assumir a responsabilidade pelos danos causados aos titulares (art. 42). Mas como atribuir essa responsabilidade se muitas vezes os sistemas de IA e ML são dinâmicos e imprevisíveis? Como identificar e comprovar a origem e a extensão dos danos causados pelos sistemas?

Essas são algumas das questões que ainda precisam ser debatidas e regulamentadas pelo legislador brasileiro. A LGPD é um avanço importante na proteção dos direitos dos titulares dos dados pessoais, mas ainda há muito espaço para aperfeiçoamento e adaptação à realidade da IA e do ML.

A proteção de dados pessoais na era da inteligência artificial e do machine learning é um tema que envolve não só aspectos jurídicos, mas também éticos, sociais e econômicos. É preciso encontrar um equilíbrio entre o desenvolvimento tecnológico e o respeito à dignidade humana.

Concluo este artigo com uma frase do jurista italiano Stefano Rodotà: “Os direitos fundamentais são uma bússola para orientar as escolhas sobre as novas tecnologias”. Que essa bússola nos guie na busca por um futuro mais justo e democrático.