Por Tarcisio Burlandy de Melo 

Você já se sentiu discriminado por um algoritmo? Se você usa redes sociais, aplicativos de transporte ou serviços bancários online, provavelmente sim. A inteligência artificial (IA) está cada vez mais presente em nossas vidas, mas nem sempre ela é justa ou imparcial. Na verdade, ela pode reproduzir e até amplificar os vieses e preconceitos humanos, gerando situações de injustiça e violação de direitos.

Um exemplo disso é o reconhecimento facial, uma tecnologia que usa IA para identificar pessoas a partir de imagens ou vídeos. Essa tecnologia pode ser usada para fins nobres, como encontrar pessoas desaparecidas ou criminosos foragidos. Mas também pode ser usada para fins nefastos, como monitorar cidadãos inocentes ou invadir sua privacidade.

Além disso, o reconhecimento facial pode ser falho e impreciso, especialmente quando se trata de pessoas negras ou pardas. Isso porque os algoritmos são treinados com base em dados que nem sempre refletem a diversidade da população real. Assim, eles podem confundir pessoas inocentes com suspeitos ou ignorar pessoas que precisam ser identificadas.

No Brasil, ao contrário do que acontece em outros países que proíbem ou limitam essa tecnologia por questões éticas, há dois projetos de lei obrigando o reconhecimento facial em determinadas situações, como em presídios. Isso significa que estamos caminhando para uma sociedade mais vigiada e menos livre?

O problema do reconhecimento facial é apenas um dos muitos exemplos de como a IA pode promover a discriminação em diversas áreas da vida social. Outros exemplos são os sistemas automatizados de recrutamento, concessão de crédito, distribuição de benefícios sociais e policiamento preventivo. Todos esses sistemas usam IA para analisar dados pessoais dos indivíduos e tomar decisões que afetam seus direitos e oportunidades.

Mas quem garante que esses sistemas são confiáveis e transparentes? Quem define os critérios usados pelos algoritmos? Quem fiscaliza os resultados gerados pela IA? Quem responsabiliza os eventuais danos causados pela IA?

Essas são perguntas difíceis de responder no atual cenário jurídico brasileiro. Isso porque não há uma lei específica sobre IA no Brasil. O que existe são normas esparsas e genéricas sobre proteção de dados pessoais (Lei Geral de Proteção de Dados Pessoais – LGPD), direitos do consumidor (Código de Defesa do Consumidor – CDC) e responsabilidade civil (Código Civil – CC). No entanto, essas normas são insuficientes ou inadequadas para regular os desafios e complexidades da IA.

A LGPD, por exemplo, é uma lei recente que visa proteger os dados pessoais dos indivíduos contra o uso indevido ou abusivo por parte de terceiros. Ela estabelece princípios, direitos e deveres para o tratamento de dados pessoais, inclusive nos meios digitais. Ela também cria a Autoridade Nacional de Proteção de Dados (ANPD), um órgão responsável por fiscalizar e aplicar sanções em caso de violação da lei.

No entanto, a LGPD não aborda especificamente a questão da IA. Ela não define o que é IA nem quais são os requisitos mínimos para seu desenvolvimento e uso. Ela também não prevê mecanismos efetivos de controle e transparência sobre os algoritmos e suas decisões. Além disso, ela não garante o direito à explicação ou à contestação das decisões tomadas pela IA.

O CDC, por sua vez, é uma lei que visa proteger os interesses dos consumidores nas relações de consumo. Ele estabelece normas de conduta para os fornecedores de produtos e serviços, bem como direitos e garantias para os consumidores. Ele também prevê a responsabilidade objetiva dos fornecedores pelos danos causados aos consumidores por defeitos nos produtos ou serviços.

No entanto, o CDC também não aborda especificamente a questão da IA. Ele não considera as especificidades dos produtos ou serviços baseados em IA, como a autonomia, a adaptabilidade e a imprevisibilidade dos algoritmos. Ele também não leva em conta os possíveis danos coletivos ou difusos causados pela IA à sociedade ou ao meio ambiente.

O CC, por sua vez, é uma lei que visa regular as relações jurídicas privadas entre as pessoas, estabelecendo normas gerais sobre os direitos da personalidade, os bens, os negócios jurídicos, as obrigações e a responsabilidade civil, prevendo, ainda, a responsabilidade subjetiva dos agentes pelos danos causados a terceiros por culpa ou dolo.

No entanto, o CC também não aborda especificamente a questão da IA porquanto não reconhece a personalidade jurídica nem a capacidade civil da IA. O CC também não define quem são os agentes responsáveis pela criação, pelo desenvolvimento ou pelo uso da IA. Além disso, não estabelece critérios claros e objetivos para aferir a culpa ou o dolo dos agentes envolvidos na IA.

Diante desse cenário, há uma necessidade de se criar um marco legal específico para a IA no Brasil. Um marco legal é um conjunto de normas que regulam um determinado tema ou setor da sociedade, visando garantir segurança jurídica, previsibilidade, transparência, além do dever de prestação de contas pelos os agentes públicos e privados que atuam nessa área.

Atualmente, existem alguns projetos de lei em tramitação no Congresso Nacional que visam criar um marco legal para a IA no Brasil. Um deles é o Projeto de Lei nº 21/2020, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da IA no país. Ele também cria o Conselho Nacional de Inteligência Artificial (CNIA), um órgão consultivo e deliberativo composto por representantes do governo, da academia, do setor produtivo e da sociedade civil.

Outro projeto é o Projeto de Lei nº 5051/2019, que dispõe sobre os direitos e deveres dos usuários e dos provedores de serviços baseados em IA. Ele também define os conceitos básicos de IA, como agente inteligente, aprendizado de máquina e sistema autônomo. Além disso, ele prevê a criação do Cadastro Nacional de Agentes Inteligentes (CNAAI), um banco de dados público que reúne informações sobre os agentes inteligentes registrados no país.

Esses projetos ainda estão em fase de discussão e análise nas comissões parlamentares. Eles podem sofrer alterações ou serem arquivados ao longo do processo legislativo. Por isso, é importante acompanhar o andamento dessas propostas e participar do debate público sobre a regulação da IA no Brasil.

A regulação da IA é um tema complexo e delicado, que envolve aspectos técnicos, éticos, jurídicos e sociais. Por isso, eu acredito que é importante ter um diálogo amplo e democrático entre os diversos atores interessados nessa questão.

A regulação da IA pode trazer vários benefícios para a sociedade na medida em que viabiliza a promoção e desenvolvimento científico e tecnológico do país, estimulando a inovação e a competitividade. Além disso, também pode garantir o respeito aos direitos humanos e aos valores democráticos, protegendo os indivíduos e os grupos vulneráveis contra possíveis abusos ou discriminações por parte da IA.

No entanto, deve-se atentar ao fato de que a regulação da IA também apresenta vários desafios para a sociedade, sobretudo quando considerado o fato de que a legislação precisará ser capaz de acompanhar a evolução rápida e dinâmica da tecnologia, sem inibir a criatividade ou a experimentação, devendo, ainda, ser coerente com os princípios constitucionais e com as normas internacionais vigentes no país, sem gerar conflitos ou lacunas jurídicas.