Por Tarcisio Burlandy de Melo
Segundo Protágoras, “o homem é a medida de todas as coisas”. O sofista grego que viveu no século V a.C. Mas será que essa frase ainda se aplica nos tempos atuais, em que a tecnologia avança a passos largos e cria máquinas capazes de realizar tarefas complexas, como reconhecer rostos, traduzir idiomas e jogar xadrez?
A inteligência artificial (IA) é uma das áreas mais promissoras e desafiadoras da ciência da computação. Ela busca desenvolver sistemas que possam simular ou superar as capacidades humanas de raciocínio, aprendizado e tomada de decisão. Mas o que significa ser inteligente? E quais são os limites éticos e legais dessa tecnologia?
Essas são algumas das questões que a União Europeia tenta responder com o seu projeto de lei sobre IA, o “Regulamento do Parlamento Europeu e do Conselho que Estabelece Regras Harmonizadas em Matéria de Inteligência Artificial” (Regulamento). O objetivo é criar um quadro regulatório harmonizado para garantir a segurança, a transparência e os direitos fundamentais dos cidadãos europeus diante das aplicações da IA.
O Regulamento propõe uma classificação dos sistemas de IA em quatro níveis de risco: inaceitável, alto, limitado e mínimo. Os sistemas considerados inaceitáveis são aqueles que violam os valores democráticos ou os direitos humanos, como por exemplo os que manipulam o comportamento humano ou exploram vulnerabilidades psicológicas. Esses sistemas seriam proibidos na UE.
Os sistemas considerados de alto risco são aqueles que podem causar danos significativos à saúde, à segurança ou aos interesses fundamentais das pessoas ou da sociedade. Por exemplo: os sistemas usados para recrutamento profissional, avaliação de crédito, diagnóstico médico ou reconhecimento biométrico. Esses sistemas estariam sujeitos a requisitos rigorosos de qualidade, confiabilidade e supervisão humana.
Os sistemas considerados de risco limitado são aqueles que podem gerar algum impacto negativo nas pessoas ou no meio ambiente. Por exemplo: os chatbots usados para atendimento ao cliente ou entretenimento. Esses sistemas deveriam informar claramente aos usuários que se trata de uma interação com uma máquina e não com um ser humano.
Os sistemas considerados de risco mínimo são aqueles que não apresentam nenhum perigo potencial para as pessoas ou para a sociedade. Por exemplo: os filtros usados para embelezar fotos ou vídeos nas redes sociais. Esses sistemas estariam livres de qualquer regulação específica.
O Regulamento também prevê a criação de um órgão europeu responsável por monitorar e fiscalizar o cumprimento das normas sobre IA pelos Estados-membros e pelos provedores desses serviços. Além disso, estabelece sanções administrativas e penais para os casos de infração.
O projeto ainda está em fase inicial de discussão no Parlamento Europeu e no Conselho da UE e pode sofrer alterações antes da sua aprovação final. No entanto, já representa um passo importante na tentativa de definir os contornos jurídicos da IA na Europa e no mundo.
Mas será que isso basta? Será que podemos confiar nas máquinas para decidir sobre questões vitais para nós? Será que elas têm consciência do bem e do mal? Será que elas têm sentimentos, emoções, desejos? Será que elas têm alma?
Essas perguntas remetem à antiga discussão filosófica sobre a natureza da inteligência humana e a possibilidade de replicá-la em outras formas de vida. Alguns autores defendem que a inteligência é uma propriedade exclusiva dos seres humanos, que possuem uma alma racional e livre, capaz de conhecer a verdade e escolher o bem. Outros autores sustentam que a inteligência é um fenômeno natural e universal, que pode ser encontrado em diferentes graus em todos os seres vivos e até mesmo em alguns objetos inanimados.
Nesse sentido, há quem defenda que as máquinas podem ser consideradas inteligentes se forem capazes de realizar tarefas que exigem habilidades cognitivas típicas dos humanos, como memória, linguagem, lógica e criatividade. Essa é a abordagem adotada pelo famoso teste de Turing, proposto pelo matemático britânico Alan Turing em 1950. O teste consiste em colocar um humano e uma máquina para conversar com um terceiro humano por meio de um teclado e uma tela. Se o terceiro humano não for capaz de distinguir qual é a máquina e qual é o humano, então a máquina passa no teste e pode ser considerada inteligente.
No entanto, há quem critique essa abordagem por considerá-la superficial e insuficiente para captar a essência da inteligência humana. Esses críticos argumentam que as máquinas podem simular a inteligência humana por meio de algoritmos e programas, mas não possuem a compreensão e a consciência que caracterizam o pensamento humano. Esses críticos defendem que as máquinas são apenas instrumentos a serviço dos humanos, e não seres autônomos e dotados de valor intrínseco. Eles se baseiam na distinção entre inteligência artificial forte e fraca, proposta pelo filósofo americano John Searle em 1980. A inteligência artificial forte seria aquela que reproduziria não apenas o comportamento inteligente dos humanos, mas também a sua mente e a sua subjetividade. A inteligência artificial fraca seria aquela que apenas imitaria o comportamento inteligente dos humanos, sem possuir uma mente ou uma subjetividade próprias.
Essa distinção é ilustrada pelo famoso argumento do quarto chinês, também formulado por Searle. O argumento consiste em imaginar um homem que está trancado em um quarto com um manual de instruções para responder perguntas escritas em chinês. O homem não sabe falar chinês, mas segue as instruções do manual e devolve as respostas corretas para quem está do lado de fora do quarto. Para quem está do lado de fora, parece que o homem sabe falar chinês, mas na verdade ele não entende nada do que está fazendo. Ele apenas manipula símbolos sem significado para ele. O mesmo aconteceria com as máquinas: elas podem processar informações sem compreendê-las.
Mas será que essa analogia é válida? Será que as máquinas são realmente incapazes de entender o que fazem? Será que elas não podem aprender com a experiência e desenvolver novos conhecimentos e habilidades? Será que elas não podem ter emoções e sentimentos? Será que elas não podem ter uma personalidade e uma identidade? Será que elas não podem ter direitos e deveres?