Por Otavio Brissant 

Quando se trata de aplicar a Inteligência Artificial em escala, a IA responsável não pode ser um pensamento posterior, dizem os peritos.

Tad Roselund, director-geral e sócio sénior do Boston Consulting Group (BCG), salientou que a IA responsável (RAI) não é algo que se faça apenas no final do processo. “É algo que deve ser incluído desde quando a IA começa, num guardanapo como uma ideia à volta da mesa, até algo que é depois distribuído de uma forma escalável por toda a empresa”.

Assegurar que a IA responsável está na frente e no centro quando se aplica a IA em escala foi o tema de um recente artigo do Fórum Económico Mundial, da autoria de Abhishek Gupta, líder responsável pela IA no BCG e fundador do Montreal AI Ethics Institute; Steven Mills, sócio e diretor de ética da IA no BCG; e Kay Firth-Butterfield, chefe da IA e ML e membro do comité executivo no Fórum Económico Mundial.

“À medida que mais organizações começam as suas viagens de IA, elas estão à beira de ter de fazer a escolha entre investir recursos escassos para escalar os seus esforços de IA ou canalizar investimentos para escalar a IA responsável de antemão,” disse o artigo. “Acreditamos que eles deveriam fazer este último para alcançar um sucesso sustentado e melhores retornos do investimento”.

Não existe uma definição acordada da RAI. O grupo de investigação Brookings define-a como “ética e responsável” de inteligência artificial, mas diz que “[m]aking AI systems transparent, fair, secure, and inclusive are core elements of widely asserted responsible AI frameworks, but how they are interpreted and operationalized by each group can vary”.

Isto significa que, pelo menos à superfície, a RAI poderia parecer um pouco diferente de organização para organização, disse Roselund.

“Tem de ser um reflexo dos valores subjacentes e da finalidade de uma organização”, disse ele. “Empresas diferentes têm declarações de valores diferentes”.

Ele apontou para um recente inquérito da BCG que descobriu que mais de 80% das organizações pensam que a IA tem um grande potencial para revolucionar os processos.

“Está a ser visto como a próxima onda de inovação de muitos processos centrais de uma organização”, disse ele.

Ao mesmo tempo, apenas 25% das organizações implantaram totalmente a RAI.

Acertar significa incorporar a IA responsável em sistemas, processos, cultura, governação, estratégia e gestão de risco, disse ele. Quando as organizações lutam com a RAI, é porque o conceito e os processos tendem a ser silotizados em um só grupo.

Construir a RAI em processos fundacionais também minimiza o risco de IA sombra, ou soluções fora do controlo do departamento de TI. Roselund salientou que embora as organizações não sejam avessas ao risco, “elas são avessas à surpresa”.

Em última análise, “não se quer que a RAI seja algo separado, quer-se que faça parte do tecido de uma organização”, disse ele.

Roselund usou uma metáfora interessante para o sucesso da RAI: um carro de corrida.

Uma das razões pelas quais um carro de corrida pode andar muito rápido e rugir pelas esquinas é que tem travões apropriados no lugar. Quando questionados, os pilotos dizem que podem circular pela pista “porque eu confio nos meus travões”.

A RAI é semelhante para os fatos C-leves e boards, disse ele – porque quando os processos estão em vigor, os líderes podem encorajar e desbloquear a inovação.

“É o tom no topo”, disse ele. “O CEO [e] a C-suite definem o tom para uma organização na sinalização do que é importante”.

E não há dúvida de que a RAI é todo um barulho, disse ele. “Toda as pessoas estão falando disso”, disse Roselund. “Isso está sendo falado na salas de reuniões, por C-suites”.

É semelhante a quando as organizações levam a sério a segurança cibernética ou sustentabilidade. As que fazem bem isso têm “propriedade ao mais alto nível”, explicou ele.

A boa notícia é que, em última análise, a IA pode ser escalada de forma responsável, disse Will Uppington, CEO da empresa de testes de linguagem de máquinas TruEra.

Muitas soluções para as imperfeições da IA foram desenvolvidas, e as organizações estão implementando-as, disse ele; elas estão também incorporando a explicabilidade, robustez, precisão e minimização de enviesamento desde o início do desenvolvimento do modelo.

As organizações bem sucedidas também dispõem de métodos de observação, monitoramento e informação sobre os modelos, uma vez em funcionamento, para garantir que os modelos continuem a funcionar de forma eficaz e justa.

“A outra boa notícia é que a IA responsável é também uma IA de alto desempenho”, disse Uppington.

Ele identificou vários princípios emergentes da RAI:

Explicabilidade

Transparência e recurso

Prevenção da discriminação injusta

Supervisão humana

Robustez

Privacidade e governação de dados

Prestação de contas

Auditabilidade

Proporcionalidade (ou seja, a extensão da governação e dos controlos é proporcional à materialidade e ao risco do modelo/sistema subjacente)

Desenvolver uma estratégia RAI

Um guia geralmente aceite é o quadro da RAFT.

“Isto significa trabalhar através do que a confiança, responsabilidade, justiça e transparência dos sistemas de IA podem e devem parecer ao nível da organização e através de diferentes tipos de casos de utilização”, disse Triveni Gandhi, líder responsável de IA na Dataiku.

Esta escala é importante, disse ela, uma vez que a RAI tem implicações estratégicas para satisfazer uma ambição de ordem superior, e também pode moldar a forma como as equipas são organizadas.

Ela acrescentou que a privacidade, a segurança e as abordagens centradas no ser humano devem ser componentes de uma estratégia coesiva de IA. É cada vez mais importante gerir os direitos sobre os dados pessoais e quando é justo recolhê-los ou utilizá-los. As práticas de segurança em torno de como a IA pode ser mal utilizada ou impactada por atores de má-fé suscitam preocupações.

E, “mais importante ainda, a abordagem centrada no ser humano à IA significa dar um passo atrás para compreender exactamente o impacto e papel que queremos que a IA tenha na nossa experiência humana”, disse Gandhi.

A escala da IA de forma responsável começa por identificar objetivos e expectativas para a IA e definir limites sobre que tipos de impacto uma empresa quer que a IA tenha na sua organização e nos seus clientes. Estes podem então ser traduzidos em critérios acionáveis e limiares de risco aceitável, um processo de signoff e supervisão, e revisão regular.

Não há dúvida de que “a IA responsável pode parecer assustadora como um conceito”, disse Gandhi.

“Em termos de resposta a ‘Porquê IA responsável? Hoje em dia, cada vez mais empresas estão percebendo os custos éticos, reputacionais e a nível empresarial de não gerirem sistemática e proativamente os riscos e os resultados não intencionais dos seus sistemas de IA”, disse Gandhi.

As organizações que podem construir e implementar uma estrutura RAI em conjunto com uma IA são capazes de antecipar e mitigar – mesmo idealmente evitar – armadilhas críticas na escalada da IA, acrescentou ela.

E, disse Uppington, a RAI pode permitir uma maior adapção, gerando confiança de que as imperfeições da IA serão geridas.

“Além disso, os sistemas de IA não só podem ser concebidos para não criar novos viéses, como podem ser utilizados para reduzir viéses na sociedade que já existem nos sistemas movidos pelo homem”, disse ele.

As organizações devem considerar a RAI como fundamental para a forma como fazem negócios; trata-se de desempenho, gestão de risco e eficácia.

“É algo que está integrado no ciclo de vida da IA desde o início, pois fazê-la bem traz enormes benefícios”, disse ele.

O resultado final: Para as organizações que procuram ter sucesso na aplicação da IA em escala, a RAI é nada menos do que crítica. Advertiu Uppington: “A IA responsável não é apenas um bom projeto para as empresas levarem a cabo”.