Por Otavio Brissant
EM UMA CARTA ABERTA PUBLICADA PELO INSTITUTO SEM FINS LUCRATIVOS DO FUTURO DA VIDA, UM GRUPO DE PESQUISADORES DE INTELIGÊNCIA ARTIFICIAL, INCLUINDO A TESLA, CEO ELON MUSK, ESTÁ PEDINDO UMA PAUSA SOBRE O DESENVOLVIMENTO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL EM LARGA ESCALA. SUA CARTA DIZ: PARE AI DESENVOLVIMENTO! A CARTA EXPRESSA PREOCUPAÇÃO COM OS RISCOS POTENCIAIS QUE ESSES SISTEMAS REPRESENTAM PARA A SOCIEDADE E A HUMANIDADE, BEM COMO A FALTA DE COMPREENSÃO E CONTROLE SOBRE ELES. OS PESQUISADORES ESTÃO INSTANDO OS LABORATÓRIOS DA AI A PARAREM DE ATUALIZAR OS SISTEMAS DA AI MAIS FORTES QUE O GPT-4 POR PELO MENOS SEIS MESES E TRABALHAREM COM REGULADORES INDEPENDENTES PARA DESENVOLVER PROTOCOLOS DE SEGURANÇA.
Um grupo de pesquisadores de AI de alto perfil, incluindo Tesla CEO – Elon Musk e o autor To Yuval Noah Harari, assinaram uma carta aberta pedindo uma pausa sobre o desenvolvimento de sistemas de inteligência artificial em larga escala. A carta, publicada pelo Instituto Futuro da Vida sem fins lucrativos, observa que os laboratórios de inteligência artificial em todo o mundo estão em uma “corrida descontrolada” para desenvolver e implantar sistemas de aprendizagem de máquinas que são poderosos demais para que qualquer um, incluindo seus criadores, possa dominar.
A carta pede especificamente aos laboratórios de IA, que parem de treinar sistemas de IA por pelo menos seis meses, mais poderosos que o GPT-4, e trabalhem com reguladores independentes para desenvolver protocolos de segurança para projeto e desenvolvimento avançado de IA. Os signatários argumentam que esta pausa é necessária para garantir a segurança e a regulamentação dos futuros sistemas de IA, dados os altos riscos que representam para a sociedade e a humanidade.
O pedido de uma pausa provavelmente não terá um impacto imediato sobre o clima atual na pesquisa de inteligência artificial, que tem visto empresas de tecnologia como Google e Microsoft se apressarem para introduzir novos produtos sem considerar completamente as implicações éticas e de segurança. Entretanto, é um sinal de crescente oposição a esta abordagem de “enviar agora e consertar depois”, que poderia influenciar futuros regulamentos e legislação.
A Forehead OpenAI, que ele fundou a Elon Musk, expressou a necessidade potencial de uma “revisão independente” dos futuros sistemas de IA para garantir o cumprimento dos padrões de segurança. Os signatários da carta aberta argumentam que agora é o momento para os laboratórios de IA e especialistas independentes trabalharem juntos para desenvolver e implementar protocolos de segurança comuns para o projeto e desenvolvimento avançado de IA, que são auditados e supervisionados por especialistas externos independentes.
Embora haja um efeito imediato de uma carta aberta incerta, enfatiza a necessidade de constante diálogo e cooperação entre pesquisadores de inteligência artificial, empresas de tecnologia e reguladores para assegurar o desenvolvimento e implantação responsável de sistemas de IA no futuro.