Por Otavio Brissant 

“O modelo AI atua como um chamador inteligente de API. Dada uma especificação da API e uma descrição em linguagem natural de quando usar a API, o modelo chama proativamente a API para executar ações”, escreveu a equipe do OpenAI. “Por exemplo, se um usuário perguntar, “Onde devo ficar em Paris por algumas noites?”, o modelo pode escolher ligar para um plugin API de reserva de hotel, receber a resposta da API e gerar uma resposta voltada para o usuário combinando os dados da API e suas capacidades de linguagem natural”.

A empresa também observa que o uso de plug-ins para preencher a lacuna de conhecimento entre o que o modelo foi treinado e o que aconteceu desde então deve ajudar a reduzir a tendência da IA a “alucinar” os fatos ao responder perguntas complexas. “Estas referências não só aumentam a utilidade do modelo, mas também permitem aos usuários avaliar a confiabilidade da produção do modelo e verificar novamente sua precisão, potencialmente mitigando os riscos relacionados à confiança excessiva”, escreveu a equipe.

As capacidades e informações adicionais proporcionadas pelo modelo através de seu plug-in também aumentam consideravelmente as chances de o modelo retornar respostas problemáticas. Para evitar o golpe de 100 bilhões de dólares que o Google tomou conta do Bard, o OpenAI tem relatado que testou extensivamente estes plug-ins. “Realizamos exercícios de red-teaming, tanto internamente quanto com colaboradores externos, que revelaram uma série de cenários possíveis”, escreveu a equipe. Eles planejam usar essas descobertas para “informar mitigações de segurança por projeto” para melhorar a transparência e impedir comportamentos de risco de participação.

O plug-in em si ainda está no início alfa com disponibilidade limitada. A OpenAI concedeu acesso antecipado a poucas empresas parceiras incluindo Expedia, Instacart, KAYAK, OpenTable, Shopify, Slack, Wolfram e Zapier para uso em seus aplicativos existentes.