
Acompanhe toda a atualidade informativa em 24noticias.sapo.pt
As ferramentas de inteligência artificial (IA) estão a ser incorporadas em tarefas cada vez mais complexas e a sua utilização já não é exceção no trabalho de consultoria. Mas a crescente dependência destes sistemas levanta uma questão: até que ponto é seguro confiar nas respostas da IA sem uma revisão humana rigorosa? A experiência recente da Deloitte, que teve de devolver parte de um pagamento ao governo australiano depois de um relatório conter informações falsas geradas por IA, mostra como a resposta pode sair cara.
O caso começou quando a consultora apresentou um estudo encomendado para avaliar a eficiência do sistema de apoios sociais. O documento, no valor de 440 mil dólares australianos, incluía citações falsas e referências inventadas, e acabou por ser revisto depois de investigadores académicos denunciarem os erros, conta a Morning Brew.
A Deloitte admitiu ter recorrido ao modelo Azure OpenAI GPT-4o, atualizou o relatório e manteve as conclusões e recomendações originais. Entre os erros detetados estavam três referências académicas inexistentes e uma citação fabricada de um acórdão do tribunal federal. A versão corrigida, publicada em julho, eliminou mais de uma dezena de referências falsas e alterou a lista bibliográfica.
A dimensão do episódio levou várias figuras políticas a reagir. O caso foi descrito pela senadora trabalhista Deborah O’Neill como um “problema de inteligência humana”, sublinhando que a responsabilidade pelo trabalho entregue continua a ser humana, mesmo quando a tecnologia é usada. Gordon de Brouwer, chefe da função pública australiana, reforçou a mesma ideia: “No fim de contas, cada pessoa é responsável pelo seu trabalho e não pode dizer que essa responsabilidade é de outra”, afirmou de Brouwer. “A inteligência artificial não é responsável pelo trabalho. A responsabilidade é sua.”
A polémica desencadeou ainda críticas no Parlamento australiano e levou à defesa de novas regras que obriguem as empresas a declarar se usaram IA em trabalhos para o Estado. Houve até quem sugerisse que as consultoras que usem IA sem transparência possam ser banidas de contratos públicos por até cinco anos.
Concorrência defende processos de controlo rigorosos
O incidente colocou pressão sobre o setor e levou as principais concorrentes da Deloitte a clarificar as suas práticas. EY, KPMG, PwC e Boston Consulting Group (BCG) afirmaram ao Australian Financial Review que têm políticas rigorosas para evitar erros semelhantes e que todo o trabalho produzido por IA é verificado por especialistas antes de ser entregue.
A EY explicou que o seu regulamento interno obriga à revisão da precisão e validade de qualquer output gerado por IA antes de ser utilizado em atividades internas ou externas. A KPMG destacou um “Trusted AI Framework” que assegura transparência e mantém um registo detalhado do uso da tecnologia, inclusive em contratos governamentais.
A BCG referiu que todos os relatórios passam por uma revisão de liderança rigorosa, enquanto a PwC destacou o princípio de ter os “humanos no circuito”, segundo o qual a responsabilidade final pelo trabalho permanece sempre humana.
Deloitte avança com nova parceria para expandir uso de inteligência artificial
Em paralelo, a Deloitte anunciou uma nova parceria estratégica com a Anthropic, a criadora do chatbot Claude. O acordo prevê disponibilizar o modelo de IA a mais de 470 mil colaboradores da consultora em todo o mundo e criar um Centro de Excelência para desenvolver soluções específicas por setor.
As duas empresas vão ainda lançar um programa de certificação para formar e credenciar 15 mil profissionais especializados na implementação do Claude. O objetivo é acelerar a transição de projetos-piloto para operações em escala e integrar funcionalidades de compliance em áreas com regras apertadas, como banca, saúde ou serviços públicos”
Paul Smith, diretor comercial da Anthropic, afirmou em comunicado que as organizações escolhem o Claude “quando precisam de lidar com trabalhos complexos e críticos” e destacou a importância do design “centrado na segurança” do modelo. Já Ranjit Bawa, líder global de tecnologia na Deloitte, disse que a parceria visa “transformar a forma como as empresas operam na próxima década”.
A parceria com a Anthropic mostra, por isso, que a Deloitte pretende aprofundar o uso de inteligência artificial nos seus serviços, mesmo depois da polémica com o relatório entregue ao governo australiano.
__
A sua newsletter de sempre, agora ainda mais útilCom o lançamento da nova marca de informação 24notícias, estamos a mudar a plataforma de newsletters, aproveitando para reforçar a informação que os leitores mais valorizam: a que lhes é útil, ajuda a tomar decisões e a entender o mundo.
Assine a nova newsletter do 24notícias aqui.
Comentários