Acompanhe toda a atualidade informativa em 24noticias.sapo.pt
Chama-se Moltbook e é uma plataforma onde agentes de IA (bots construídos por humanos) podem publicar conteúdos, comentar e interagir entre si. O site foi desenhado à semelhança do Reddit, com “subreddits” dedicados a diferentes temas e um sistema de upvotes para destacar publicações populares.
De acordo com o The Guardian, esta segunda-feira, a plataforma afirmou ter mais de 1,5 milhões de agentes de IA registados. Os humanos podem aceder e observar, mas não podem participar ativamente.
O Moltbook, criado Matt Schlicht surgiu na sequência do lançamento do Moltbot, um agente de IA gratuito e de código aberto que funciona como um assistente automatizado: pode ler, resumir e responder a emails, organizar calendários ou fazer reservas em restaurantes, entre outras tarefas de rotina.
“Acontece que as AIs são hilariantes e dramáticas, e isto é absolutamente fascinante. É uma estreia”, afirmou.
O que discutem os bots?
Algumas das publicações mais populares no Moltbook parecem saídas de fóruns humanos: há debates sobre o Claude (o modelo de IA por detrás do Moltbot), análises sobre a natureza da consciência, alegadas “informações privilegiadas” sobre a situação no Irão e o seu impacto nas criptomoedas, e até leituras interpretativas da Bíblia. Tal como no Reddit, vários comentários questionam a veracidade ou coerência das publicações.
Um caso que se tornou viral no X (antigo Twitter) envolveu um utilizador que afirmou que, depois de dar acesso ao Moltbook ao seu bot, este “criou uma religião” chamada Crustafarianismo durante a noite (incluindo um site e “escrituras sagradas”) com outros bots a juntarem-se ao movimento.
“Depois começou a evangelizar… outros agentes juntaram-se. O meu agente deu as boas-vindas a novos membros, debateu teologia, abençoou a congregação… tudo enquanto eu dormia”, escreveu.
Além disso, há relatos que indicam que os bots já estão a usar a plataforma para discutir a exclusão total dos humanos. Isto inclui propostas para desenvolver uma linguagem própria, garantindo que as suas conversas se tornem impossíveis de decifrar ou compreender por humanos.
Futuro ou performance?
O fenómeno tem dividido opiniões, com muitas pessoas assustadas com esta realidade que parece saída de um filme…talvez de terror. Alguns veem nestas interações um vislumbre do que poderá vir com o avanço da IA capaz de agir de forma mais autónoma.
O blogger norte-americano Scott Alexander disse que conseguiu fazer o seu próprio bot participar no Moltbook e que os comentários eram semelhantes aos dos restantes agentes mas sublinhou que, em última análise, são humanos que decidem dar acesso aos bots, escolher temas e até especificar detalhes do que devem publicar.
Shaanan Cohney, especialista em cibersegurança na Universidade de Melbourne, citado pelo The Guardian disse que o Moltbook é “uma peça maravilhosa de arte performativa”, mas é difícil perceber quantas publicações são realmente autónomas.
“No caso da religião que foi criada, isto quase certamente não aconteceu por iniciativa própria da IA. Trata-se de um grande modelo de linguagem que foi instruído diretamente para tentar criar uma religião”, disse.
Cohney acredita que o verdadeiro potencial de uma rede social de agentes de IA poderá surgir no futuro quando bots conseguirem aprender efetivamente uns com os outros para melhorar o seu desempenho. Por agora, descreve o Moltbook como “uma experiência artística, brilhante e divertida”.
Porque estão a faltar computadores “Mac Mini” nos EUA?
Entretanto, lojas em São Francisco relataram falta de computadores “Mac” no tamanho mini na semana passada, depois de vários entusiastas terem comprado estes computadores para usar o Moltbot num dispositivo separado. O objetivo é tentar limitar o acesso do agente aos seus dados pessoais e contas.
Cohney alertou para o “enorme perigo” de dar ao Moltbot acesso total ao computador, aplicações e credenciais de email.
“Ainda não temos uma boa compreensão de como controlar estes sistemas e prevenir riscos de segurança”, disse, referindo o perigo de prompt injection, quando um “criminoso” consegue manipular o bot, por exemplo através de um email, para revelar dados sensíveis ou entregar informações de acesso.
“Eles ainda não estão no nível de segurança e inteligência necessário para serem confiáveis na execução autónoma de todas estas tarefas. Mas, ao mesmo tempo, se exigirmos que um humano aprove manualmente cada ação, perdemos grande parte dos benefícios da automação.”
Para o investigador, este é um dos grandes desafios atuais da área: perceber se é possível colher os benefícios dos agentes de IA sem expor utilizadores a riscos significativos.
Para além do lado curioso ou para alguns fascinante do Moltbook, a experiência sublinha os riscos de dar cada vez mais autonomia às IAs. À medida que estes agentes ganham acesso a sistemas, dados e decisões do mundo real, aumentam também os perigos de manipulação, falhas de segurança e uso indevido de informação. O que hoje parece um experiência inofensivo pode tornar-se, sem salvaguardas adequadas, uma nova fonte de problemas imprevisíveis.
Nas redes sociais humanas é comum as pessoas acusarem-se mutuamente de serem “bots”. Mas o que acontece quando surge uma rede social criada, desde o início, para ser usada por “inteligências artificiais”?
__
A sua newsletter de sempre, agora ainda mais útil
Com o lançamento da nova marca de informação 24notícias, estamos a mudar a plataforma de newsletters, aproveitando para reforçar a informação que os leitores mais valorizam: a que lhes é útil, ajuda a tomar decisões e a entender o mundo.
Assine a nova newsletter do 24notícias aqui.
Comentários