Acompanhe toda a atualidade informativa em 24noticias.sapo.pt

Com o aparecimento dos chatbots, tornou-se cada vez mais comum ver pessoas a recorrer à inteligência artificial como psicólogo, psiquiatra ou simples apoio emocional. Milhares de utilizadores desabafam com o ChatGPT sobre ansiedade, solidão ou depressão, muitas vezes sem perceber que estão a falar com um sistema que, embora convincente, não é humano, não tem empatia real e pode “alucinar” ou inventar respostas.

Esta relação entre tecnologia e vulnerabilidade emocional revela um novo perigo da era digital: a dependência afetiva de um robô que não compreende verdadeiramente o sofrimento humano.

O fenómeno é particularmente preocupante entre os mais jovens, que começam de forma precoce a pedir ajuda a ferramentas como o ChatGPT, muitas vezes antes de recorrerem a pais, professores ou profissionais de saúde.

Depois de meses de críticas, apelos a maior supervisão e até de um processo judicial movido por uma família norte-americana que acusa a OpenAI de negligência após o suicídio do filho adolescente, a empresa decidiu agir.

Estas mudanças fazem parte de um esforço para “melhor apoiar pessoas em sofrimento psicológico” e reforçar as salvaguardas antes de uma implementação mais ampla.

“O encaminhamento acontece mensagem a mensagem; a mudança do modelo padrão é temporária”, explicou o vice-presidente e responsável pela aplicação do ChatGPT. Numa publicação no XNick Turley justificou a decisão como “parte de um esforço mais amplo para fortalecer as proteções e aprender com o uso real antes de uma implementação em larga escala.”

A nova fronteira emocional do ChatGPT

Esta segunda-feira, a OpenAI apresentou oficialmente as novas ferramentas de controlo parental para o chatbot. As medidas surgem após vários incidentes em que o modelo validou pensamentos delirantes de utilizadores que estavam a sofrer psicologicamente, incluindo o caso mais grave de um adolescente que se suicidou após meses de interação com a IA.

Após críticas públicas e um processo judicial, a OpenAI anunciou medidas para lidar com conversas emocionalmente delicadas. Entre elas, o “safety routing system”, concebido para redirecionar automaticamente interações sensíveis para o modo GPT-5-thinking, treinado com a funcionalidade “safe completions” para responder de forma responsável, evitando respostas perigosas ou recusas automáticas.

“Achamos que é preferível agir e alertar os pais para que possam intervir, do que ficar em silêncio”, afirmou a OpenAI num comunicado.

A empresa admite que o sistema poderá gerar falsos alarmes, mas defende que o risco de inação é maior. Está também a desenvolver mecanismos para contactar autoridades ou serviços de emergência se detetar uma ameaça iminente sem conseguir chegar aos pais.

O controlo parental

Em paralelo, a OpenAI lançou controlos parentais que permitem aos pais monitorizar e configurar como os filhos usam o ChatGPT.

As opções incluem:

  • Definir horários de utilização;
  • Desativar o modo de voz e a memória das conversas anteriores;
  • Impedir a criação ou edição de imagens;
  • Excluir conversas do treino dos modelos da OpenAI;
  • Restringir conteúdos sensíveis, como desafios virais, ideais de beleza extremos ou simulações sexuais, românticas ou violentas.

Os adolescentes não podem alterar estas definições, que permanecem ativas até serem desativadas manualmente, mesmo após atingirem a maioridade.

“Não é uma funcionalidade limitada por idade. Pode convidar o seu filho de 35 anos, se quiser”, explicou Lauren Jonas, responsável pela área de bem-estar juvenil da OpenAI.

Outra funcionalidade crítica é o sistema de notificações de emergência: se um utilizador fizer perguntas sobre suicídio ou autoagressão, a mensagem é analisada por um colaborador humano antes de ser enviada aos pais, incluindo apenas hora e contexto, sem revelar o conteúdo da conversa.

Segurança ou paternalismo?

As medidas dividiram a comunidade tecnológica. Muitos especialistas elogiam a OpenAI por introduzir mecanismos de prevenção emocional e controlo familiar, enquanto outros criticam o que consideram um excesso de paternalismo, prejudicando a experiência de utilizadores adultos.

A empresa reconhece que será necessário tempo para encontrar o equilíbrio e definiu um período de 120 dias de testes e melhorias contínuas.

__

A sua newsletter de sempre, agora ainda mais útil

Com o lançamento da nova marca de informação 24notícias, estamos a mudar a plataforma de newsletters, aproveitando para reforçar a informação que os leitores mais valorizam: a que lhes é útil, ajuda a tomar decisões e a entender o mundo.

Assine a nova newsletter do 24notícias aqui.