
Acompanhe toda a atualidade informativa em 24noticias.sapo.pt
Com o aparecimento dos chatbots, tornou-se cada vez mais comum ver pessoas a recorrer à inteligência artificial como psicólogo, psiquiatra ou simples apoio emocional. Milhares de utilizadores desabafam com o ChatGPT sobre ansiedade, solidão ou depressão, muitas vezes sem perceber que estão a falar com um sistema que, embora convincente, não é humano, não tem empatia real e pode “alucinar” ou inventar respostas.
Esta relação entre tecnologia e vulnerabilidade emocional revela um novo perigo da era digital: a dependência afetiva de um robô que não compreende verdadeiramente o sofrimento humano.
O fenómeno é particularmente preocupante entre os mais jovens, que começam de forma precoce a pedir ajuda a ferramentas como o ChatGPT, muitas vezes antes de recorrerem a pais, professores ou profissionais de saúde.
Depois de meses de críticas, apelos a maior supervisão e até de um processo judicial movido por uma família norte-americana que acusa a OpenAI de negligência após o suicídio do filho adolescente, a empresa decidiu agir.
Estas mudanças fazem parte de um esforço para “melhor apoiar pessoas em sofrimento psicológico” e reforçar as salvaguardas antes de uma implementação mais ampla.
“O encaminhamento acontece mensagem a mensagem; a mudança do modelo padrão é temporária”, explicou o vice-presidente e responsável pela aplicação do ChatGPT. Numa publicação no X, Nick Turley justificou a decisão como “parte de um esforço mais amplo para fortalecer as proteções e aprender com o uso real antes de uma implementação em larga escala.”
Comentários