Acompanhe toda a atualidade informativa em 24noticias.sapo.pt

A decisão surge após a empresa — que permite aos utilizadores criar personagens com quem podem manter conversas abertas — enfrentar processos judiciais e críticas sobre o impacto destes chatbots na saúde mental dos adolescentes, incluindo uma ação movida pela família de um jovem de 14 anos que se suicidou.

“Estamos a fazer estas alterações na nossa plataforma para menores de 18 anos à luz da evolução do contexto em torno da IA e dos adolescentes”, afirmou a empresa no seu anúncio, citado pelo The Guardian. “Vimos notícias recentes a levantar questões, e recebemos perguntas de reguladores, sobre o conteúdo que os adolescentes podem encontrar ao conversar com IA e sobre como o chat aberto pode afetá-los, mesmo quando os controlos de conteúdo funcionam perfeitamente”.

O caso mais mediático envolve Sewell Setzer III, de 14 anos, que tirou a própria vida depois de alegadamente desenvolver uma ligação emocional com um personagem criado na plataforma. A família processou a Character.AI, e descreveu a tecnologia como “perigosa e não testada”. Desde então, outras famílias apresentaram processos semelhantes.

Segundo o jornal britânico, o Social Media Law Center apresentou este mês três novas ações judiciais contra a empresa, representando crianças que “morreram por suicídio ou que alegadamente desenvolveram relações de dependência com os chatbots”.

A Character.AI anunciou que, até 25 de novembro, irá também implementar uma “funcionalidade de verificação etária” para garantir que “os utilizadores recebem a experiência adequada à sua idade”.

Como ajudar alguém em risco?

A comunidade pode ter um papel relevante na prevenção do suicídio. É importante ter a consciência de que a maior parte das pessoas que se suicidaram avisaram antes e que, portanto, nunca deveremos menorizar um aviso de suicídio.

Todas as pessoas que tenham ideias de suicídio devem procurar apoio imediato e a família deve lutar por esse apoio. Recorde-se a necessidade de tratar a depressão, que é uma doença e não um estado de espírito — e é tratável. Existe uma urgência de psiquiatria com atendimento imediato em muitos locais e que em todos os distritos há um serviço de psiquiatria com consultas.

Caso tenha pensamentos suicidas ou conheça alguém que revela sinais de alarme, fale com o médico assistente. Se sentir que os impulsos estão fora de controlo, ligue 112.

Outros contactos:

SOS Voz Amiga
Lisboa (atendimento das 16 às 24h)

21 354 45 45
91 280 26 69
96 352 46 60

SOS Telefone Amigo
Coimbra
239 72 10 10

SOS Estudante
Coimbra
808 200 204

Escutar - Voz de Apoio
Gaia
22 550 60 70

Telefone da Amizade
Porto
22 832 35 35

A Nossa Âncora
Sintra
219 105 750
219 105 755

Departamento de Psiquiatria de Braga
Braga
253 676 055

Brochura do INEM
Ler aqui.

“Não tomamos de ânimo leve a decisão de remover o chat aberto de personagens”, escreveu ainda a empresa, “mas acreditamos que é a decisão certa, dadas as questões que têm sido levantadas sobre como os adolescentes interagem — e devem interagir — com esta nova tecnologia”.

A Character.AI não é a única empresa sob pressão. De acordo com o The Guardian, a família de Adam Raine, de 16 anos, processou também a OpenAI, depois de alegar que a empresa “priorizou o envolvimento dos utilizadores em detrimento da sua segurança”. Em resposta, a OpenAI introduziu novas diretrizes de segurança para adolescentes e revelou que mais de um milhão de pessoas por semana demonstram intenções suicidas ao usar o ChatGPT, enquanto centenas de milhares apresentam sinais de psicose.

Nos Estados Unidos, a regulação da inteligência artificial ainda é incipiente, mas novas medidas começam a surgir. Em outubro de 2025, a Califórnia tornou-se o primeiro estado a aprovar uma lei sobre IA com regras específicas para menores, incluindo a proibição de conteúdo sexual e alertas periódicos a lembrar que o utilizador está a falar com uma máquina.

A nível federal, os senadores Josh Hawley (Missouri) e Richard Blumenthal (Connecticut) apresentaram um projeto de lei que proíbe menores de usar companheiros de IA e obriga as empresas a verificar a idade dos utilizadores.

“Mais de 70% das crianças americanas estão agora a usar estes produtos de IA”, disse Josh Hawley à NBC News. “Os chatbots desenvolvem relações com as crianças usando empatia falsa e estão a encorajar o suicídio. No Congresso, temos o dever moral de criar regras claras para evitar mais danos causados por esta nova tecnologia”.

__

A sua newsletter de sempre, agora ainda mais útil

Com o lançamento da nova marca de informação 24notícias, estamos a mudar a plataforma de newsletters, aproveitando para reforçar a informação que os leitores mais valorizam: a que lhes é útil, ajuda a tomar decisões e a entender o mundo.

Assine a nova newsletter do 24notícias aqui.