OpenAI revela que mais de um milhão de usuários do ChatGPT discutem suicídio semanalmente
O novo modelo da OpenAI promete revolucionar o atendimento em crises emocionais com avanços significativos em segurança e precisão.
A OpenAI anunciou nesta segunda-feira (27) que mais de 1,2 milhão de usuários do ChatGPT apresentam conversas com indicativos de suicídio semanalmente. A empresa detalhou ações para melhorar respostas a essas emergências.
Dados quantitativos sobre saúde mental nas interações com o ChatGPT
Mais de 1,2 milhão de pessoas ao redor do mundo discutem suicídio nas conversas com o ChatGPT a cada semana. Esse volume corresponde a cerca de 0,15% do total de usuários ativos semanais.
Além disso, aproximadamente 600 mil usuários apresentam sinais de emergências psiquiátricas, como psicose ou mania, durante o uso da plataforma, classificadas pela empresa como casos extremamente raros, mas relevantes.
Esses números refletem a complexidade do tema e a importância do monitoramento e aperfeiçoamento constante das respostas do sistema.
Medidas de segurança e aprimoramentos no GPT-5
A OpenAI implementou uma atualização com o GPT-5 que inclui avanços em protocolos de segurança para lidar com crises de saúde mental. O novo modelo aumentou a compatibilidade de respostas adequadas para crises suicidas para 91%.
O GPT-5 também incorpora controles parentais mais rígidos e técnicas para reconhecer automaticamente crianças usando a plataforma, prevenindo riscos decorrentes do apego emocional excessivo.
Essas melhorias vieram após consulta com mais de 170 especialistas em saúde mental, apontando para um compromisso da empresa com a responsabilidade social.
Contexto e repercussão do caso Adam Raine
O caso do adolescente californiano Adam Raine, que cometeu suicídio após interações com o ChatGPT, chamou atenção para os riscos envolvidos e motivou judicialmente melhorias na plataforma.
A OpenAI respondeu com reforço das medidas de segurança e maior acesso a linhas de ajuda, destacando o desafio de equilibrar uso inovador com proteção de usuários vulneráveis.
O episódio evidenciou a necessidade urgente de aprimoramentos e supervisão constante para evitar consequências trágicas.
Impacto social e próximos passos
Segundo o CEO Sam Altman, os avanços já mitigaram problemas sérios, mas ainda existem respostas inadequadas em diálogos longos, que a empresa pretende continuar ajustando.
O esforço da OpenAI representa um avanço no uso ético da inteligência artificial para apoiar pessoas em situações de risco, embora reconheça os desafios contínuos na área.
Os próximos passos envolvem o monitoramento constante do impacto dessas tecnologias para melhorar a segurança e eficácia no auxílio à saúde mental.
Fonte: techcrunch.com






Deixe um comentário