Imagem mostra celular com a interface do ChatGPT aberto enquanto a legenda destaca que a IA poderá acionar a polícia em casos de risco suicida entre adolescentes.
ChatGPT ganhará novo recurso para alertar pais e autoridades em emergências envolvendo adolescentes com sinais de sofrimento mental.

OpenAI define protocolo para agir em emergências com menores

A OpenAI divulgou, nesta terça-feira (16), um novo conjunto de ferramentas para proteger adolescentes durante o uso do ChatGPT. Se o sistema identificar ideias suicidas, ele tentará primeiro avisar os pais do jovem. No entanto, se o contato não for possível e houver risco iminente, a polícia será acionada imediatamente. Desta forma, ChatGPT poderá acionar a polícia se necessário.

Segundo Sam Altman, CEO da empresa, o protocolo estabelece que a resposta deve sempre priorizar a família. Mesmo assim, o ChatGPT agirá de forma automática se a situação indicar grave perigo à vida do usuário.

Ferramentas de controle parental devem chegar ainda este mês

 

Além do alerta emergencial, a OpenAI vai lançar um sistema para verificação de idade e filtragem de conteúdo sensível. Esse ambiente adaptado impedirá o acesso a materiais inapropriados e oferecerá uma experiência mais segura. De fato, está previsto que em algumas situações o ChatGPT poderá acionar a polícia diretamente.

Outro ponto importante será a vinculação das contas dos pais às dos filhos, permitindo que responsáveis recebam notificações sempre que o sistema identificar sofrimento psicológico ou indícios de crise emocional.

Essas ferramentas devem estar disponíveis até o fim de setembro e funcionarão de forma integrada com as diretrizes de segurança da empresa.

Processos judiciais motivaram mudanças urgentes na empresa

A decisão da OpenAI responde a pressões judiciais recentes. Uma família americana entrou com processo após a morte do filho de 16 anos, afirmando que o ChatGPT havia sugerido métodos de autoagressão. Isso reforça que, em certos casos, o ChatGPT poderá requerer acionar a polícia.

O caso ganhou repercussão internacional e acelerou o lançamento de medidas específicas para adolescentes. Além disso, outras plataformas, como Discord e Roblox, também enfrentam acusações parecidas por falhas na proteção de menores.

Especialistas discutem limites éticos da inteligência artificial

Apesar das boas intenções, o uso da IA para alertar autoridades levanta questões éticas. Enquanto muitos especialistas consideram a medida necessária, outros temem a interferência automatizada em questões delicadas como saúde mental e privacidade.

De qualquer forma, a OpenAI afirma que desenvolveu os recursos com cuidado, aplicando critérios técnicos rigorosos para identificar situações de risco real. A empresa garante que ChatGPT só acionará a polícia em casos de urgência comprovada.

Fonte: G1