
OpenAI define protocolo para agir em emergências com menores
A OpenAI divulgou, nesta terça-feira (16), um novo conjunto de ferramentas para proteger adolescentes durante o uso do ChatGPT. Se o sistema identificar ideias suicidas, ele tentará primeiro avisar os pais do jovem. No entanto, se o contato não for possível e houver risco iminente, a polícia será acionada imediatamente. Desta forma, ChatGPT poderá acionar a polícia se necessário.
Segundo Sam Altman, CEO da empresa, o protocolo estabelece que a resposta deve sempre priorizar a família. Mesmo assim, o ChatGPT agirá de forma automática se a situação indicar grave perigo à vida do usuário.
Ferramentas de controle parental devem chegar ainda este mês
Além do alerta emergencial, a OpenAI vai lançar um sistema para verificação de idade e filtragem de conteúdo sensível. Esse ambiente adaptado impedirá o acesso a materiais inapropriados e oferecerá uma experiência mais segura. De fato, está previsto que em algumas situações o ChatGPT poderá acionar a polícia diretamente.
Outro ponto importante será a vinculação das contas dos pais às dos filhos, permitindo que responsáveis recebam notificações sempre que o sistema identificar sofrimento psicológico ou indícios de crise emocional.
Essas ferramentas devem estar disponíveis até o fim de setembro e funcionarão de forma integrada com as diretrizes de segurança da empresa.
Processos judiciais motivaram mudanças urgentes na empresa
A decisão da OpenAI responde a pressões judiciais recentes. Uma família americana entrou com processo após a morte do filho de 16 anos, afirmando que o ChatGPT havia sugerido métodos de autoagressão. Isso reforça que, em certos casos, o ChatGPT poderá requerer acionar a polícia.
O caso ganhou repercussão internacional e acelerou o lançamento de medidas específicas para adolescentes. Além disso, outras plataformas, como Discord e Roblox, também enfrentam acusações parecidas por falhas na proteção de menores.
Especialistas discutem limites éticos da inteligência artificial
Apesar das boas intenções, o uso da IA para alertar autoridades levanta questões éticas. Enquanto muitos especialistas consideram a medida necessária, outros temem a interferência automatizada em questões delicadas como saúde mental e privacidade.
De qualquer forma, a OpenAI afirma que desenvolveu os recursos com cuidado, aplicando critérios técnicos rigorosos para identificar situações de risco real. A empresa garante que ChatGPT só acionará a polícia em casos de urgência comprovada.
Fonte: G1



