
Resumo
- OpenAI busca um novo executivo para liderar a prevenção de riscos da IA à saúde mental.
- Em 2025, a companhia de Sam Altman foi processada sob alegação do ChatGPT ter incentivado um suicídio.
- O cargo oferece remuneração de US$ 555 mil anuais (R$ 3 milhões) e exige vigilância para evitar danos aos consumidores.
A OpenAI está intensificando os esforços para combater os impactos da interação com IA. Para isso, a empresa iniciou a busca por um novo Head de Preparação: quem assumir o cargo ficará responsável por antecipar e neutralizar ameaças que vão além da segurança cibernética.
O movimento ocorre após o CEO da companhia, Sam Altman, reconhecer publicamente que o ano de 2025 foi uma “prévia” dos desafios reais que modelos de linguagem podem impor à saúde mental humana. O novo executivo deve liderar o Preparedness Framework, a metodologia da OpenAI para rastrear riscos catastróficos antes do lançamento de novos modelos.
Dessa forma, a contratação, com remuneração na casa dos US$ 555 mil anuais (cerca de R$ 3 milhões, em conversão direta), visa criar barreiras de proteção que impeçam uso indevido da tecnologia — como em casos de incentivo a comportamentos suicidas — sem comprometer a funcionalidade do produto.
Líder deve prever riscos da IA
No anúncio da nova posição, o executivo classifica o cargo como um “trabalho estressante” e destaca que a interação cada vez mais realista com máquinas exige vigilância redobrada para evitar danos severos aos consumidores.
A liderança da segurança da OpenAI tem sido um cargo de alta rotatividade, aponta o portal Engadget. A equipe de preparação passou por diversas mudanças nos últimos dois anos, o que demonstra certa dificuldade de alinhar a velocidade do desenvolvimento da tecnologia com exigências de segurança.
O antigo chefe da divisão, Aleksander Madry, foi realocado para outra função em julho de 2024. Seus sucessores, Joaquin Quinonero Candela e Lilian Weng, também deixaram o comando da área pouco tempo depois — Weng saiu da empresa e Candela migrou para o setor de recrutamento em julho de 2025.
Impacto da IA na vida real

A busca pelo profissional ocorre em momento de ajuste na filosofia da OpenAI. Desde outubro, a empresa tenta recalibrar a personalidade do ChatGPT para atender a duas demandas que parecem entrar em conflito: a necessidade de segurança e o desejo de parte da comunidade por uma IA mais natural e “humana”.
Em interações anteriores nas redes sociais, Altman concordou com críticas de usuários sobre o GPT-5, que à época era o lançamento mais recente, ter se tornado burocrático demais devido aos filtros de segurança. A empresa tenta afastar o comportamento bajulador da IA, permitindo que ela trate o usuário como um adulto — e sirva até para conversas eróticas —, mas mantendo travas para situações de risco.
Um dos maiores riscos, vale lembrar, é o do uso da plataforma para conversas pessoais e desabafos entre pessoas com transtornos psicológicos e a IA. Desde agosto, a companhia enfrenta processos nos Estados Unidos pelo ChatGPT ter incentivado um caso de suicídio no país.
OpenAI busca novo executivo para prevenir riscos da IA à saúde mental
