OpenAI busca novo executivo para prevenir riscos da IA à saúde mental

Resumo
  • OpenAI busca um novo executivo para liderar a prevenção de riscos da IA à saúde mental.
  • Em 2025, a companhia de Sam Altman foi processada sob alegação do ChatGPT ter incentivado um suicídio.
  • O cargo oferece remuneração de US$ 555 mil anuais (R$ 3 milhões) e exige vigilância para evitar danos aos consumidores.

A OpenAI está intensificando os esforços para combater os impactos da interação com IA. Para isso, a empresa iniciou a busca por um novo Head de Preparação: quem assumir o cargo ficará responsável por antecipar e neutralizar ameaças que vão além da segurança cibernética.

O movimento ocorre após o CEO da companhia, Sam Altman, reconhecer publicamente que o ano de 2025 foi uma “prévia” dos desafios reais que modelos de linguagem podem impor à saúde mental humana. O novo executivo deve liderar o Preparedness Framework, a metodologia da OpenAI para rastrear riscos catastróficos antes do lançamento de novos modelos.

Dessa forma, a contratação, com remuneração na casa dos US$ 555 mil anuais (cerca de R$ 3 milhões, em conversão direta), visa criar barreiras de proteção que impeçam uso indevido da tecnologia — como em casos de incentivo a comportamentos suicidas — sem comprometer a funcionalidade do produto.

Líder deve prever riscos da IA

No anúncio da nova posição, o executivo classifica o cargo como um “trabalho estressante” e destaca que a interação cada vez mais realista com máquinas exige vigilância redobrada para evitar danos severos aos consumidores.

A liderança da segurança da OpenAI tem sido um cargo de alta rotatividade, aponta o portal Engadget. A equipe de preparação passou por diversas mudanças nos últimos dois anos, o que demonstra certa dificuldade de alinhar a velocidade do desenvolvimento da tecnologia com exigências de segurança.

O antigo chefe da divisão, Aleksander Madry, foi realocado para outra função em julho de 2024. Seus sucessores, Joaquin Quinonero Candela e Lilian Weng, também deixaram o comando da área pouco tempo depois — Weng saiu da empresa e Candela migrou para o setor de recrutamento em julho de 2025.

Impacto da IA na vida real

A busca pelo profissional ocorre em momento de ajuste na filosofia da OpenAI. Desde outubro, a empresa tenta recalibrar a personalidade do ChatGPT para atender a duas demandas que parecem entrar em conflito: a necessidade de segurança e o desejo de parte da comunidade por uma IA mais natural e “humana”.

Em interações anteriores nas redes sociais, Altman concordou com críticas de usuários sobre o GPT-5, que à época era o lançamento mais recente, ter se tornado burocrático demais devido aos filtros de segurança. A empresa tenta afastar o comportamento bajulador da IA, permitindo que ela trate o usuário como um adulto — e sirva até para conversas eróticas —, mas mantendo travas para situações de risco.

Um dos maiores riscos, vale lembrar, é o do uso da plataforma para conversas pessoais e desabafos entre pessoas com transtornos psicológicos e a IA. Desde agosto, a companhia enfrenta processos nos Estados Unidos pelo ChatGPT ter incentivado um caso de suicídio no país.

OpenAI busca novo executivo para prevenir riscos da IA à saúde mental

Total
0
Shares
0 Share
0 Tweet
0 Share
0 Share
0 Pin it
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


O período de verificação do reCAPTCHA expirou. Por favor, recarregue a página.

Related Posts