
DR
- O Google removeu discretamente as visões gerais de IA para consultas de testes hepáticos depois que foi descoberto que elas davam conselhos médicos incorretos.
- Uma investigação descobriu que o recurso fornecia intervalos simplificados de testes hepáticos, sem contexto crítico como idade, sexo ou etnia.
- O Google removeu apenas resumos de IA para frases sinalizadas específicas, não para pesquisas de saúde como um todo.
O Google removeu discretamente as visões gerais de IA para certas pesquisas de testes de fígado depois que um relatório descobriu que o recurso fornecia conselhos médicos errados.
As visões gerais de IA foram projetadas para tornar a Pesquisa Google mais rápida. Ao fazer uma pergunta, você vê um resumo curto e confiável no topo da página, em vez de uma lista de links. Isso deveria facilitar as coisas, mas pesquisas relacionadas à saúde mostraram alguns problemas sérios.
Uma investigação recente de O Guardião descobriram que, para questões importantes de saúde, a IA forneceu informações que os especialistas descrevem como “alarmantes” e “perigosas”. Por exemplo, a IA listou intervalos padrão para testes de função hepática sem dizer que esses números podem mudar muito dependendo da idade, sexo ou etnia de uma pessoa. Esse tipo de erro pode fazer com que alguém com doença hepática grave acredite que está saudável e evite receber os cuidados de que necessita.
Não quero perder o melhor de Autoridade Android?


O Google respondeu removendo as visões gerais de IA para os termos de pesquisa específicos sinalizados, como “qual é a faixa normal para exames de sangue do fígado”. Um porta-voz afirmou que o Google age de acordo com suas políticas e faz “amplas melhorias”.
No entanto, este não é um desligamento completo. Se você alterar um pouco o texto de uma questão de saúde, ainda poderá obter um resumo da IA. Isto mostra que as proteções do sistema são limitadas e não totais.
Vanessa Hebditch, do British Liver Trust, observou que pequenas mudanças na pesquisa, como o uso do “intervalo de referência lft”, ainda trazem os mesmos resumos incorretos de IA, O Guardião relatórios. Isso significa que informações perigosas ainda são fáceis de encontrar com uma pesquisa um pouco diferente.
As visões gerais de IA já cometeram erros antes. Por exemplo, o recurso certa vez sugeria adicionar cola à pizza, o que gerou críticas. Quando se trata de informações sobre saúde, a precisão é essencial. A medicina depende do contexto, das probabilidades e das exceções, áreas onde os grandes modelos de linguagem ainda enfrentam dificuldades.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.
