Esta semana em IA: Podemos (e algum dia poderemos) confiar na OpenAI?

Acompanhar um setor em rápida evolução como a IA é uma tarefa difícil. Então, até que uma IA possa fazer isso por você, aqui está um resumo útil de histórias recentes no mundo do aprendizado de máquina, junto com pesquisas e experimentos notáveis ​​que não abordamos por conta própria.

A propósito, o TechCrunch planeja lançar um boletim informativo sobre IA em 5 de junho. Enquanto isso, estamos aumentando a cadência de nossa coluna semirregular de IA, que antes era duas vezes por mês (ou mais), para semanal — portanto, fique atento para mais edições.

Esta semana, na IA, a OpenAI lançou planos com descontos para organizações sem fins lucrativos e clientes educacionais e abriu as cortinas sobre seus esforços mais recentes para impedir que atores mal-intencionados abusassem de suas ferramentas de IA. Não há muito o que criticar – pelo menos não na opinião deste escritor. Mas eu vai dizem que o dilúvio de anúncios parecia programado para conter a má imprensa da empresa nos últimos tempos.

Vamos começar com Scarlett Johansson. A OpenAI removeu uma das vozes usadas por seu chatbot ChatGPT com tecnologia de IA depois que os usuários apontaram que soava estranhamente semelhante à de Johansson. Mais tarde, Johansson divulgou um comunicado dizendo que contratou um consultor jurídico para perguntar sobre a voz e obter detalhes exatos sobre como ela foi desenvolvida – e que ela recusou repetidos pedidos da OpenAI para licenciar sua voz para ChatGPT.

Agora, um artigo no The Washington Post implica que a OpenAI não procurou de fato clonar a voz de Johansson e que quaisquer semelhanças foram acidentais. Mas por que, então, o CEO da OpenAI, Sam Altman, procurou Johansson e pediu que ela reconsiderasse dois dias antes de uma demonstração chamativa que apresentava a voz parecida? É um pouco suspeito.

Depois, há os problemas de confiança e segurança da OpenAI.

Como informamos no início do mês, a já dissolvida equipe de Superalinhamento da OpenAI, responsável por desenvolver maneiras de governar e dirigir sistemas de IA “superinteligentes”, recebeu a promessa de 20% dos recursos computacionais da empresa – mas apenas (e raramente) recebeu uma fração de esse. Isso (entre outras razões) levou à demissão dos dois co-líderes das equipes, Jan Leike e Ilya Sutskever, ex-cientista-chefe da OpenAI.

Quase uma dúzia de especialistas em segurança deixaram a OpenAI no ano passado; vários, incluindo Leike, expressaram publicamente preocupações de que a empresa esteja priorizando projetos comerciais em detrimento dos esforços de segurança e transparência. Em resposta às críticas, a OpenAI formou um novo comitê para supervisionar as decisões de segurança relacionadas aos projetos e operações da empresa. Mas o comitê foi composto por pessoas de dentro da empresa – incluindo Altman – em vez de observadores externos. Isto como OpenAI supostamente considera abandonar sua estrutura sem fins lucrativos em favor de um modelo tradicional com fins lucrativos.

Incidentes como estes tornam mais difícil confiar na OpenAI, uma empresa cujo poder e influência crescem diariamente (ver: os seus acordos com editores de notícias). Poucas empresas, se houver alguma, são dignas de confiança. Mas as tecnologias revolucionárias do mercado da OpenAI tornam as violações ainda mais preocupantes.

Não ajuda em nada o fato de o próprio Altman não ser exatamente um farol de veracidade.

Quando as notícias do OpenAI táticas agressivas contra ex-funcionários quebrou – táticas que envolviam ameaçar os funcionários com a perda de seu patrimônio adquirido, ou a prevenção de vendas de ações, se eles não assinassem acordos restritivos de confidencialidade – Altman pediu desculpas e alegou que não tinha conhecimento das políticas. Mas, de acordo com Voxa assinatura de Altman está nos documentos de incorporação que promulgaram as políticas.

E se ex-membro do conselho da OpenAI Helen Toner é para acreditar – um dos ex-membros do conselho que tentou remover Altman de seu cargo no final do ano passado – Altman reteve informações, deturpou coisas que estavam acontecendo na OpenAI e, em alguns casos, mentiu abertamente para o conselho. Toner diz que o conselho soube do lançamento do ChatGPT através do Twitter, não de Altman; que Altman deu informações erradas sobre as práticas formais de segurança da OpenAI; e que Altman, descontente com um artigo acadêmico de autoria de Toner que lançou uma luz crítica sobre o OpenAI, tentou manipular os membros do conselho para tirar Toner do conselho.

Nada disso é um bom presságio.

Aqui estão algumas outras histórias dignas de nota sobre IA dos últimos dias:

  • Clonagem de voz facilitada: Um novo relatório do Center for Countering Digital Hate conclui que os serviços de clonagem de voz alimentados por IA tornam bastante trivial falsificar a declaração de um político.
  • A dificuldade das visões gerais de IA do Google: As visões gerais de IA, os resultados de pesquisa gerados por IA que o Google começou a lançar de forma mais ampla no início deste mês na Pesquisa Google, precisam de algum trabalho. A empresa admite isso – mas afirma que está iterando rapidamente. (Veremos.)
  • Paul Graham sobre Altman: Em uma série de postagens no X, Paul Graham, cofundador da aceleradora de startups Y Combinator, rejeitou as alegações de que Altman foi pressionado a renunciar ao cargo de presidente da Y Combinator em 2019 devido a potenciais conflitos de interesse. (Y Combinator tem uma pequena participação na OpenAI.)
  • xAI levanta US$ 6 bilhões: A startup de IA de Elon Musk, xAI, levantou US$ 6 bilhões em financiamento enquanto Musk reforça capital para competir agressivamente com rivais como OpenAI, Microsoft e Alphabet.
  • O novo recurso de IA do Perplexity: Com seu novo recurso Perplexity Pages, a startup de IA Perplexity tem como objetivo ajudar os usuários a criar relatórios, artigos ou guias em um formato visualmente mais atraente, relata Ivan.
  • Números favoritos dos modelos de IA: Devin escreve sobre os números que diferentes modelos de IA escolhem quando têm a tarefa de dar uma resposta aleatória. Acontece que eles têm favoritos – um reflexo dos dados nos quais cada um foi treinado.
  • Mistral lança Codestral: Mistral, a startup francesa de IA apoiada pela Microsoft e avaliada em US$ 6 bilhões, lançou seu primeiro modelo generativo de IA para codificação, denominado Codestral. Mas não pode ser utilizado comercialmente, graças à licença bastante restritiva do Mistral.
  • Chatbots e privacidade: Natasha escreve sobre a força-tarefa ChatGPT da União Europeia e como ela oferece uma primeira visão sobre como desembaraçar a conformidade com a privacidade do chatbot de IA.
  • Gerador de som da ElevenLabs: A startup de clonagem de voz ElevenLabs introduziu uma nova ferramenta, anunciada pela primeira vez em fevereiro, que permite aos usuários gerar efeitos sonoros por meio de prompts.
  • Interconexões para chips AI: Gigantes da tecnologia, incluindo Microsoft, Google e Intel – mas não Arm, Nvidia ou AWS – formaram um grupo industrial, o UALink Promoter Group, para ajudar a desenvolver componentes de chips de IA de próxima geração.


Link do Autor

Total
0
Shares
0 Share
0 Tweet
0 Share
0 Share
0 Pin it
Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


O período de verificação do reCAPTCHA expirou. Por favor, recarregue a página.

Related Posts