novembro 5, 2024

Atibaia Connection

Encontre todos os artigos mais recentes e assista a programas de TV, reportagens e podcasts relacionados ao Brasil

A semana em IA: o Google sai do I/O à medida que os regulamentos crescem

A semana em IA: o Google sai do I/O à medida que os regulamentos crescem

Créditos da imagem: Google

Acompanhar uma indústria em rápido movimento como a inteligência artificial é uma tarefa difícil. Portanto, para que a IA faça isso por você, aqui está um resumo útil das histórias da semana passada no mundo do aprendizado de máquina, juntamente com pesquisas e experimentos notáveis ​​que não cobriríamos sozinhos.

Esta semana, o Google dominou o ciclo de notícias de IA com um punhado de novos produtos lançados em sua conferência anual de desenvolvedores I/O. prompts de texto em músicas curtas.

Muitas dessas ferramentas parecem ser legítimas poupadoras de mão-de-obra – mais fiapos de marketing, quero dizer. Estou particularmente intrigado com o Project Tailwind, um aplicativo de anotações que usa inteligência artificial para organizar, resumir e analisar arquivos da minha pasta pessoal do Google Docs. Mas eles também revelam as limitações e deficiências até mesmo das melhores tecnologias de IA de hoje.

Veja o PaLM 2, por exemplo, o mais recente modelo de linguagem grande (LLM) do Google. O PaLM 2 fortalecerá a ferramenta de bate-papo Bard atualizada do Google, concorrente da empresa para o ChatGPT da OpenAI, e servirá como modelo básico para a maioria dos novos recursos de IA do Google. Mas, embora o PaLM 2 possa escrever código, mensagens de e-mail e muito mais, como LLMs comparáveis, ele também responde a perguntas de maneiras tóxicas e tendenciosas.

O Google Music Generator também é um tanto limitado no que pode realizar. Como escrevi com minhas próprias mãos, a maioria das músicas que criei com o MusicLM soam aceitáveis, na melhor das hipóteses – e, na pior, como uma criança de quatro anos lançada DAW.

Muito já foi escrito sobre como a IA substituirá empregos – potencialmente o equivalente a 300 milhões de empregos em tempo integral, de acordo com um estudo. um relatório por Goldman Sachs. em reconhecimento Por Harris, 40% dos trabalhadores familiarizados com a ferramenta de chatbot com inteligência artificial da OpenAI, ChatGPT, temem que ela substitua completamente seus empregos.

A IA do Google não é tudo. Na verdade, a empresa Pode-se dizer que atrás na corrida pela inteligência artificial. Mas é um fato inegável que o Google está contratando Alguns dos melhores pesquisadores de IA do mundo. E se isso é o melhor que eles conseguem, é uma prova de que a inteligência artificial está longe de resolver o problema.

Aqui estão outras manchetes de IA observadas nos últimos dias:

  • Meta traz IA generativa para anúncios: Esta semana, a Meta anunciou uma espécie de sandbox de IA para os anunciantes ajudá-los a criar cópias alternativas, criar fundos por meio de prompts de texto e recortar imagens para anúncios no Facebook ou Instagram. A empresa disse que os recursos estão disponíveis para anunciantes selecionados no momento e expandirão o alcance para mais anunciantes em julho.
  • Contexto adicionado: A Anthropic expandiu a janela de contexto para Claude – sua principal geração de texto e modelo de IA, que ainda está em pré-visualização – de 9.000 tokens para 100.000 tokens. A janela de contexto indica qual texto o formulário considera antes de criar texto adicional, enquanto os tokens representam texto bruto (por exemplo, “cool” seria dividido nos tokens “fan”, “tas” e “tic”). Historicamente e até hoje, a falta de memória tem sido um obstáculo para a utilidade da geração de texto para IA. Mas janelas de contexto maiores podem mudar isso.
  • Anthropy promove a “inteligência artificial constitucional”: Janelas de contexto maiores não são o único fator de diferenciação para modelos antrópicos. Esta semana, a empresa detalhou a “IA Constitucional”, sua abordagem interna de treinamento em IA que visa imbuir “valores” em sistemas de IA com uma “constituição”. Em contraste com outras abordagens, a Anthropic argumenta que a IA constitucional torna o comportamento dos sistemas mais fácil de entender e mais simples de modificar conforme necessário.
  • O LLM é projetado para pesquisar: A organização sem fins lucrativos Allen Institute for Artificial Intelligence Research (AI2) anunciou que está planejando um treinamento LLM focado em pesquisa chamado Open Language Model, adicionando a uma grande e crescente biblioteca de código aberto. O AI2 vê o Modelo de Linguagem Aberta, ou OLMo para abreviar, como uma plataforma em vez de apenas um modelo – um que permitirá que a comunidade de pesquisa pegue todos os componentes que o AI2 cria e use-os ou procure melhorá-los.
  • Novo fundo de IA: Em outras notícias da AI2, a AI2 Incubator, o fundo sem fins lucrativos para startups de IA, está de volta ao triplo de seu tamanho anterior – US$ 30 milhões contra US$ 10 milhões. Vinte e uma empresas passaram pela incubadora desde 2017, atraindo cerca de US$ 160 milhões em investimentos adicionais e pelo menos uma grande aquisição: XNOR, um acelerador de IA e dispositivo de eficiência que a Apple posteriormente adquiriu por cerca de US$ 200 milhões.
  • Regras de introdução da UE para IA generativa: Em uma série de votações no Parlamento Europeu, os deputados esta semana apoiaram uma série de emendas ao projeto de lei de IA do bloco – incluindo o estabelecimento de requisitos para os chamados modelos fundamentais que sustentam tecnologias de IA generativas, como o ChatGPT da OpenAI. As alterações colocaram o ônus sobre os fornecedores de modelos fundamentais para implementar verificações de segurança, medidas de governança de dados e mitigar riscos antes de colocar seus modelos no mercado.
  • Tradutor universal: O Google está testando um novo e poderoso serviço de tradução que reproduz o vídeo em um novo idioma e, ao mesmo tempo, sincroniza os lábios do locutor com palavras que ele nunca falou. Pode ser muito útil por vários motivos, mas a empresa foi franca sobre o potencial de abuso e as medidas necessárias para evitá-lo.
  • Explicações instrumentais: Costuma-se dizer que o LLM estilo ChatGPT da OpenAI é uma caixa preta e, com certeza, há alguma verdade nisso. Em uma tentativa de descascar suas camadas, OpenAI é em desenvolvimento Uma ferramenta para identificar automaticamente as partes de um LLM que são responsáveis ​​por seus comportamentos. Os engenheiros por trás dele confirmam que está em seus estágios iniciais, mas o código para executá-lo está disponível em código aberto no GitHub a partir desta semana.
  • IBM lança novos serviços de IA: Em sua conferência anual Think, a IBM anunciou o IBM Watsonx, uma nova plataforma que fornece ferramentas para construir modelos de inteligência artificial e fornece acesso a modelos pré-fabricados para criar código de computador, scripts e muito mais. A empresa diz que o lançamento foi impulsionado pelos desafios que muitas empresas ainda enfrentam na implantação de IA no local de trabalho.
READ  Back to Monkey Island parece tão amaldiçoado nas primeiras fotos

outro aprendizado de máquina

Créditos da imagem: IA caindo

Nova empresa Andrew Ng IA caindo Adota uma abordagem mais intuitiva para criar treinamento de visão computacional. Fazer um modelo que entenda o que você quer definir nas imagens é muito tedioso, porém Sua técnica de “estimulação visual” Ele apenas permite que você faça algumas pinceladas e defina sua intenção a partir daí. Qualquer um que tenha que construir modelos de segmentação diz “Oh meu Deus, finalmente!” Provavelmente há muitos alunos de pós-graduação que atualmente passam horas escondendo organelas e utensílios domésticos.

Microsoft implementado Modelos de difusão de uma forma única e interessante, essencialmente usando-os para criar um vetor de ação em vez de uma imagem, depois de serem treinados em muitas ações humanas observadas. Ainda é muito cedo e a difusão não é a solução óbvia para isso, mas como eles são tão estáveis ​​e versáteis, é interessante ver como eles podem ser aplicados além de tarefas puramente visuais. Seu trabalho está sendo apresentado no ICLR ainda este ano.

Créditos da imagem: meta

Meta também está empurrando as bordas da inteligência artificial com ImageBind, que afirma ser o primeiro modelo que pode processar e combinar dados de seis métodos diferentes: imagens, vídeo, áudio, dados de profundidade 3D, informações térmicas e dados de movimento ou posicionais. Isso significa que, em um pequeno espaço de incorporação de aprendizado de máquina, uma imagem pode ser associada a som, forma 3D e várias descrições de texto, qualquer uma das quais pode ser subtraída ou usada para tomar uma decisão. É um passo em direção à IA “geral”, pois absorve e correlaciona dados como um cérebro – mas ainda é básico e experimental, portanto, não fique muito animado ainda.

Se você tocar nessas proteínas… o que acontece?

Todos ficaram entusiasmados com o AlphaFold, e por um bom motivo, mas a estrutura é realmente apenas uma pequena parte da complexa ciência da proteômica. Como essas proteínas interagem é importante e difícil de prever – mas isso é novo Modelo PeSTo da EPFL Ele tenta fazer exatamente isso. “Ele se concentra nos átomos e interações importantes dentro da estrutura de uma proteína”, disse o principal desenvolvedor Lucien Crabbe. “Isso significa que esse método captura efetivamente interações complexas dentro de estruturas de proteínas para permitir uma previsão precisa das interfaces de ligação de proteínas”. Mesmo que não seja 100% preciso ou confiável, não ter que começar do zero é extremamente benéfico para os pesquisadores.

READ  PS5 Pro 100% acontecendo, diz relatório confiável

Os federais estão indo AI. O chefe até caiu em um Conheça um grupo de CEOs de inteligência artificial Para mostrar como é importante fazer isso direito. Talvez um grupo de empresas não seja necessariamente a pessoa certa para perguntar, mas pelo menos terá algumas ideias que valem a pena considerar. Mas eles já têm lobistas, certo?

estou mais animado sobre Novos centros de pesquisa de inteligência artificial financiados pelo governo federal estão surgindo. A pesquisa fundamental é extremamente necessária para equilibrar o trabalho focado no produto que está sendo feito por empresas como OpenAI e Google – então, quando você tem hubs de IA com mandatos para investigar coisas como Ciências Sociais (na CMU)ou mudanças climáticas e agricultura (na Universidade de Minnesota), parece campos verdes (figurativamente e literalmente). Embora eu também queira dar um pequeno grito a este Pesquisa de meta para medida florestal.

Praticar IA juntos em uma tela grande – é uma ciência!

Muitas conversas interessantes sobre inteligência artificial. eu acreditei Esta entrevista é com os acadêmicos da UCLA (minha alma mater, Go Bruins), Jacob Foster e Danny Snelson Era muito interessante. Aqui está uma ótima ideia do LLM para fingir que você veio neste fim de semana quando as pessoas estão falando sobre IA:

Esses sistemas detectam formalmente a consistência da maior parte da escrita. Quanto mais formatos gerais esses modelos preditivos simularem, mais bem-sucedidos eles serão. Esses desenvolvimentos nos levam a aprender sobre as funções modulares de nossas formas e sua possível transformação. Após a introdução da fotografia, que é muito boa em capturar um espaço representacional, o ambiente da pintura desenvolveu o Impressionismo, um estilo que rejeitou totalmente a representação exata para permanecer com a materialidade da própria pintura.

Definitivamente usando isso!

READ  Computadores Intel mini NUC ganham uma segunda vida graças à Asus