Desde que a OpenAI lançou o ChatGPT no mundo, vimos pessoas que você não acreditaria. Algumas pessoas afirmam que os chatbots têm uma agenda desperta. O senador americano Chris Murphy twittou que o ChatGPT “ensinou” a si mesmo química avançada. Até mesmo jornalistas de tecnologia experientes escreveram histórias sobre como funciona O chatbot se apaixonou por eles. Parece que o mundo está reagindo à IA da mesma forma que os homens das cavernas provavelmente reagiram quando viram fogo pela primeira vez: com total confusão e balbucio incoerente.
Um dos exemplos mais recentes vem de 60 minutos, que jogou sua voz no ringue com um novo episódio focado em inovações em inteligência artificial que foi ao ar na CBS no domingo. O episódio apresentou entrevistas com nomes como Sundar Pichai, CEO do Google, e incluiu conteúdo questionável Reivindicações sobre o chatbot da empresa Bard.
O segmento é sobre comportamento emergente, que descreve um efeito colateral inesperado de um sistema de IA que não foi necessariamente pretendido pelos desenvolvedores do modelo. Já vimos um comportamento emergente surgir em outros projetos recentes de IA. Por exemplo, pesquisadores recentemente usaram o ChatGPT para criar personas digitais com objetivos e histórico em um estudo publicado online na semana passada. Eles observam que o sistema executa vários comportamentos emergentes, como compartilhar novas informações de um personagem para outro e até formar relacionamentos entre si – algo que os autores não planejaram inicialmente para o sistema.
Comportamento emergente é certamente um tópico que vale a pena discutir em um programa de notícias. onde está 60 minutos O vídeo dá uma guinada, no entanto, quando aprendemos sobre as alegações de que o chatbot do Google foi capaz de aprender sozinho um idioma que não conhecia antes. “Por exemplo, um programa de IA do Google adaptou-se por conta própria depois de ser instruído a fazê-lo no idioma de Bangladesh, que não foi treinado para conhecer”, disse Scott Pelley, correspondente da CBS News, no clipe.
Este foi um BS completo. Bard não apenas não aprendeu uma língua estrangeira “que não foi treinado em conhecimento”, mas também não aprendeu sozinho uma nova habilidade. Todo o clipe levou pesquisadores e especialistas em IA a criticar o enquadramento enganoso do programa de notícias no Twitter.
“Eu certamente espero que alguns jornalistas analisem todo o segmento @60Minute no Google Bard como um estudo de caso sobre como *não* cobrir a IA”, disse Melanie Mitchell, pesquisadora de IA e professora do Santa Fe Institute, ele escreveu em um tweet.
“Pare de pensar em mágica sobre tecnologia! Não é possível para #AI responder em bengali, a menos que os dados de treinamento tenham sido contaminados com bengali ou treinados em um idioma que se sobrepõe ao bengali, como assamês, oriya ou hindi”, disse ela. Alex O. pesquisador do Instituto de Tecnologia de Massachusetts, Adicionado em outro post.
A razão para reivindicá-lo 60 minutos Foi muito frustrante para esses especialistas porque ignora e brinca com a realidade do que uma IA generativa como a Bard pode realmente fazer. Ele não pode “ensinar” um idioma a si mesmo se não tiver acesso a ele em primeiro lugar. Isso seria como tentar aprender mandarim sozinho, mas você só ouviu depois que alguém lhe perguntou mandarim uma vez.
Afinal, a linguagem é incrivelmente complexa – com nuances e regras que exigem um grau incrível de contexto para entender e se comunicar. Não há como, mesmo para o modelo de linguagem grande (LLM) mais avançado, lidar com tudo isso e aprender com alguns prompts.
Esta passagem também tem um fato completamente errado: Bard pode já ter treinado o conhecimento do bengali, a língua dominante de Bangladesh. Margaret Mitchell (sem parentesco), pesquisadora do Startup Lab da AT HuggingFace e ex-Google, explicou isso em Tópico do tweet esmagando exatamente por que 60 minutos estava errado.
Mitchell observou que a Bard inclui o trabalho de uma iteração inicial de seu modelo chamado PaLM. Em uma demonstração de 2022, o Google mostrou que o PaLM pode se comunicar e responder a solicitações em bengali. o Papel por trás do PaLM Ele revelou em uma folha de dados que o modelo foi realmente treinado no idioma com aproximadamente 194 milhões de símbolos no alfabeto bengali.
Não está claro por que Pichai, o CEO do Google, sentou-se para a entrevista e permitiu que essas alegações continuassem sem oposição. (O Google não respondeu aos pedidos de comentários.) Desde que o episódio foi ao ar, ele permaneceu em silêncio, apesar dos especialistas apontarem as alegações enganosas e falsas feitas no clipe. No Twitter Margaret Mitchell Proposta A razão por trás disso pode ser uma combinação de líderes do Google que não sabem como seus produtos funcionam e também que isso permite a propagação de mensagens ruins para abordar o atual hype em torno da IA generativa.
“Eu suspeito [Google executives] Eu literalmente não entendo como isso funciona, Mitchell chilro. “O que escrevi acima provavelmente é novidade para eles. E eles estão motivados a não entender (CONVERSE COM OS OLHOS NESTA FICHA DE DADOS!!).”
A segunda metade do vídeo também pode ser vista como problemática, já que Pichai e Billy discutem um conto que Bard criou que “soou muito humano”, deixando os dois homens um tanto abalados.
A verdade é que esses produtos não são mágicos. Eles são incapazes de ser “humanos” porque não são humanos. Eles são preditores de texto como os do seu telefone, treinados para encontrar as palavras e frases mais prováveis após uma série de palavras em frases. Dizer que eles existem pode dar a eles um nível de poder que pode ser incrivelmente perigoso.
Afinal, os usuários podem usar esses sistemas de IA generativos para fazer coisas como espalhar desinformação. Já vimos isso manipular a aparência das pessoas e até mesmo suas vozes.
Mesmo um chatbot sozinho pode causar danos se acabar produzindo resultados tendenciosos – algo que já vimos com o ChatGPT e o Bard. Conhecendo a propensão desses chatbots para alucinar e fabricar resultados, eles podem espalhar informações erradas para usuários desavisados.
A pesquisa confirma isso também. Um estudo recente Postado em Relatórios científicos Ele descobriu que as respostas humanas a questões éticas poderiam ser facilmente influenciadas pelos argumentos feitos pelo ChatGPT – e até mesmo que os usuários subestimaram muito o quanto foram afetados pelos bots.
Afirmações enganosas sobre 60 minutos É realmente apenas um sintoma da maior necessidade de alfabetização digital no momento em que mais precisamos. Muitos especialistas em IA dizem que agora, mais do que nunca, é o momento em que as pessoas precisam estar cientes do que a IA pode ou não fazer. Esses fatos básicos sobre robótica também devem ser comunicados de forma eficaz ao público em geral.
Isso significa que as pessoas com as maiores plataformas e as vozes mais altas (ou seja, a mídia, os políticos e os CEOs da Big Tech) têm a maior responsabilidade em garantir um futuro de IA mais seguro e educado. Se não o fizermos, podemos acabar como os homens das cavernas mencionados acima, brincando com a magia do fogo – e nos queimando no processo.
More Stories
O próximo mini drone 4K da DJI cabe na palma da sua mão
Vazamentos revelam o nome e design do suposto dispositivo PS5 Pro
Os jogadores reclamam do longo tempo de matchmaking no PS5 conforme os números do Concord caem