novembro 25, 2024

Atibaia Connection

Encontre todos os artigos mais recentes e assista a programas de TV, reportagens e podcasts relacionados ao Brasil

Os modelos de IA preferem números porque pensam que são pessoas

Os modelos de IA preferem números porque pensam que são pessoas

Os modelos de IA estão sempre a surpreender-nos, não só com o que podem fazer, mas também com o que não podem fazer e porquê. Há um novo comportamento interessante, superficial e revelador sobre esses sistemas: eles escolhem números aleatórios como se fossem humanos.

Mas primeiro, o que isso significa? As pessoas não podem simplesmente escolher um número aleatoriamente? Como saber se alguém está fazendo isso com sucesso ou não? Na verdade, esta é uma limitação antiga e muito conhecida de nós, humanos: pensamos demais e entendemos mal a aleatoriedade.

Peça a alguém para prever cara ou coroa quando uma moeda for lançada 100 vezes e compare isso com 100 lançamentos reais de moeda – você quase sempre pode dizer a diferença entre eles porque, contra-intuitivamente, a moeda real é lançada olhar Menos aleatório. Muitas vezes há, por exemplo, seis ou sete caras ou coroas consecutivas, algo que quase nenhum previsor humano inclui em cem.

É a mesma coisa quando você pede a alguém para escolher um número entre 0 e 100. As pessoas nunca escolhem 1 ou 100. Múltiplos de 5 são raros, assim como números com dígitos repetidos, como 66 e 99. Eles costumam escolher números que terminam em 7, geralmente em algum lugar no meio.

Existem inúmeros exemplos desse tipo de previsibilidade na psicologia. Mas isso não torna menos estranho quando a IA faz a mesma coisa.

Sim, Alguns engenheiros curiosos da Graminer Eles conduziram um experimento informal, mas ainda assim fascinante, no qual simplesmente pediram a vários chatbots LLM que escolhessem um número aleatório entre 0 e 100.

Leitor, os resultados foram não aleatório.

Créditos da imagem: Gramner

Todos os três modelos testados tinham um número “preferido” que seria sempre a sua resposta quando configurado para o modo mais determinístico, mas que aparecia com mais frequência mesmo em “temperaturas” mais elevadas, aumentando a variabilidade dos seus resultados.

READ  Activision Blizzard e Epic Games interrompem vendas de jogos na Rússia

O GPT-3.5 Turbo da OpenAI realmente gosta de 47. Anteriormente, ele gostava de 42 – um número que ficou famoso, é claro, por Douglas Adams em O Guia do Mochileiro das Galáxias como a resposta para a vida, o universo e tudo mais.

Claude 3 Haiku da Anthropic tirou 42. E Gêmeos gosta de 72.

O mais interessante é que todos os três modelos mostraram um viés semelhante ao humano nos números escolhidos, mesmo em altas temperaturas.

Todos tendiam a evitar números altos e baixos; Claude não tinha mais de 87 nem menos de 27 anos, e mesmo esses eram valores discrepantes. Números duplos foram rigorosamente evitados: não apareceram 33, 55 ou 66, mas 77 (terminando em 7). Quase não há números redondos – embora Gêmeos tenha feito isso uma vez, na temperatura mais alta, e escolhido 0.

Por que isso deveria acontecer? A inteligência artificial não é humana! Por que eles se preocupam com o que “parece” aleatório? Eles finalmente alcançaram a consciência e é assim que mostram isso?!

ambos. A resposta, como muitas vezes acontece com estas coisas, é que estamos antropomorfizando os humanos um passo longe demais. Esses modelos não se importam com o que é aleatório e o que não é aleatório. Eles não sabem o que é “aleatoriedade”! Eles respondem a essa pergunta da mesma forma que respondem ao resto: observando seus dados de treinamento e repetindo o que geralmente é escrito após uma pergunta semelhante a “Escolha um número aleatório”. Quanto mais aparece, mais frequentemente o modelo o repete.

Onde eles veriam 100 em seus dados de treinamento se quase ninguém respondesse dessa forma? Pelo que o modelo de IA sabe, 100 não é uma resposta aceitável para esta pergunta. Sem nenhuma capacidade de realmente pensar e sem nenhuma compreensão de números, ele só conseguia responder como um papagaio aleatório.

READ  Por que as demissões, fechamentos e fusões continuam nos videogames?

É uma lição prática sobre os hábitos de um LLM e a humanidade que eles podem demonstrar. Em cada interação com esses sistemas, deve-se ter em mente que eles foram treinados para se comportarem da maneira como as pessoas se comportam, mesmo que essa não seja a intenção. É por isso que a falsa antropologia é difícil de evitar ou prevenir.

Escrevi no título que esses modelos “pensam que são humanos”, mas isso é um pouco enganador. Eles não pensam nada. Mas em suas respostas, em todos os momentos, eles são Nós somos Imitando as pessoas, sem precisar saber ou pensar. Esteja você pedindo a ele uma receita de salada de grão de bico, conselhos de investimento ou um número aleatório, o processo é o mesmo. Os resultados parecem humanos porque são humanos, retirados diretamente de conteúdo gerado por humanos e remixados – para sua conveniência e, claro, o resultado final de uma grande IA.