novembro 25, 2024

Atibaia Connection

Encontre todos os artigos mais recentes e assista a programas de TV, reportagens e podcasts relacionados ao Brasil

O grupo substitui a linha direta por um chatbot e o chatbot é retirado devido a maus conselhos

O grupo substitui a linha direta por um chatbot e o chatbot é retirado devido a maus conselhos

É um movimento que pode agradar a qualquer pessoa preocupada com os possíveis efeitos destruidores de empregos das ferramentas de IA. como BBC Segundo relatos, a American National Eating Disorders Association (NEDA) teve que remover seu chatbot “Tessa” depois que começou a recomendar estratégias de dieta potencialmente prejudiciais para pessoas com distúrbios alimentares. Isso aconteceu apenas uma semana depois que a NEDA optou por usar um robô em vez de uma linha de ajuda ao vivo operada por humanos. O problema com Tessa foi anunciado pelo grupo Instagram postar, por sorte. “Chegou ao nosso conhecimento… que a versão atual do Tessa Chatbot… pode ter fornecido informações maliciosas”, dizia o post. “Estamos investigando isso imediatamente e suspendemos esse programa até novo aviso para uma investigação completa.”

como NPR informou quarta-feira, NEDA recorreu à IA depois de administrar uma linha de apoio ao vivo para pessoas com anorexia, bulimia e outros distúrbios alimentares por mais de duas décadas. A organização sem fins lucrativos notificou os funcionários da linha de apoio menos de uma semana depois de formar um sindicato. A NEDA disse que a mudança não teve nada a ver com a sindicalização de funcionários ao vivo e tudo a ver com um aumento de ligações e mensagens de texto para a linha direta durante a pandemia do COVID-19. Esse aumento no volume de chamadas, de acordo com a liderança da NEDA, significa maior responsabilidade e, portanto, “o foco do uso expandido da tecnologia assistida por IA”.

Quanto ao mau comportamento de Tessa, CNN Relatórios NEDA CEO Liz Thompson culpou “maus atores” que intencionalmente tentaram fazer com que o chatbot fornecesse conselhos prejudiciais ou mesmo irrelevantes aos usuários. Antes de anunciar problemas com bots, ex-funcionários da linha de apoio chilro Uma declaração dizendo que os chatbots não podem “substituir a empatia humana e acreditamos que esta decisão causará danos irreparáveis ​​à comunidade de transtornos alimentares”. (Leia mais histórias de IA.)

READ  Elon Musk diz que recessão global pode durar até a primavera de 2024