LONDRES/WASHINGTON, 11 de agosto (Reuters) – Muitos trabalhadores nos Estados Unidos estão recorrendo ao ChatGPT para obter ajuda em tarefas essenciais, revela uma pesquisa Reuters/Ipsos, apesar das preocupações que levaram empregadores como Microsoft e Google a limitar o uso.
Empresas de todo o mundo estão estudando como fazer o melhor uso do ChatGPT, um chatbot que usa IA generativa para conduzir conversas com usuários e responder a inúmeros prompts. Empresas e empresas de segurança levantaram preocupações, no entanto, de que isso poderia levar a vazamentos de propriedade intelectual e estratégia.
Exemplos anedóticos de pessoas que usam o ChatGPT para ajudar em seu trabalho diário incluem redigir e-mails, resumir documentos e fazer pesquisas preliminares.
Cerca de 28% dos entrevistados em uma pesquisa online sobre inteligência artificial (IA) entre 11 e 17 de julho disseram que usam o ChatGPT regularmente no trabalho, enquanto apenas 22% disseram que seus empregadores permitem explicitamente essas ferramentas de terceiros.
A pesquisa Reuters/Ipsos com 2.625 adultos nos Estados Unidos teve um intervalo de credibilidade, uma medida de precisão, de cerca de dois pontos percentuais.
Cerca de 10% dos entrevistados disseram que seus chefes proibiam explicitamente ferramentas de IA de terceiros, enquanto cerca de 25% não sabiam se sua empresa permitia ou não o uso da tecnologia.
O ChatGPT se tornou o aplicativo de crescimento mais rápido da história após seu lançamento em novembro. Isso causou entusiasmo e alarme, colocando o desenvolvedor OpenAI em conflito com os reguladores, principalmente na Europa, onde a coleta em massa de dados da empresa atraiu críticas de vigilantes da privacidade.
Os revisores humanos de outras empresas podem ler qualquer um dos chats gerados, e os pesquisadores descobriram que uma IA semelhante pode reproduzir dados absorvidos durante o treinamento, criando um risco potencial para informações proprietárias.
“As pessoas não entendem como os dados são usados quando usam serviços de IA geradora”, disse Ben King, vice-presidente de confiança do cliente da empresa de segurança corporativa Okta (OKTA.O).
“Para as empresas, isso é crítico, porque os usuários não têm contrato com muitos sistemas de IA – porque é um serviço gratuito – para que as empresas não sejam expostas a riscos por meio do processo de avaliação usual”, disse King.
A OpenAI se recusou a comentar quando questionada sobre as implicações de funcionários individuais usando o ChatGPT, mas destacou uma recente postagem no blog da empresa garantindo aos parceiros da empresa que seus dados não serão usados para treinar o chatbot ainda mais, a menos que eles deem permissão explícita.
Quando as pessoas usam o Bard do Google, ele coleta dados como texto, localização e outras informações de uso. A empresa permite que os usuários excluam atividades anteriores de suas contas e solicitem a remoção de conteúdo que é inserido na IA. O Google (GOOGL.O), de propriedade da Alphabet, se recusou a comentar quando questionado sobre mais detalhes.
A Microsoft (MSFT.O) não respondeu imediatamente a um pedido de comentário.
tarefas inofensivas
Um funcionário do Tinder nos EUA disse que os funcionários do aplicativo de namoro usavam o ChatGPT para “tarefas inofensivas”, como escrever e-mails, embora a empresa não o permitisse oficialmente.
disse o funcionário, que não quis ser identificado porque não estava autorizado a falar com repórteres.
O funcionário disse que o Tinder tem uma “regra Sem ChatGPT”, mas os funcionários ainda a usam “de uma maneira geral que não revela nada sobre nossa presença no Tinder”.
A Reuters não conseguiu confirmar de forma independente como os funcionários do Tinder usam o ChatGPT. O Tinder disse que forneceu “orientação regular aos funcionários sobre as melhores práticas de segurança e dados”.
Em maio, a Samsung Electronics proibiu os funcionários globalmente de usar o ChatGPT e ferramentas semelhantes de IA depois que foi descoberto que um funcionário havia carregado um código confidencial na plataforma.
“Estamos revisando medidas para criar um ambiente seguro para o uso generativo de inteligência artificial que aumenta a produtividade e a eficiência dos funcionários”, disse a Samsung em comunicado em 3 de agosto.
“No entanto, até que essas medidas sejam implementadas, estamos restringindo temporariamente o uso de IA generativa por meio de dispositivos da empresa”.
A Reuters informou em junho que a Alphabet alertou os funcionários sobre como eles estavam usando software de bate-papo, incluindo o Bard do Google, ao mesmo tempo em que comercializava o software globalmente.
O Google disse que, embora Bard possa fazer sugestões de código não solicitadas, isso ajuda os programadores. Ele também disse que pretende ser transparente sobre as limitações de sua tecnologia.
cobertor de proibição
Algumas empresas disseram à Reuters que estão adotando o ChatGPT e plataformas semelhantes com a segurança em mente.
“Começamos a testar e aprender sobre como a IA pode aumentar a eficácia operacional”, disse um porta-voz da Coca-Cola em Atlanta, Geórgia, acrescentando que os dados permanecem dentro de seu firewall.
“Internamente, lançamos recentemente nossa versão corporativa do Coca-Cola ChatGPT para produtividade”, disse um porta-voz da empresa, acrescentando que a Coca-Cola planeja usar inteligência artificial para melhorar a eficácia e a produtividade de suas equipes.
Enquanto isso, o CFO da Tate & Lyle (TATE.L), Dawn Allen, disse à Reuters que a fabricante global de componentes estava testando o ChatGPT, depois de “encontrar uma maneira de usá-lo de maneira segura”.
“Temos equipes diferentes que decidem como querem usá-lo por meio de uma série de experimentos. Devemos usá-lo em relações com investidores? Devemos usá-lo na gestão do conhecimento? Como podemos usá-lo para realizar tarefas com mais eficiência?”
Alguns funcionários dizem que não conseguem acessar a plataforma nos computadores da empresa.
“Está completamente fora dos limites da rede do escritório, porque não está funcionando”, disse um funcionário da Procter & Gamble (PG.N), que preferiu permanecer anônimo porque não estava autorizado a falar com a imprensa.
A Procter & Gamble se recusou a comentar. A Reuters não conseguiu confirmar de forma independente se os funcionários da P&G são incapazes de usar o ChatGPT.
Paul Lewis, diretor de segurança da informação da empresa de segurança cibernética Nominet, disse que as empresas estavam certas em serem cautelosas.
“Todos se beneficiam dessa capacidade aumentada, mas as informações não são totalmente seguras e podem ser modificadas”, disse ele, citando “reivindicações maliciosas” que podem ser usadas para fazer com que os chatbots de IA revelem informações.
“Uma proibição geral ainda não é justificada, mas precisamos agir com cuidado”, disse Lewis.
Reportagem adicional de Richa Naidoo, Martin Coulter e Jason Lang; Editado por Alexandre Smith
Nossos padrões: Princípios de confiança da Thomson Reuters.
More Stories
Relatório: Kroger Co. aumenta os preços do leite e dos ovos além dos custos da inflação, testemunha executivo
Se eu pudesse comprar apenas um estoque de semicondutores de IA na próxima década, seria esse (dica: não da Nvidia)
Foot Locker abandona Nova York e muda-se para São Petersburgo, Flórida, para reduzir altos custos: “eficiência”