novembro 2, 2024

Atibaia Connection

Encontre todos os artigos mais recentes e assista a programas de TV, reportagens e podcasts relacionados ao Brasil

Meta coletou dados de crianças de contas do Instagram, alega o documento judicial não lacrado

Meta coletou dados de crianças de contas do Instagram, alega o documento judicial não lacrado

Thomas Trotschl/PhotoTech/Getty Images

BERLIM, ALEMANHA – 06 DE OUTUBRO: Nesta ilustração, o logotipo do Instagram está iluminado em um smartphone perto de um dedo em 6 de outubro de 2023 em Berlim, Alemanha. (Ilustração da imagem por Thomas Trotschl/Photothek via Getty Images)



CNN

Desde pelo menos 2019, Meta se recusou intencionalmente a fechar a maioria das contas de crianças menores de 13 anos enquanto coletava suas informações pessoais sem o consentimento dos pais, alega um documento judicial recentemente aberto de um processo federal em andamento contra o gigante da mídia social.

Procuradores-gerais de 33 estados acusaram Meta de receber mais de 1 milhão de denúncias sobre usuários menores de 13 anos no Instagram de pais, amigos e membros da comunidade online entre o início de 2019 e meados de 2023.. No entanto, “Meta desativou apenas uma parte dessas contas”, afirma a reclamação.

A queixa federal pede ordens judiciais proibindo a Meta de se envolver em práticas que os promotores alegam violarem a lei. As penalidades civis podem chegar a centenas de milhões de dólares, já que o Meta supostamente hospeda milhões de usuários adolescentes e crianças. A maioria dos estados exige multas que variam de US$ 1.000 a US$ 50.000 por violação.

De acordo com o processo de 54 acusações, a Meta violou uma série de leis estaduais de proteção ao consumidor, bem como a Regra de Proteção à Privacidade Online das Crianças (COPPA), que proíbe as empresas de coletar informações pessoais de crianças menores de 13 anos sem o consentimento dos pais. A Meta supostamente não cumpriu a COPPA com relação ao Facebook e ao Instagram, embora “os próprios registros da Meta revelem que a composição do público do Instagram inclui milhões de crianças com menos de 13 anos” e que “centenas de milhares de usuários adolescentes gastam mais de cinco anos” horas por dia no Instagram”, afirma o documento do tribunal.

READ  Arábia Saudita corta produção de petróleo em julho e Opep prorroga acordo até 2024

Um dos designers de produto da Meta escreveu em um e-mail interno que “mais jovem é melhor”, acrescentando que “você deseja trazer pessoas para o seu serviço desde cedo”, de acordo com o processo.

“Os Termos de Uso do Instagram proíbem usuários com menos de 13 anos (ou mais em alguns países) e temos procedimentos em vigor para remover essas contas quando tomamos conhecimento delas. No entanto, verificar a idade das pessoas on-line é um desafio complexo do setor.” pessoas – Principalmente menores de 13 anos – não possuem carteira de identidade, por exemplo. É por isso que a Meta apóia a legislação federal que exigiria que as lojas de aplicativos obtivessem o consentimento dos pais quando adolescentes menores de 16 anos baixassem aplicativos. Com essa abordagem, pais e adolescentes não precisariam fornecer informações confidenciais a centenas de aplicativos individuais, como identidades governamentais, para verificar sua idade.

A denúncia não lacrada também alega que a Meta sabia que seu algoritmo poderia direcionar as crianças para conteúdos nocivos, prejudicando assim a sua segurança. De acordo com as comunicações internas da empresa citadas no documento, os funcionários escreveram que estavam preocupados com “conteúdo no IG que desperta emoções negativas entre os adolescentes, afeta sua saúde mental (e) tira nossos algoritmos de classificação”. [them] em espirais negativas e ciclos de feedback dos quais é difícil sair.”

Por exemplo, pesquisadores da Meta conduziram um estudo em julho de 2021 que concluiu que o algoritmo do Instagram pode estar amplificando a comparação social negativa e “conteúdo que tende a fazer os usuários se sentirem mal em relação ao seu corpo ou aparência”, de acordo com a denúncia. Em e-mails internos datados de fevereiro de 2021 e citados na ação judicial, os funcionários da Meta supostamente reconheceram que a comparação social estava “associada a passar mais tempo” nas plataformas de mídia social da Meta. Discutimos como esse fenômeno é “valioso para o modelo de negócios do Instagram e, ao mesmo tempo, causa danos às adolescentes”.

READ  Netflix: Lucros aumentam após campanha de compartilhamento de senhas

Em uma investigação interna de março de 2021 sobre conteúdo sobre transtornos alimentares, a equipe Meta acompanhou usuários cujos nomes de contas faziam referência a fome, magreza e transtornos alimentares. O algoritmo do Instagram começou então a criar uma lista de contas recomendadas “que incluía contas associadas à anorexia”, afirma o processo.

No entanto, Antigone Davis, chefe global de segurança da Meta, testemunhou perante o Congresso em setembro de 2021 que a Meta não “direciona as pessoas para conteúdo que promova transtornos alimentares. Isso na verdade viola nossas políticas e removemos esse conteúdo quando tomamos conhecimento dele. Na verdade, nós use inteligência artificial para encontrar e remover conteúdo como este.

“Queremos que os adolescentes tenham experiências on-line seguras e adequadas à idade, e temos mais de 30 ferramentas para apoiar eles e seus pais”, disse Meta à CNN em comunicado. “Passámos uma década a trabalhar nestas questões e empregamos pessoas que dedicaram as suas carreiras a manter os jovens seguros e a apoiá-los online. A queixa descaracteriza o nosso trabalho ao utilizar citações selectivas e documentos escolhidos a dedo.

O processo afirma que a liderança sênior do Instagram também sabia que o conteúdo problemático era uma questão crítica para a plataforma. “A comparação social é com o Instagram”, escreveu Adam Mosseri, chefe do Instagram, em um e-mail interno [what] “A interferência nas eleições é do Facebook.” A ação não especifica quando este e-mail foi enviado.

A CNN entrou em contato com Meta sobre os comentários de Davis e Mosseri e não recebeu resposta imediata.

No entanto, apesar da pesquisa interna da empresa confirmar preocupações sobre a comparação social nas suas plataformas, o processo alega que a Meta se recusou a alterar o seu algoritmo. Um funcionário de comunicação interna citado no processo observou que o conteúdo que incita comparações negativas de aparência “é um dos conteúdos mais envolventes (na página Explorar), portanto, essa ideia está em conflito com as principais métricas de muitas outras equipes”. Enquanto isso, as “comunicações externas da Meta negaram ou obscureceram o fato de que seus algoritmos de recomendação promoviam conteúdo de comparação de aparência altamente negativa para usuários jovens”, afirma o processo.

READ  O Federal Reserve se reúne esta semana. Aqui está o que os especialistas dizem sobre as perspectivas de cortes nas taxas de juros.

A Meta também estava ciente de que seus algoritmos de recomendação “desencadeavam liberações intermitentes de dopamina em usuários jovens” que poderiam levar a ciclos de consumo viciante em suas plataformas, de acordo com documentos internos citados no processo.

“A META lucrou com a dor das crianças ao projetar intencionalmente suas plataformas com recursos manipuladores que mantêm as crianças viciadas em suas plataformas e, ao mesmo tempo, diminuem sua auto-estima”, disse a procuradora-geral de Nova York, Letitia James, em um comunicado. declaração Mês passado. Nova York é um dos estados participantes do processo federal. “As empresas de mídia social, incluindo a Meta, contribuíram para a crise nacional de saúde mental dos jovens e devem ser responsabilizadas”, disse James.

Oito promotores adicionais processaram Meta no mês passado em vários tribunais estaduais, fazendo reivindicações semelhantes ao enorme processo federal multiestadual. Flórida processou a própria Meta Processo federal separadoAlegando que a empresa enganou os usuários sobre os riscos potenciais de seus produtos para a saúde.

A onda de ações judiciais é o resultado de uma investigação bipartidária e multiestadual que remonta a 2021, depois que a denunciante do Facebook, Frances Haugen, apresentou dezenas de milhares de documentos internos da empresa que, segundo ela, mostravam como a empresa sabia que seus produtos poderiam ter efeitos colaterais. Impacto negativo na vida dos jovens. Saúde psicológica.

Brian Fung, da CNN, contribuiu para este relatório