Sam Altman, CEO da OpenAI, participará da 54ª Reunião Anual do Fórum Econômico Mundial em Davos, Suíça, em 18 de janeiro de 2024.
Denis Polibous | Reuters
Um grupo de 20 empresas líderes de tecnologia anunciou na sexta-feira um compromisso conjunto para combater a desinformação sobre IA nas eleições de 2024.
A indústria tem como alvo específico os deepfakes que utilizam áudio, vídeo e imagens enganosos para se fazerem passar pelos principais intervenientes em eleições democráticas ou fornecer informações falsas sobre votação.
Microsoft, meta, Google, Amazonas, IBM, Adobe e designer de chips mão Todos assinaram o contrato. As startups de inteligência artificial OpenAI, Anthropic e Stability AI também se juntaram ao grupo junto com empresas de mídia social. FotoTikTok e X.
As plataformas tecnológicas estão a preparar-se para um grande ano de eleições em todo o mundo que afetarão mais de quatro mil milhões de pessoas em mais de 40 países. De acordo com dados da empresa de aprendizagem automática Clarity, o aumento do conteúdo gerado por IA levou a sérias preocupações de desinformação relacionada com as eleições.
Enquanto isso, as tecnologias de detecção e marca d'água usadas para identificar deepfakes não avançaram rápido o suficiente para acompanhar.
A notícia do acordo chega um dia depois que o desenvolvedor do ChatGPT, OpenAI, anunciou Sora, seu novo modelo para vídeo gerado por IA. Sora funciona de forma semelhante ao DALL-E, a ferramenta de IA de geração de imagens da OpenAI. Quando um usuário digita a cena desejada, Sora retornará um videoclipe em alta definição. Sora pode criar videoclipes inspirados em imagens estáticas, estender vídeos existentes ou preencher quadros ausentes.
As empresas participantes no acordo concordaram com oito compromissos de alto nível, incluindo a avaliação dos riscos do modelo, “buscando detectar” e abordando a distribuição de tal conteúdo em seus sites, e proporcionando transparência nesses processos ao público. Como a maioria das obrigações voluntárias na indústria de tecnologia e além, observou o comunicado, as obrigações se aplicam apenas “quando são relevantes para os serviços que cada organização fornece”.
“A democracia depende de eleições seguras e protegidas”, disse Kent Walker, chefe de assuntos globais do Google, em comunicado. O acordo representa um esforço da indústria para abraçar a “desinformação eleitoral gerada pela IA que mina a confiança”.
Christina Montgomery, diretora de privacidade e confiança da IBM, disse no comunicado que este ano eleitoral crucial “requer ações concretas e colaborativas para proteger pessoas e comunidades dos riscos amplificados de conteúdo enganoso gerado por IA”.
Ver: OpenAI publica Sora
Não perca essas histórias do CNBC PRO:
“Especialista em comida hardcore. Guru da web sutilmente encantador. Jogador. Pioneiro típico da cerveja. Viciado em álcool. Amante de café. Fã de viagens irritantemente humilde.”
More Stories
Os benefícios de custo desconhecidos de possuir um carregador de carro elétrico
Alfonso Cuaron trata sua série ‘Denial’ da Apple TV + como um filme
‘Se você me demitir, que assim seja’