Nikolas Weber
💰 Tumblr e WordPress Próximos de Acordo com OpenAI
🎥 Pika Labs Lança Recurso de Sincronização Labial
🎭 EMO: Vídeos de Retratos Expressivos com IA
Automattic, a empresa mãe do Tumblr e WordPress, está aparentemente próxima de fechar acordos para fornecer dados de treinamento de IA de postagens para a OpenAI e Midjourney, provocando uma grande reação negativa dos usuários.
Detalhes do Acordo:
Coleta de Conteúdo: Automattic raspou conteúdo do Tumblr de 2014 a 2023 para um primeiro lote de dados, mas incluiu acidentalmente postagens privadas.
Ferramenta de Opt-out: A empresa planeja lançar uma ferramenta de opt-out, mas permanece incerto se os dados compartilhados anteriormente serão removidos retroativamente.
Acordos Semelhantes: Segue acordos similares de plataformas como Reddit e Shutterstock, com gigantes da IA acumulando dados para treinar modelos poderosos.
Por Que Isso Importa:
O conteúdo gerado por humanos tornou-se o novo ouro para o treinamento de modelos de IA, e os usuários estão rapidamente descobrindo que seus dados são uma mercadoria valiosa. Com consumidores irritados sendo pegos de surpresa pelo uso de suas postagens sem consentimento e com desrespeito à privacidade, a reação negativa só tende a intensificar.
Pika Labs acaba de introduzir um novo recurso de sincronização labial ao seu gerador de vídeo com IA, possibilitando movimentos de boca realistas e geração de voz potencializada pela ElevenLabs. Com o crescente burburinho em torno de vídeos gerados por IA, Pika Labs mostra que agora, literalmente, quem fala são eles!
Acesso Antecipado para Usuários Pro
O acesso antecipado ao recurso de sincronização labial já está disponível para usuários Pro através do site pika.art.
O Grupo Alibaba apresenta o EMO: Emote Portrait Alive, uma tecnologia pioneira capaz de transformar uma simples imagem e áudio em vídeos de retratos expressivos, marcando um avanço significativo na geração de vídeo com IA.
Destaques do EMO:
Tecnologia Avançada: Utiliza um modelo de difusão Audio2Video para capturar expressões faciais e movimentos da cabeça, criando vídeos falados e cantados realistas.
Abordagem Direta: Diferente dos métodos tradicionais, o EMO opera diretamente de áudio para vídeo, eliminando a necessidade de modelos 3D ou marcos faciais.
Expressividade e Realismo: Excelente na geração de vídeos cantados em diversos estilos, estabelecendo um novo padrão em realismo e expressividade.
Por Que Isso Importa:
O EMO abre novas possibilidades para criadores de conteúdo, permitindo a criação de videoclipes musicais e vídeos falados com apenas uma imagem. Este avanço não apenas desafia os métodos tradicionais de geração de vídeo, mas também promete revolucionar a forma como interagimos e criamos conteúdo digital, tornando a geração de vídeo com IA mais acessível e expressiva.
Para explorar mais sobre o EMO e ver as criações de vídeo em ação, visite o site oficial do projeto.
RADAR EXPRESS
A Apple está cancelando oficialmente o ‘Projeto Titan’, seu esforço de condução autônoma de veículos elétricos de uma década – com os funcionários mudando o foco para a divisão de IA generativa da empresa.
O Google está supostamente pagando aos editores para testar uma ferramenta de IA inédita que coleta artigos de outros sites para criar novos conteúdos, levantando questões éticas.
A OpenAI acusou o New York Times de ‘hackear’ o ChatGPT para gerar conteúdo regurgitado em uma moção apresentada para rejeitar as reivindicações do NYT.
Mona Lisa singing by Leonardo Da Vinci --ar 16:9 --v 6.0
Midjourney