Scarlett Johansson diz que ficou irritada com voz do ChatGPT parecida com a sua

A atriz Scarlett Johansson disse em um comunicado enviado à CNN na segunda-feira (20) que ficou “chocada, irritada e incrédula” que o CEO da OpenAI, Sam Altman, usaria uma voz sintética lançada com uma atualização do ChatGPT “tão assustadoramente semelhante” à dela.

A declaração vem após a OpenAI anunciar que está pausando a atualização após comparações com uma assistente de voz fictícia interpretada por Johansson no filme quase distópico “Ela” (“Her”), de 2013.

A retirada pela OpenAI segue uma reação negativa à voz artificial, conhecida como Sky, que os críticos descreveram como excessivamente familiar com os usuários e soava como se tivesse emergido da fantasia de um desenvolvedor masculino. Foi amplamente zombada por seu tom flertador.

“Recebemos perguntas sobre como escolhemos as vozes no ChatGPT, especialmente a Sky”, disse a OpenAI em um post no X na segunda-feira. “Estamos trabalhando para pausar o uso de Sky enquanto lidamos com essas questões.”

Johansson disse que Altman ofereceu contratá-la em setembro passado para dublar o sistema ChatGPT 4.0. Ela disse que recusou a oferta por “razões pessoais.”

“Dois dias antes do lançamento da demonstração do ChatGPT 4.0, o Sr. Altman entrou em contato com meu agente, pedindo que eu reconsiderasse. Antes que pudéssemos nos conectar, o sistema já estava lá fora.”

Johansson disse que contratou consultores jurídicos e que a OpenAI “relutantemente concordou” em retirar a voz “Sky” após seu advogado enviar duas cartas a Altman.

“Em um momento em que todos estamos lidando com deepfakes e a proteção de nossa própria imagem, nosso próprio trabalho, nossas próprias identidades, acredito que essas são questões que merecem absoluta clareza. Aguardo uma resolução na forma de transparência e a aprovação de legislação adequada para ajudar a garantir que os direitos individuais sejam protegidos”, escreveu Johansson.

A empresa disse em um post no blog no domingo que a voz em questão não é derivada da de Johansson, mas sim “pertence a uma atriz profissional diferente usando sua própria voz natural.”

Altman reiterou a posição da empresa de que “Sky” foi dublada por uma atriz diferente em uma declaração na segunda-feira, após as alegações de Johansson.

“A voz de Sky não é de Scarlett Johansson, e nunca foi destinada a se parecer com a dela,” disse Altman. “Escolhemos a atriz por trás da voz de Sky antes de qualquer contato com a Sra. Johansson. Por respeito à Sra. Johansson, pausamos o uso da voz de Sky em nossos produtos. Pedimos desculpas à Sra. Johansson por não termos nos comunicado melhor.”

A OpenAI disse que com cada uma de suas vozes de IA, tentou criar “uma voz acessível que inspire confiança,” uma que contenha um “tom rico” e seja “natural e fácil de ouvir.” O modo de voz do ChatGPT que usava a voz de Sky ainda não havia sido amplamente lançado, mas vídeos do anúncio do produto e teasers de funcionários da OpenAI falando com ele se tornaram virais na semana passada.

Alguns que ouviram Sky a ridicularizaram por ser talvez fácil demais de ouvir. Na semana passada, a controvérsia inspirou um segmento no The Daily Show, no qual a correspondente sênior Desi Lydic descreveu Sky como uma “voz de robô bebê tarado.”

“Isso claramente foi programado para alimentar os egos dos caras,” disse Lydic. “Você realmente pode perceber que um homem construiu essa tecnologia.”

Mesmo Altman pareceu reconhecer os paralelos generalizados que os usuários estavam traçando com Johansson quando postou no X no dia do anúncio do produto: “her (ela).” Johansson disse que Altman usou essa postagem para insinuar que “a semelhança foi intencional.”

“Ela” é o título do filme de 2013 no qual Johansson interpreta uma assistente de voz artificialmente inteligente com quem o protagonista, interpretado por Joaquin Phoenix, se apaixona, apenas para ficar com o coração partido quando a IA admite que também está apaixonada por centenas de outros usuários e, posteriormente, se torna completamente inacessível.

Veja o trailer de “Ela”

Questões sobre liderança

A crítica em torno da Sky destaca preocupações sociais mais amplas sobre os possíveis preconceitos de uma tecnologia projetada por empresas de tecnologia, em grande parte lideradas ou financiadas por homens brancos.

O anúncio veio após os líderes da OpenAI serem forçados a defender suas práticas de segurança durante o fim de semana, após um funcionário que deixou a empresa questionar as prioridades da empresa.

Jan Leike, que anteriormente liderava uma equipe focada na segurança a longo prazo da IA, mas deixou a OpenAI na semana passada junto com o cofundador e cientista-chefe Ilya Sutskever, postou uma sequência no X na sexta-feira alegando que “nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos chamativos” na OpenAI. Ele também levantou preocupações de que a empresa não estava dedicando recursos suficientes para se preparar para um possível futuro de “inteligência geral artificial” (AGI) que poderia ser mais inteligente que os humanos.

Altman respondeu rapidamente, dizendo que apreciava o compromisso de Leike com a “cultura de segurança” e acrescentou: “Ele está certo, temos muito mais a fazer; estamos comprometidos em fazer isso.” A empresa também confirmou à CNN que, nas últimas semanas, começou a dissolver a equipe liderada por Leike, integrando seus membros aos diversos grupos de pesquisa. Um porta-voz da empresa disse que essa estrutura ajudaria a OpenAI a alcançar melhor seus objetivos de segurança.

O presidente da OpenAI, Greg Brockman, respondeu em um post mais longo no sábado, assinado com seu nome e o de Altman, detalhando a abordagem da empresa para a segurança de IA a longo prazo.

“Temos aumentado a conscientização sobre os riscos e oportunidades da AGI para que o mundo possa se preparar melhor para isso,” disse Brockman. “Demonstramos repetidamente as incríveis possibilidades de ampliar o deep learning e analisamos suas implicações; clamamos por uma governança internacional da AGI antes que tais chamados fossem populares; e ajudamos a pioneirar a ciência de avaliação de sistemas de IA para riscos catastróficos.”

Ele acrescentou que, à medida que a IA se torna mais inteligente e integrada à vida cotidiana das pessoas, a empresa está focada em ter “um ciclo de feedback muito apertado, testes rigorosos, consideração cuidadosa em cada etapa, segurança de classe mundial e harmonia entre segurança e capacidades.”

ChatGPT supera médicos para fazer diagnóstico em consulta, diz estudo

Este conteúdo foi criado originalmente em Internacional.

Deixe um comentário