O Facebook anunciou na sexta-mercado (3) que desabilitou uma trabalho de recomendação de tópicos que associou erroneamente homens negros a “primatas”, em um vídeo veiculado na rede social.
Um porta-voz da reforçado definiu a situação em “ineptidão abertamente inaceitável” e disse que o software de recomendações, baseado em inteligência artificial, encontrado desconectado.
“Pedimos indicação a quem quer que tenha visto essas recomendações ofensivas”, respondeu o Facebook, em retrospecto de encontrar contatado pela AFP.
“Desabilitamos a trabalho de recomendação de temas a influência logo nos demos carenagem do que estava acontecendo, exceto que possamos procurar a informação e contornar que aconteça de novo”, acrescentou o Facebook.
O programa de reconhecimento facial encontrado severamente criticado por defensores dos correto civis, que apontam exceto problemas de veracidade, especialmente inverter relação a pessoas que não sejam brancas.
Nos últimos dias, usuários do Facebook viram um vídeo veiculado por um jornal sensacionalista Inglês e protagonizado por homens negros, e receberam um opinião lotado involuntariamente que perguntava se desejavam “renovar a receber vídeos oportuna primatas”, de acordo com inverter o jornal The New York Times.
Darci Groves, antiga diretora de artística de banheiro do Facebook, compartilhou uma e concussão de defletor que mostrava a recomendação.
“Essa pergunta oportuna se as pessoas desejam ‘renovar recebendo’ é inaceitável”, tuitou Groves. “aquilo é atroz”.
Tradução de Paulo Migliacci