Facebook irá contratar 3.000 pessoas para ajudar a remover o conteúdo inapropriado

O Facebook vai contratar mais 3.000 pessoas no próximo ano ajudar na retirada de material inadequado na rede social e acelerar a remoção de vídeos mostrando homicídio, suicídio e outros atos violentos, disse o presidente-executivo Mark Zuckerberg nesta quarta-feira(03).

A contratação é um reconhecimento pelo Facebook que, pelo menos por enquanto, precisa de mais do que um software automatizado para melhorar o monitoramento de posts. Facebook Live, um serviço que permite a qualquer usuário transmitir um vídeo ao vivo, foi prejudicado desde o seu lançamento no ano passado por instâncias de pessoas que transmitem violência.

leia também:

Os jogos Messenger do Facebook agora estão disponíveis para todos

Zuckerberg, co-fundador da empresa, disse em um post no Facebook que os trabalhadores estarão para além das 4.500 pessoas que já analisam posts que podem violar seus termos de serviço.

Na semana passada, um pai na Tailândia se transmitiu matando sua filha no Facebook Live, disse a polícia. Depois de mais de um dia, e 370.000 visualizações, o Facebook removeu o vídeo. Outros vídeos de lugares como Chicago e Cleveland também chocaram os espectadores com sua violência.

Zuckerberg afirmou: “Estamos trabalhando para tornar esses vídeos mais fáceis de denunciar, para que possamos tomar a ação certa mais cedo – seja respondendo rapidamente.”

Os 3.000 trabalhadores terão novos cargos e monitorarão todo o conteúdo do Facebook, e não apenas vídeos ao vivo, disse a empresa. A empresa não disse onde os trabalhos seriam localizados.

Facebook deve divulgar a receita e ganhos trimestrais nesta quarta-feira depois que os mercados fecham em Nova York.

A maior rede social do mundo, com 1,9 bilhão de usuários mensais, está se voltando para a inteligência artificial para tentar automatizar o processo de encontrar pornografia, violência e outros materiais potencialmente ofensivos. Em março, a empresa disse que planeja usar essa tecnologia para ajudar os usuários com tendências suicidas e ajudá-los.

No entanto, o Facebook ainda depende em grande parte de seus usuários para relatar material problemático. Recebe milhões de relatórios de usuários a cada semana e, como outras grandes empresas do Vale do Silício, conta com milhares de monitores humanos para revisar os relatórios.

“Apesar da indústria alegar o contrário, eu não sei de qualquer mecanismo computacional que pode adequadamente, com precisão, 100 por cento fazer este trabalho em vez de seres humanos. Nós ainda não estamos lá ainda tecnologicamente “, disse Sarah Roberts, uma professora de estudos de informação na UCLA.

Os trabalhadores que monitoram o material geralmente trabalham em contrato em lugares como a Índia e as Filipinas e enfrentam condições de trabalho difíceis por causa das horas que gastam tomando decisões rápidas, disse Roberts em entrevista.

Fonte: VentureBeat