A internet está cheia de conteúdo bizarro. Pornografia infantil, necrofilia, decapitações, suicídios e muitas outras coisas que não gostaríamos de ver são jogadas lá a todo momento. Mas alguém tem de encarar as cenas e, no Google, esse trabalho está entre os mais difíceis.
O Buzzfeed conversou com um ex-empregado da gigante de buscas que fazia análise de "conteúdo sensível" para retirá-lo do ar. Em média, ele verificava 15 mil imagens por dia, em todos os produtos da companhia: Google Imagens, Picasa, Orkut, buscador etc.
No YouTube, as pessoas que fazem o trabalho ficam sentadas de oito a dez horas por dia, durante um ano, para tirar de lá qualquer coisa errada. O ex-funcionário, que não quis se identificar, disse ter conhecido um sujeito do site de vídeos do Google.
"Ele era o cara que sabia tudo sobre pornografia infantil, sabia tudo sobre decaptações. Eu trabalhei com ele muito de perto e cada vez que surgia um vídeo novo da Al-Qaeda, era o primeiro cara a vê-lo. Ele tinha que ver isso por todo mundo."
"Por sete, oito, nove meses eu fiquei olhando para esse tipo de coisa pensando que estava bem, mas estava me mandando para um lugar bem escuro", comentou o ex-funcionário. Ele só descobriu que algo ia mal quando o Google o colocou para conversar com uma agente federal.
A agente mostrou imagens de atividades aparentemente normais, em uma espécie de teste de Rorschach. Era para dizer a primeira impressão, mas suas reações nunca eram tranquilas. Então ele buscou terapia, mas o Google só pagou pela primeira consulta.
Tanto ele quanto o amigo foram demitidos após um ano de empresa. O Buzzfeed diz que este é o tempo normal, depois a companhia decide se efetiva ou não. Nos dois casos, não.