COMUNIDAD MEDIATELECOM

CULTURA DIGITAL

“Pornografía infantil, violencia gráfica… tienes que estar preparado para ver cualquier cosa”: la experiencia de una moderadora de Facebook

Mediatelecom Tecnología

Publicado

en

BBC Mundo

Este artículo contiene descripciones de abuso sexual infantil y otros actos que podrían herir la sensibilidad de algunos lectores.

“Es principalmente pornografía”, dice Sarah Katz, recordando los ocho meses en los que trabajó como moderadora de Facebook.

“La agencia fue muy directa sobre qué tipo de contenido veríamos y qué tan gráfico era, así que sabíamos a lo que nos enfrentábamos”, aclara.

Katz se refiere a la agencia de moderadores humanos con sede en California, Estados Unidos, que Facebook y otras empresas subcontrataban. Para ella trabajó en 2016.

Su tarea consistía en revisar las quejas sobrecontenido inapropiado que llegaban de los usuarios de Facebook.

Y no era fácil, según le cuenta a Emma Barnett, periodista de BBC Radio 5 Live.

“Nos daban alrededor de un minuto por publicación para decidir si era spam y había que eliminarlo”, empieza a explicar.

“A veces también borrábamos la cuenta asociada”, añade.

“A la gerencia le gustaba que no trabajáramos más de ocho horas por día y que revisábamos un promedio de 8.000 publicaciones por día, 1.000 por hora”, prosigue.

Reconoció que aprendió bastante, pero dijo que si tuviera que describir su trabajo con una sola palabra, sería “extenuante”.

Imágenes ilegales

“Definitivamente tienes que estar preparado para ver cualquier cosa con solo un clic. Las imágenes te llegan rápido, sin previo aviso”, dice.

Y la que más le impactó era una fotografía que sugería pornografía infantil.

“Era de un niño y una niña. El niño tenía unos 12 años y la niña unos ocho o nueve, y estaban de pie uno frente al otro”, la describe.

“No llevaban pantalones y se tocaban entre sí. Parecía que un adulto les estaba diciendo qué hacer. Era muy perturbador, sobre todo porque se notaba que era real”.

Publicaciones que se repiten

“Muchas de estas publicaciones explícitas circulaban continuamente. A menudo las veíamos proceder de seis cuentas distintas al día, por lo que era bastante difícil hallar la fuente original”, recuerda.

“Por aquel entonces no había servicios de asesoramiento y ayuda psicológica. Puede que hoy sí existan, no estoy segura”.

La exmoderadora reconoce que, de habérsela ofrecido, hubiera aceptado la ayuda.

“Definitivamente te advierten, pero estar advertido y verlo son dos cosas diferentes”, subraya.

“Algunas piensan que pueden manejarlo y resulta que no pueden, porque la realidad es peor que lo que esperaban”.

Violencia gráfica

Katz reconoce que los moderadores suelen volverse “bastante insensibles” con el tiempo. “No diría que se hace más fácil, pero definitivamente te acostumbras”, matiza.

“Obviamente, había mucha pornografía genérica entre adultos, lo cual no era tan perturbador”, explica.

En alguno de esos contenidos se incluían animales. “Había una imagen con un caballo que circulaba continuamente”, recuerda.

Y también se encontró con mucha violencia gráfica. “Me acuerdo de una publicación en la que a una mujer le reventaban la cabeza”, cuenta.

“La mitad de su cuerpo estaba en el suelo y la otra mitad, el torso, en una silla”, la describe.

“La política era más estricta para eliminar la pornografía que para la violencia gráfica”.

Noticias falsas

“Creo que a Facebook las noticias falsas lo pillaron por sorpresa”, dice Katz. “Durante la campaña para las elecciones de Estados Unidos era algo que estaba fuera del radar, al menos en el tiempo en el que yo trabajé allí”.

“Realmente no recuerdo haber escuchado nunca el término ‘noticias falsas'”, asegura.

“Circulaban una gran cantidad de artículos que fueron denunciados por los usuarios, pero no recuerdo que la gerencia nos pidiera que verificáramos que los hechos que recogían aquellos textos eran precisos”, se justifica.

En general, el trabajo resultaba monótono. “Realmente te acostumbras a identificar lo que es spam y lo que no. Simplemente se convierte en un montón de clics”.

Preguntada por si lo recomendaría, es tajante: “Si puedes hacer cualquier otra cosa, te diría que no”.

La respuesta de Facebook

La BBC compartió la historia de Katz con Facebook.

En respuesta, un portavoz de la empresa creada por Mark Zuckerberg dijo: “Nuestros revisores desempeñan un papel crucial para hacer de Facebook un entorno seguro y abierto”.

“Este puede ser un trabajo muy desafiante, y queremos asegurarnos de que se sientan debidamente respaldados”, añadió.

“Es por eso que ofrecemos capacitación regular, asesoramiento y apoyo psicológico a todos nuestros empleados y a todos los que trabajan para nosotros a través de nuestros socios, aseguró.

“Aunque usamos inteligencia artificial cuando podemos, ahora hay más de 7.000 personas que revisan el contenido en Facebook, y cuidar de su bienestar es una verdadera prioridad para nosotros”.

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

CULTURA DIGITAL

Estudio revela que adolescentes podrían no querer pasar tanto tiempo en sus dispositivos móviles

Los adolescentes encuestados dijeron que prefieren pasar tiempo haciendo otras actividades que en sus teléfonos inteligentes

Carolina Valdovinos

Publicado

en

Una encuesta realizada por Screen Education, una asociación sin fines de lucro enfocada a reducir el tiempo en pantalla, descubrió que la mayoría de los adolescentes están de acuerdo con dejar de lado sus dispositivos móviles por un rato.

La encuesta se realizó a jóvenes de entre 13 y 18 años y reveló una ansiedad generalizada sobre el uso del teléfono, desde presión por contestar las notificaciones de inmediato hasta la sensación de estar agobiado por la cantidad de mensajes e información que reciben.

Se encontraron también resultados mixtos en donde 65 por ciento dijo que desea limitar su tiempo en pantalla y, por otro lado, 69 por ciento dijo haber reducido con éxito su tiempo en sus teléfonos.

Recomendado: La OMS declara la adicción a los videojuegos como enfermedad mental

También reveló el deseo de los adolescentes de reducir el tiempo frente a la pantalla.

La encuesta también generalizó hallazgos preocupantes sobre asuntos relacionados con la intimidación en línea, chismes, drama, socialización, ambiente de aprendizaje en la escuela y rendimiento académico.

El 73 por ciento considera que el uso de las redes sociales contribuyen a condiciones que desembocan en tiroteos en las escuelas, mientras que 36 por ciento son testigos de intimidación en línea.

Te interesa: El lado oscuro de la tecnología: la adicción

Por supuesto, no sólo los adolescentes están en conflicto pues se estima que la mayoría de las personas controlan su dispositivo aproximadamente 47 veces por día.

Sin embargo, los esfuerzos por limitar el tiempo en teléfonos parece no funcionar, pues según estimaciones de eMarketer, el adulto promedio de EE.UU. gastará al menos 215 minutos por día con dispositivos móviles y se espera que el tiempo aumente en los siguientes años.

CLIC PARA SEGUIR LEYENDO

Apps

Los cambios de Twitter empiezan a afectar a las aplicaciones de terceros

Tweetbot ha sido la primera víctima del cambio en la API de la red de microblogging que mataría a las aplicaciones de terceros.

Mediatelecom Tecnología

Publicado

en

Aunque entrarían en vigor a partir del 16 de agosto, los cambios en la API de Twitter anunciados desde hace meses que afectarían a las aplicaciones de terceros han comenzado a tener efectos un día antes de ser implementados.

Tapbots ha lanzado una actualización de la versión de Tweetbot para iOS este miércoles, en la cual eliminó varias características presentes en la aplicación por años. Entre ellas, ha desactivado la línea de tiempo que se transmite por Wi-Fi, por lo que las líneas de tiempo de Twitter se actualizarán cada uno o dos minutos en lugar de aparecer los nuevos tweets.

Otras de las funciones que tienen un retraso de minutos son las notificaciones automáticas para menciones y mensajes directos. En tanto, las notificaciones para me gusta, retweets, seguimientos y citas han sido deshabilitadas. Las pestañas de Actividad y Estadísticas también han sido eliminadas de la app, así como la app de Apple Watch.

Los cambios en la versión beta pueden no ser grandes pero sí hay una demora notable, según ha reportado Mac Rumors.

En tanto, Tweetbot para Mac todavía no ha sido actualizada, pero los cambios también deberían llegar pronto a la aplicación de escritorio. No obstante, Tapbotsasegura que está averiguando la posibilidad de volver a agregar algunas de estas opciones de notificación.

La app pidió disculpas por los cambios, pero recordó que se deben a que Twitter no les ofreció otra alternativa:

El 16 de agosto, Twitter desactivará partes de su interfaz pública que usamos en Tweetbot. Debido a que Twitter ha elegido no proporcionar alternativas a estas interfaces, nos hemos visto obligados a desactivar o degradar ciertas características. Lo lamentamos, pero desafortunadamente esto está fuera de nuestro control.

Aunque Tweetbot ha sido la primera, todas las demás aplicaciones de terceros como Tweetings o Talon se verán afectadas por cambios similares a partir de este 16 de agosto. Twitterrific ya también ha eliminado las mismas funciones que se han desactivado en Tweetbot a causa de las nuevas limitaciones de Twitter.

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Así es como Facebook detectará y se protegerá de las cuentas falsas

Previo a unas nuevas elecciones en los Estados Unidos, Facebook anunció las nueva medidas de seguridad que implementarán para encontrar cuentas falsas

Mediatelecom Tecnología

Publicado

en

FayerWayer-Miguel Reyes

A solo unos meses de las elecciones de medio término en los Estados UnidosFacebook ha decidido implementar nuevas medidas de seguridad para combatir las cuentas falsas y las campañas de desinformación que plagan a la plataforma. En el proceso, mejorarán la seguridad para toda la plataforma, y facilitarán la identificación de esta clase de cuentas.

Facebook se prepara para luchar contra las fake news

Se tratan de nuevos procesos de autorización que planean implementar para aquellos usuarios que administren grupos y páginas. Analizando la nacionalidad de la mayoría de los seguidores del grupo, así como su contenido, Facebook pedirá a los administradores que se verifiquen con la empresa. No solo su identidad, sino también su ubicación prioritaria.

Después de estas verificaciones, la página que administran mostrará en un nuevo apartado la ubicación desde donde se administra la página. Si cuenta con varios administradores, mostrará la ubicación principal promedio, así como la ubicación (general, no específica) de cada uno de ellos.

Ademas, para poder continuar administrando sus páginas, Facebook ahora exigirá la autenticación de dos pasos a todos los usuarios administradores cada vez que inicien sesión.

el equipo de Facebook prestará especial atención durante este periodo

En caso de encontrar una discrepancia entre la audiencia, el tipo de contenido, y la ubicación de los administradores, se marcará para investigación humana por el equipo de Facebook, para poder así eliminar aquellos grupos que puedan haber sido creados para distorsionar la visión de sus seguidores acerca de asuntos políticos y sociales. Es decir, para eliminar las Fake News que ya abundan en la plataforma.

Estas medidas fueron anunciadas aproximadamente una semana después de que Facebook anunciara que había identificado una nueva campaña organizada de influencia extranjera sobre los posibles votantes estadounidenses . Esa semana, se eliminaron 32 páginas de Facebook e Instagram, así que se espera que estas medidas de seguridad también se presenten en la segunda plataforma social.

CLIC PARA SEGUIR LEYENDO
Advertisement

DÍA A DÍA

febrero 2018
L M X J V S D
« Ene   Mar »
 1234
567891011
12131415161718
19202122232425
262728  

Trending

Bitnami