COMUNIDAD MEDIATELECOM

CULTURA DIGITAL

‘Deepfakes’: ahora su cara podría estar en un video porno

Mediatelecom Tecnología

Publicado

en

El Tiempo, Linda Patiño

La aparición de videos pornográficos creados con inteligencia artificial, denominados ‘deepfakes’, que ponen las los rostros de artistas como Emma Watson y Gal Gadot en escenas de sexo explícito, encendió las alarmas de quienes combaten el mal llamado ‘porno de venganza’.

Mal llamado, porque se trata en realidad de la distribución de imágenes sexuales de una persona sin su consentimiento. Es una práctica que suele alimentarse de fotos o videos que, aunque reales, no estaban pensados para ser publicados. La inteligencia artificial lleva las cosas a otro nivel.

Una expresión de dicho nivel es la aparición de FakeApp, una ‘app’ que permite animar, a partir de fotos, el rostro de una persona. Luego genera una versión digital que puede sobreponerse en cualquier video. Sus creadores dicen que buscaba ser un juego (en su sitio web hay un clip en el que la cara de Nicholas Cage se usa en escenas de cintas como ‘Man of Steel’ y ‘Raiders of the Lost Ark’) y no una herramienta para el porno. De hecho, la ‘app’ se asemeja a la función de Snapchat que permite intercambiar dos rostros en una fotografía, solo que el resultado es mucho más realista y se adapta al movimiento.

En rigor, cambiar la cara de alguien por la de otra persona no es (ni moral o legalmente) una agresión. Pero al usar esta capacidad para hacer pornografía que parece real, cualquiera podría hallar videos ‘suyos’ en la red sin su consentimiento.

Por eso, activistas de los derechos a la honra y a la privacidad han advertido que se abre un nuevo frente de batalla, pues temen que esa capacidad de poner rostros sobre cuerpos de actores porno termine por impactar no solo a famosos, sino que también pueda usarse para difamar a cualquier persona, al usar su imagen y ponerla en situaciones a las que nunca accedió.

Para Mónica Echeverría, directora del Observatorio de Medios y Género de la Universidad Central, el caso de FakeApp es una violación a la intimidad.

“Aunque no es una afectación exclusiva de mujeres, sin duda, ellas son las más afectadas por este tipo de violencia. No se va a tratar solo de mujeres mediáticas, sino que también puede afectar a universitarias, profesoras y mujeres en las oficinas”,aseguró.

Esto es así porque, aunque FakeApp requiere un considerable número de imágenes (más de 500) para lograr un grado aceptable de realismo, fotos y videos pueden conseguirse en abundancia a través de redes sociales.

Por ahora, la batalla contra estos videos se ha dado en las mismas plataformas en las que se multiplicaron. Los ‘deepfakes’ ya fueron prohibidos por redes como Twitter, sitios porno como Pornhub y hasta en Reddit, donde todo comenzó.

Las fuentes consultadas también aseguran que la sextorsión (práctica que busca que una persona haga determinada acción para evitar la difusión de imágenes sexuales) también puede agravarse con el uso de este tipo de herramientas.

El respaldo jurídico

Según Eliana Riaño, el impacto de la difusión de imágenes –ya sean reales o montajes– que exponen sin su consentimiento la intimidad de una persona es devastador. Algunas víctimas se ven forzadas a abandonar sus trabajos, hogares, escuelas e incluso países donde residen. Es una alarmante realidad que una creciente proporción de casos afecta a menores de edad.

Estefanía Piñeros, abogada y miembro del colectivo Parceras, asegura que la capacidad de estas tecnologías les da el potencial de ser usadas para chantajes, extorsiones y otros delitos.

Para quienes han sido víctimas de este tipo de conductas, Piñeros asegura que existen líneas de denuncia como la red Te Protejo, para víctimas menores de edad, y el CAI virtual de la policía. De esa manera, la división especializada puede investigar el origen del video y tomar las medidas correspondientes. Según la Dijín, esos casos son investigados por la afectación a la honra y la buena imagen.

La ley colombiana está atrasada con respecto a otros países en este renglón. Nuestro país tiene una ley de delitos informáticos y se contemplan penas por “acceso abusivo a sistemas informáticos” y “violación de datos personales”. No existe, sin embargo, una previsión específica acerca de distribución de imágenes sexuales sin consentimiento.

Entre las leyes que protegen la identidad y los datos de las personas en la web se destaca la ley 1273 del 2009, que modificó el código penal para incluir tipificaciones relacionadas a los ciberdelitos.

En el caso de las mujeres, la defensa podría incluir el enfoque de género consagrado en la ley 1257 del 2008.

Otra posibilidad en Bogotá –dice Piñeros– es acudir a la Secretaría Distrital de la Mujer, que cuenta con abogadas especializadas en todas las temáticas digitales.

Pero es mejor prevenir. Según Sara Fratti, analista de políticas públicas de la ONG Ipandetec, que promueve la regulación de las tecnologías de la información y la defensa de los Derechos Humanos en entornos digitales, un factor clave para la autoprotección es, al momento de capturar escenas de carácter íntimo, dejar claro el consentimiento.

“El contenido (texto, fotos o videos) únicamente es para la otra persona y esa persona debe respetar tu decisión de que el contenido deba permanecer privado”, indicó.

Además de evitar mandar imágenes a desconocidos, es importante el uso de herramientas seguras para esa actividad. Ni Facebook, ni WhatsApp, ni Snapchat ni Skype son recomendables. Existen plataformas que informan cuándo se hace una captura de pantalla. Algunas herramientas recomendadas son Telegram o Signal, que tienen chats secretos con posibilidad de programar su autodestrucción después de tres segundos. Para videollamadas, Jitsi ofrece encriptación punto a punto. Para borrado seguro, existe Secure Delete.

“Tomar medidas de seguridad en lo digital se equipara a usar anticonceptivos. Es importante tener control de la tecnología y no que esta tenga el control sobre nuestros cuerpos” explicó.

Las medidas de las redes sociales

Además de la propagación de noticias falsas, los mensajes de odio y la transmisión en vivo de escenas violentas, las redes sociales se enfrentan a un nuevo reto: evitar que este tipo de contenidos en el que se superpone el rostro de una persona en videos porno se comparta en sus plataformas. Pero las compañías han decidido tomar medidas antes de que el tema pueda salirse de control. Reddit eliminó el foro donde fueron compartidos inicialmente los videos falsos de famosas y prohibió la publicación de imágenes sexuales sin el consentimiento de la persona. Twitter hará lo mismo y dijo que eliminará los contenidos creados por algoritmos ‘deepfake’. Mientras tanto, otras plataformas, como Pornhub, invitaron a sus usuarios a denunciar la presencia de estos videos en sus espacios.

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

CULTURA DIGITAL

La selfie es cada vez menos popular: ¿se acerca el fin?

Liliana Juárez

Publicado

en

Todo parece indicar que la euforia por publicar selfies con “cara de pato” y “miradas sexys” pronto va a desaparecer; Google Trends demostró una disminución en la publicación de este tipo de imágenes.

El rumor de la desaparición de las selfies se ha generalizado en toda la web. Tan es así, que incluso se creó un museo de selfies en Los Ángeles que documenta el auge de la autofotografía como si se tratara de una reliquia de la antigüedad.

Algunas celebridades, como Kim Kardashian West, han mencionado que las selfies prácticamente son cosas del pasado. Sin embargo, otras opiniones como la de Tommy Honton, co-fundador del museo mencionado, contrastan casi por completo.

“Las selfies son sólo otra forma de autorretrato; decir que la selfie ha muerto es como decir que la era de la fotografía ha terminado”, dice Honton.

Tommy Honton ha tratado de eliminar los prejuicios de las selfies, menciona que la exposición en el museo pretende mostrar a los invitados que no sólo se trata de un símbolo narcisista, sino de una expresión artística.

De acuerdo con Wired, algunos investigadores han llevado el estudio de la selfie más allá de lo que podríamos imaginar. Por ejemplo, la investigadora cultural Negar Mottahedeh, quien imparte una clase sobre el tema en la Universidad de Duke, asegura que este tipo de fotografía es “un objeto en red que nos conecta con otros más allá de nuestro entorno físico a través de un colectivo en línea”.

Mottahedeh señala que este tipo de foto permite hacer un registro de lo cotidiano y juega un papel fundamental en el periodismo ciudadano.

Tanto Mottahedeh como Honton coinciden en que la selfie aún tiene valor. Hotton asegura que las selfies no desaparecerán.

La histeria por la selfie pudo haber terminado, pero no morirá de manera definitiva.

 

La cultura de los memes

Negar Mottahedeh también ha investigado la cultura de los memes. Asegura que las generaciones más jóvenes están prefiriendo la cultura del meme como intervención política del momento, recontextualizando la política a través de imágenes virales y llevándolas al mundo real a través de carteles de protesta de marchas y manifestaciones.

 

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Los robots ya pueden sentir empatía

La tecnología está eliminando los límites que diferencian a los humanos de los androides

Mediatelecom Tecnología

Publicado

en

El País-Raya A. Jones

La premisa de la famosa novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas?, que se publicó por primera vez en marzo de 1968, es que la empatía define nuestra humanidad. La novela y la película directamente inspirada en ella – Blade Runner de Ridley Scott – describen a unos androides que son indistinguibles de los seres humanos y a los que solo se les puede descubrir mediante el test de empatía de Voight-Kampff, una especie de detector de mentiras.

En la novela – que está ambientada en 1992, un año futurista en la época en que se publicó – la gente necesitaba máquinas para desarrollar su empatía. Se registraba en una “máquina de la empatía” que a su vez la conectaba al sufrimiento de una figura casi religiosa. Un “órgano del estado de ánimo” doméstico controlaba los estados de ánimo y las motivaciones de la gente según un número que se marcaba en él.

Y también se suponía que todo el mundo tenía que cuidar a una criatura. Como los animales estaban casi extinguidos en ese mundo apocalíptico post-nuclear, la gente compraba criaturas artificiales para cuidarlas. Hacia el final de la novela, el personaje principal, Deckard, encuentra un sapo en el campo y cree que es de verdad. Su mujer confirma que el sapo es falso y compra moscas artificiales para “alimentarlo”.

La tecnología actual dista mucho de poder crear androides que sean indistinguibles de los seres humanos, pero parece que los investigadores de robótica se hallan cerca de construir máquinas capaces de sentir empatíaUn artículo científico de 2011 describía un procedimiento experimental en el que un sujeto humano que llevaba una red de sensores de la actividad cerebral en el cuero cabelludo realizaba varias tareas. El robot (llamado ROBERT) detectaba el esfuerzo mental de la persona usando los sensores y proporcionaba información verbal (de texto a voz de una base de datos de información personal) sobre los alumnos con los que la persona se encontraba, en diferentes estilos según el nivel de actividad mental.

Pero esa no es la clase de empatía que Dick tenía en mente. Cuando los científicos hablan de empatía, se centran en la empatía cognitiva, llamada a veces “teoría de la mente”. Es la capacidad para entender las opiniones, los sentimientos y las intenciones de los demás. No significa sentir simpatía o compasión. En 2015, un robot llamado Pepper suscitó mucha atención por su capacidad para leer las expresiones emocionales de las personas y “ofrecer un contenido apropiado”. Pepper se expresa cambiando el color de sus ojos y de la tableta o el tono de voz. Sin embargo, esto no significa que el propio Pepperpueda sentir emociones.

Cuando los científicos hablan de empatía, se centran en la empatía cognitiva, llamada a veces “teoría de la mente”. Es la capacidad para entender las opiniones, los sentimientos y las intenciones de los demás. No significa sentir simpatía o compasión

El hecho de tener esta teoría de la mente también permite a los seres humanos engañar a otras personas, algo que los androides de Dick hacían al hacerse pasar por un humano. Entonces ¿qué pasa con los robots del mundo real? ¿Son lo suficientemente buenos como para engañar?

En septiembre de 2010, New Scientistinformó de que el coche robot ROVIO había engañado a su rival en un juego del escondite, un logro que el artículo describía como “un paso hacia la creación de máquinas que puedan intuir nuestros pensamientos y sentimientos y nuestras intenciones”. Sin embargo, un experto señalaba que esto “era muy diferente de la teoría de la mente humana”, porque lo que había hecho ROVIO era muy específico de la tarea y no demostraba el concepto generalizado del engaño que tienen los humanos.

Las apariencias no engañan

Existe una enorme diferencia entre lo que los robots pueden hacer y lo que los seres humanos hacen en lo que se refiere a la empatía. Sin embargo, una importante distinción entre el futuro en el que estamos entrando y el futuro imaginado en la novela de Dick puede ser el hecho de que los robots sociales del mundo real no sean “replicantes”. Muchos diseñadores de robots prefieren las formas animadas, ya que esto evita el efecto del “valle inquietante” identificado por el experto en robótica japonés Masahiro Mori. Esta teoría mantiene que los artefactos muy humanoides pueden provocar una sensación de miedo o de repulsión en los seres humanos de verdad.

Los diseñadores optan por las formas animadas porque también son divertidas, especialmente para los niños, como por ejemplo el robot Tegadescrito como un cruce entre un Furby y un Teletubby. Tega se presenta como un robot de compañía que puede ser un buen ejemplo para los niños cuando se programa con comportamientos adecuados.

Muchos diseñadores de robots prefieren las formas animadas, ya que esto evita el efecto del “valle inquietante” identificado por el experto en robótica japonés Masahiro Mori

Algunos desarrolladores prefieren usar para estas máquinas el término “robot de asistencia social”, en contraposición con el de “robot social”. Su objetivo es ayudar a los cuidadores, a los terapeutas y a los profesores en su trabajo. Uno de esos “ayudantes sociales” es Paro, que parece un bebé de foca y se usa como alternativa a la terapia con animales de compañía en residencias de la tercera edad.

Otro de los usos prometedores de este tipo de robots es el trabajo terapéutico con niños autistas. El autismo se asocia a las dificultades para interpretar las convenciones sociales y para interactuar con los demás. Los estudios han demostrado que los juegos que se juegan con un adulto o con otro niño a través de un robot, como Kaspar, con aspecto de muñeca, pueden ayudar a los niños autistas a salir de su caparazón.

Parece inevitable que los robots entren en nuestras vidas, pero existen opiniones divididas sobre si es lo mejor para la humanidad. Sus defensores inciden en las ventajas para el aprendizaje. Sin embargo, los estudios indican que los niños que crecen inmersos en la tecnología podrían ser menos propensos a considerar que los animales vivos tienen derecho a que no les hagan daño.

La premisa de ¿Sueñan los androides con ovejas eléctricas? era que la empatía diferencia a los seres humanos de los androides. Sin duda, la tecnología está eliminando este límite, pero sea lo que sea lo que el futuro depare a la humanidad, la novela de Dick sigue siendo un relato conmovedor sobre lo que significa ser realmente humano.

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Tu ‘cadáver digital’ también debería ser enterrado

Varios expertos apuntan a que los restos online deben tratarse con el mismo respeto y cuidado que los restos mortales

Mediatelecom Tecnología

Publicado

en

El Mundo-Europa Press

Las pautas sobre restos humanos en exposiciones arqueológicas pueden ser un marco para regular la creciente industria del ‘más allá digital‘, y que el uso comercial de restos digitales sea más ético.

Un estudio, publicado en ‘Nature’ por Luciana Floridi, profesora de filosofía y ética de la información y director del laboratorio de ética digital de Oxford, concluye que los restos en línea deben considerarse como una extensión de el cuerpo humano, y deben ser tratados con el mismo nivel de cuidado y respeto, en lugar de manipularlo con fines comerciales.

Nuestra actividad en Internet vive mucho después de la muerte y empresas como Facebook y otras han intentado monetizar este contenido permitiendo que las personas socialicen con los muertos en línea, a través de funerales en vivo, páginas conmemorativas en línea e incluso chat-bots que utilizan las huellas de las redes sociales de las personas para actuar como fantasmas en línea. Como resultado, la industria del más allá digital (DAI) se ha convertido en un gran negocio.

El nuevo estudio sugiere que la regulación es la mejor manera de lograr esto y destaca los marcos utilizados para regular el uso comercial de restos humanos orgánicos como un buen modelo para construir.

Un documento de particular interés es el Código de ética profesional del Consejo Internacional de Museos (ICOM). El texto advierte que los restos humanos deben manejarse de acuerdo con su ‘dignidad humana’ inviolable. Un elemento central de este concepto es el hecho de que se aplica independientemente de si el paciente es consciente o no, tanto para individuos como para grupos. Un factor que ha demostrado ser clave para el proceso de repatriación permanece de grupos marginados y previamente colonizados, como las Primeras Naciones.

El código establece explícitamente que la dignidad humana requiere que los restos digitales sean vistos como los cuerpos informativos del difunto y considerados como un valor inherente. Por lo tanto, no deben utilizarse únicamente con fines comerciales, como los beneficios.

Al recomendar un marco para la regulación, el estudio identifica cuatro industrias de vida futura digital; servicios de gestión de la información, servicios de mensajería póstuma, servicios memoriales en línea y servicios de recreación, que utilizan la huella digital de una persona para generar nuevos mensajes que reproducen el comportamiento en línea del difunto.

La profesora Luciana Floridi dijo: “Los restos humanos no están destinados a ser consumidos por los morbosos curiosos. Independientemente de si son el único propietario legal de los datos del fallecido, e independientemente de si la opinión de sus familiares, con la regulación, las firmas DAI tendrían que cumplir con ciertas convenciones, como evitar el discurso de odio y la explotación comercial de perfiles memorializados”.

Bajo estas regulaciones, las empresas deberían por lo menos garantizar que los consumidores estén informados sobre cómo se pueden usar o mostrar sus datos en caso de fallecimiento.

CLIC PARA SEGUIR LEYENDO
Advertisement

INSTACHART

DÍA A DÍA

febrero 2018
L M X J V S D
« Ene   Mar »
 1234
567891011
12131415161718
19202122232425
262728  

Trending

Bitnami