COMUNIDAD MEDIATELECOM

CULTURA DIGITAL

Las máquinas ya son capaces de analizar las células cerebrales

Mediatelecom Tecnología

Publicado

en

El Economista

En los primeros días de la investigación de neurociencia, los científicos tiñeron concienzudamente las células del cerebro y dibujaron a mano lo que vieron en un microscopio. Ahora, en 2018, las máquinas pueden aprender cómo hacer ese trabajo.

Según un nuevo estudio publicado en Cell, es posible enseñar a las máquinas a distinguir las características de las neuronas y otras células que no se han manchado o sufrido otros tratamientos dañinos. El estudio fue parcialmente financiado por el Instituto Nacional de Trastornos Neurológicos y Accidentes Cerebrovasculares (NINDS), parte de los Institutos Nacionales de Salud estadounidenses.

“Este enfoque tiene el potencial de revolucionar la investigación biomédica -apunta Margaret Sutherland, directora del programa en el NINDS-. Los investigadores ahora están generando cantidades extraordinarias de datos. Para los neurocientíficos, esto significa que las máquinas de entrenamiento para ayudar a analizar esta información pueden ayudar a acelerar nuestra comprensión de cómo se juntan las células del cerebro y en aplicaciones relacionadas con el desarrollo de fármacos”.

Un plato, o cultivo, de células neuronales parece uniforme a simple vista y no se pueden ver en él las diferentes células individuales. Desde finales del siglo XIX, cuando los neurocientíficos pioneros, Santiago Ramón y Cajal y Camillo Golgi, dibujaron los primeros mapas del sistema nervioso, los científicos han estado desarrollando tintes y métodos de tinción para ayudar a distinguir las estructuras en el cerebro, incluyendo diferentes tipos de células y su estado de salud.

Sin embargo, muchos de estos métodos involucran químicos fuertes que fijan, o congelan, las células en un estado antinatural o dañan las células vivas después de que se han aplicado varios tintes. Las técnicas tradicionales también limitan los detalles que los científicos pueden observar.

Un equipo dirigido por Steven Finkbeiner, director e investigador principal de los Institutos Gladstone en San Francisco, Estados Unidos, y profesor de Neurología y Fisiología en la Universidad de California, San Francisco, exploró si se podría capacitar los ordenadores para identificar estructuras en células no teñidas. “Todos los días nuestro laboratorio creaba cientos de imágenes, mucho más de lo que podíamos ver y analizar. Un día, un par de investigadores de Google llamaron a nuestra puerta para ver si podían ayudarnos”, relata el autor principal del estudio, el doctor Finkbeiner.

Los investigadores utilizaron un método llamado Deep Learning, que se basa en los principios del aprendizaje automático, un tipo de inteligencia artificial en el que las máquinas pueden aprender de los datos y tomar decisiones. El software de reconocimiento facial es un ejemplo de aprendizaje automático. Usando Deep Learning, el equipo de Finkbeiner entrenó un programa de ordenador para analizar las células cerebrales al mostrar imágenes manchadas y no teñidas. Luego, para probar si el programa había aprendido algo, los autores lo desafiaron con nuevas imágenes sin etiqueta.

Diferenciar células muertas de vivas

Después de la primera ronda de entrenamiento, el programa identificó dónde se ubicaban las células en el plato de cultivo al aprender a detectar el núcleo de una célula, una estructura redonda que contiene información genética y sirve como centro de comando de la célula.

Durante experimentos adicionales, el equipo aumentó la complejidad de las características que el programa estaba buscando y lo entrenó con éxito para distinguir las células muertas de las células vivas, así como para identificar tipos específicos de células cerebrales. Además, el programa aprendió a diferenciar entre axones y dendritas, que son dos tipos específicos de extensiones en neuronas. El programa tuvo éxito en la predicción de estructuras en el tejido no marcado.

“Deep Learning toma un algoritmo, o un conjunto de reglas, y lo estructura en capas, identificando características simples de partes de la imagen, y luego pasa la información a otras capas que reconocen características cada vez más complejas, como patrones y estructuras. Es una reminiscencia de cómo nuestro cerebro procesa la información visual -dice Finkbeiner-. Los métodos de Deep Learning pueden descubrir mucha más información de la que se puede ver con el ojo humano”.

Finkbeiner y su equipo notaron que el principal inconveniente del uso de esta tecnología es que los conjuntos de datos de capacitación deben ser muy grandes, idealmente alrededor de 15.000 imágenes. Además, puede haber un riesgo de sobre-entrenamiento de los programas, que se vuelven tan especializados que solo pueden identificar estructuras en un conjunto particular de imágenes o en imágenes generadas de una manera particular, y no hacer predicciones sobre imágenes más generales, lo que podría limitar el uso de esta tecnología.

Finkbeiner y sus colegas planean aplicar estos métodos en la investigación centrada en la enfermedad. “Ahora que demostramos que esta tecnología funciona, podemos comenzar a utilizarla en la investigación de enfermedades. El aprendizaje profundo puede detectar algo en las células que podría ayudar a predecir los resultados clínicos y puede ayudarnos a detectar posibles tratamientos”, afirma Finkbeiner. Se necesita más investigación para refinar la tecnología y hacer que esté más ampliamente disponible.

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

CULTURA DIGITAL

La selfie es cada vez menos popular: ¿se acerca el fin?

Liliana Juárez

Publicado

en

Todo parece indicar que la euforia por publicar selfies con “cara de pato” y “miradas sexys” pronto va a desaparecer; Google Trends demostró una disminución en la publicación de este tipo de imágenes.

El rumor de la desaparición de las selfies se ha generalizado en toda la web. Tan es así, que incluso se creó un museo de selfies en Los Ángeles que documenta el auge de la autofotografía como si se tratara de una reliquia de la antigüedad.

Algunas celebridades, como Kim Kardashian West, han mencionado que las selfies prácticamente son cosas del pasado. Sin embargo, otras opiniones como la de Tommy Honton, co-fundador del museo mencionado, contrastan casi por completo.

“Las selfies son sólo otra forma de autorretrato; decir que la selfie ha muerto es como decir que la era de la fotografía ha terminado”, dice Honton.

Tommy Honton ha tratado de eliminar los prejuicios de las selfies, menciona que la exposición en el museo pretende mostrar a los invitados que no sólo se trata de un símbolo narcisista, sino de una expresión artística.

De acuerdo con Wired, algunos investigadores han llevado el estudio de la selfie más allá de lo que podríamos imaginar. Por ejemplo, la investigadora cultural Negar Mottahedeh, quien imparte una clase sobre el tema en la Universidad de Duke, asegura que este tipo de fotografía es “un objeto en red que nos conecta con otros más allá de nuestro entorno físico a través de un colectivo en línea”.

Mottahedeh señala que este tipo de foto permite hacer un registro de lo cotidiano y juega un papel fundamental en el periodismo ciudadano.

Tanto Mottahedeh como Honton coinciden en que la selfie aún tiene valor. Hotton asegura que las selfies no desaparecerán.

La histeria por la selfie pudo haber terminado, pero no morirá de manera definitiva.

 

La cultura de los memes

Negar Mottahedeh también ha investigado la cultura de los memes. Asegura que las generaciones más jóvenes están prefiriendo la cultura del meme como intervención política del momento, recontextualizando la política a través de imágenes virales y llevándolas al mundo real a través de carteles de protesta de marchas y manifestaciones.

 

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Los robots ya pueden sentir empatía

La tecnología está eliminando los límites que diferencian a los humanos de los androides

Mediatelecom Tecnología

Publicado

en

El País-Raya A. Jones

La premisa de la famosa novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas?, que se publicó por primera vez en marzo de 1968, es que la empatía define nuestra humanidad. La novela y la película directamente inspirada en ella – Blade Runner de Ridley Scott – describen a unos androides que son indistinguibles de los seres humanos y a los que solo se les puede descubrir mediante el test de empatía de Voight-Kampff, una especie de detector de mentiras.

En la novela – que está ambientada en 1992, un año futurista en la época en que se publicó – la gente necesitaba máquinas para desarrollar su empatía. Se registraba en una “máquina de la empatía” que a su vez la conectaba al sufrimiento de una figura casi religiosa. Un “órgano del estado de ánimo” doméstico controlaba los estados de ánimo y las motivaciones de la gente según un número que se marcaba en él.

Y también se suponía que todo el mundo tenía que cuidar a una criatura. Como los animales estaban casi extinguidos en ese mundo apocalíptico post-nuclear, la gente compraba criaturas artificiales para cuidarlas. Hacia el final de la novela, el personaje principal, Deckard, encuentra un sapo en el campo y cree que es de verdad. Su mujer confirma que el sapo es falso y compra moscas artificiales para “alimentarlo”.

La tecnología actual dista mucho de poder crear androides que sean indistinguibles de los seres humanos, pero parece que los investigadores de robótica se hallan cerca de construir máquinas capaces de sentir empatíaUn artículo científico de 2011 describía un procedimiento experimental en el que un sujeto humano que llevaba una red de sensores de la actividad cerebral en el cuero cabelludo realizaba varias tareas. El robot (llamado ROBERT) detectaba el esfuerzo mental de la persona usando los sensores y proporcionaba información verbal (de texto a voz de una base de datos de información personal) sobre los alumnos con los que la persona se encontraba, en diferentes estilos según el nivel de actividad mental.

Pero esa no es la clase de empatía que Dick tenía en mente. Cuando los científicos hablan de empatía, se centran en la empatía cognitiva, llamada a veces “teoría de la mente”. Es la capacidad para entender las opiniones, los sentimientos y las intenciones de los demás. No significa sentir simpatía o compasión. En 2015, un robot llamado Pepper suscitó mucha atención por su capacidad para leer las expresiones emocionales de las personas y “ofrecer un contenido apropiado”. Pepper se expresa cambiando el color de sus ojos y de la tableta o el tono de voz. Sin embargo, esto no significa que el propio Pepperpueda sentir emociones.

Cuando los científicos hablan de empatía, se centran en la empatía cognitiva, llamada a veces “teoría de la mente”. Es la capacidad para entender las opiniones, los sentimientos y las intenciones de los demás. No significa sentir simpatía o compasión

El hecho de tener esta teoría de la mente también permite a los seres humanos engañar a otras personas, algo que los androides de Dick hacían al hacerse pasar por un humano. Entonces ¿qué pasa con los robots del mundo real? ¿Son lo suficientemente buenos como para engañar?

En septiembre de 2010, New Scientistinformó de que el coche robot ROVIO había engañado a su rival en un juego del escondite, un logro que el artículo describía como “un paso hacia la creación de máquinas que puedan intuir nuestros pensamientos y sentimientos y nuestras intenciones”. Sin embargo, un experto señalaba que esto “era muy diferente de la teoría de la mente humana”, porque lo que había hecho ROVIO era muy específico de la tarea y no demostraba el concepto generalizado del engaño que tienen los humanos.

Las apariencias no engañan

Existe una enorme diferencia entre lo que los robots pueden hacer y lo que los seres humanos hacen en lo que se refiere a la empatía. Sin embargo, una importante distinción entre el futuro en el que estamos entrando y el futuro imaginado en la novela de Dick puede ser el hecho de que los robots sociales del mundo real no sean “replicantes”. Muchos diseñadores de robots prefieren las formas animadas, ya que esto evita el efecto del “valle inquietante” identificado por el experto en robótica japonés Masahiro Mori. Esta teoría mantiene que los artefactos muy humanoides pueden provocar una sensación de miedo o de repulsión en los seres humanos de verdad.

Los diseñadores optan por las formas animadas porque también son divertidas, especialmente para los niños, como por ejemplo el robot Tegadescrito como un cruce entre un Furby y un Teletubby. Tega se presenta como un robot de compañía que puede ser un buen ejemplo para los niños cuando se programa con comportamientos adecuados.

Muchos diseñadores de robots prefieren las formas animadas, ya que esto evita el efecto del “valle inquietante” identificado por el experto en robótica japonés Masahiro Mori

Algunos desarrolladores prefieren usar para estas máquinas el término “robot de asistencia social”, en contraposición con el de “robot social”. Su objetivo es ayudar a los cuidadores, a los terapeutas y a los profesores en su trabajo. Uno de esos “ayudantes sociales” es Paro, que parece un bebé de foca y se usa como alternativa a la terapia con animales de compañía en residencias de la tercera edad.

Otro de los usos prometedores de este tipo de robots es el trabajo terapéutico con niños autistas. El autismo se asocia a las dificultades para interpretar las convenciones sociales y para interactuar con los demás. Los estudios han demostrado que los juegos que se juegan con un adulto o con otro niño a través de un robot, como Kaspar, con aspecto de muñeca, pueden ayudar a los niños autistas a salir de su caparazón.

Parece inevitable que los robots entren en nuestras vidas, pero existen opiniones divididas sobre si es lo mejor para la humanidad. Sus defensores inciden en las ventajas para el aprendizaje. Sin embargo, los estudios indican que los niños que crecen inmersos en la tecnología podrían ser menos propensos a considerar que los animales vivos tienen derecho a que no les hagan daño.

La premisa de ¿Sueñan los androides con ovejas eléctricas? era que la empatía diferencia a los seres humanos de los androides. Sin duda, la tecnología está eliminando este límite, pero sea lo que sea lo que el futuro depare a la humanidad, la novela de Dick sigue siendo un relato conmovedor sobre lo que significa ser realmente humano.

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Tu ‘cadáver digital’ también debería ser enterrado

Varios expertos apuntan a que los restos online deben tratarse con el mismo respeto y cuidado que los restos mortales

Mediatelecom Tecnología

Publicado

en

El Mundo-Europa Press

Las pautas sobre restos humanos en exposiciones arqueológicas pueden ser un marco para regular la creciente industria del ‘más allá digital‘, y que el uso comercial de restos digitales sea más ético.

Un estudio, publicado en ‘Nature’ por Luciana Floridi, profesora de filosofía y ética de la información y director del laboratorio de ética digital de Oxford, concluye que los restos en línea deben considerarse como una extensión de el cuerpo humano, y deben ser tratados con el mismo nivel de cuidado y respeto, en lugar de manipularlo con fines comerciales.

Nuestra actividad en Internet vive mucho después de la muerte y empresas como Facebook y otras han intentado monetizar este contenido permitiendo que las personas socialicen con los muertos en línea, a través de funerales en vivo, páginas conmemorativas en línea e incluso chat-bots que utilizan las huellas de las redes sociales de las personas para actuar como fantasmas en línea. Como resultado, la industria del más allá digital (DAI) se ha convertido en un gran negocio.

El nuevo estudio sugiere que la regulación es la mejor manera de lograr esto y destaca los marcos utilizados para regular el uso comercial de restos humanos orgánicos como un buen modelo para construir.

Un documento de particular interés es el Código de ética profesional del Consejo Internacional de Museos (ICOM). El texto advierte que los restos humanos deben manejarse de acuerdo con su ‘dignidad humana’ inviolable. Un elemento central de este concepto es el hecho de que se aplica independientemente de si el paciente es consciente o no, tanto para individuos como para grupos. Un factor que ha demostrado ser clave para el proceso de repatriación permanece de grupos marginados y previamente colonizados, como las Primeras Naciones.

El código establece explícitamente que la dignidad humana requiere que los restos digitales sean vistos como los cuerpos informativos del difunto y considerados como un valor inherente. Por lo tanto, no deben utilizarse únicamente con fines comerciales, como los beneficios.

Al recomendar un marco para la regulación, el estudio identifica cuatro industrias de vida futura digital; servicios de gestión de la información, servicios de mensajería póstuma, servicios memoriales en línea y servicios de recreación, que utilizan la huella digital de una persona para generar nuevos mensajes que reproducen el comportamiento en línea del difunto.

La profesora Luciana Floridi dijo: “Los restos humanos no están destinados a ser consumidos por los morbosos curiosos. Independientemente de si son el único propietario legal de los datos del fallecido, e independientemente de si la opinión de sus familiares, con la regulación, las firmas DAI tendrían que cumplir con ciertas convenciones, como evitar el discurso de odio y la explotación comercial de perfiles memorializados”.

Bajo estas regulaciones, las empresas deberían por lo menos garantizar que los consumidores estén informados sobre cómo se pueden usar o mostrar sus datos en caso de fallecimiento.

CLIC PARA SEGUIR LEYENDO
Advertisement

INSTACHART

DÍA A DÍA

abril 2018
L M X J V S D
« Mar    
 1
2345678
9101112131415
16171819202122
23242526272829
30  

Trending

Bitnami