COMUNIDAD MEDIATELECOM

CULTURA DIGITAL

Por qué la inteligencia artificial puede ser racista y machista y cómo puede evitarse

Mediatelecom Tecnología

Publicado

en

BBC Mundo-Stefania Gozzer

El investigador peruano Omar Flórez se prepara para un futuro “muy, muy cercano” en el que las calles estarán llenas de cámaras de vigilancia capaces de reconocer nuestros rostros y recabar información sobre nosotros a medida que caminemos por la ciudad.

Explica que lo harán sin nuestro permiso, ya que son espacios públicos y la mayoría no solemos taparnos la cara al salir de casa.

Nuestro rostro se convertirá en nuestra contraseña y, cuando entremos a una tienda, esta nos reconocerá e investigará datos como si somos clientes nuevos o asiduos, o en qué lugares hemos estado antes de cruzar la puerta. De toda la información que recabe, dependerá el trato que nos dé esa empresa.

Flórez quiere evitar que aspectos como nuestro género o color de piel formen parte de los criterios que esas compañías evalúen a la hora de decidir si merecemos un descuento u otra atención especial. Algo que puede suceder sin que las mismas firmas se den cuenta.

La inteligencia artificial no es perfecta: incluso si no es programado para hacerlo, el software puede aprender por su cuenta a discriminar.

Foto en la que se ve cómo funciona el software de FlórezFlórez trabaja en un algoritmo que permita reconocer rostros pero ocultando datos sensibles como la raza y el género.

Este ingeniero nacido en Arequipa hace 34 años, se doctoró en Ciencias de la Computación por la Universidad Estatal de Utah (Estados Unidos) y actualmente trabaja como investigador en el banco Capital One.

Es uno de los pocos latinoamericanos que estudia los aspectos éticos del machine learning aprendizaje automático, un proceso que define como “la capacidad de predecir el futuro con datos del pasado utilizando computadoras”.

Una tecnología basada en algoritmos que se usa para desarrollar el auto sin conductor o para detectar enfermedades como el cáncer de piel, entre otros.

Flórez está trabajando en un algoritmo que permita a las computadoras reconocer rostros pero sin poder descifrar el sexo o el origen étnico de la persona. Su sueño es que, cuando ese futuro llegue, las empresas incluyan su algoritmo en sus sistemas informáticos para evitar tomar decisiones racistas o machistas sin ni siquiera saberlo.

BBC

Siempre decimos que no podemos ser objetivos justamente porque somos humanos. Se ha intentado confiar en las máquinas para que ellas lo sean, pero parece que tampoco pueden…

Porque son programadas por un ser humano. De hecho, nos hemos dado cuenta hace poco que el algoritmo mismo es una opinión. Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo. De hecho, elegir cuál es la forma correcta de juzgar un algoritmo ya es una observación, una opinión sobre el algoritmo mismo.

Digamos que yo quiero predecir la probabilidad de que alguien vaya a cometer un crimen. Para eso recolecto fotos de las personas que han cometido crímenes, dónde viven, de qué raza son, su edad, etc. Después, utilizo esa información para maximizar la exactitud del algoritmo y que pueda predecir quién puede delinquir después o incluso dónde puede suceder el siguiente crimen. Esta predicción puede resultar en que la policía se enfoque más en zonas donde de repente hay más afrodescendientes porque hay una mayor cantidad de delitos en esa área o que empiece a detener latinos porque es muy probable que no tengan documentos en regla.

Entonces, para alguien que sí tenga residencia legal o sea afrodescendiente y viva en esa zona pero no cometa crímenes, será el doble de difícil desprenderse de ese estigma del algoritmo. Porque para el algoritmo tú eres parte de una familia o una distribución, así que es mucho más difícil para ti, estadísticamente, salir de esa familia o distribución. De alguna forma, estás influenciado negativamente por la realidad que te rodea. Básicamente, hasta ahora, hemos estado codificando los estereotipos que nosotros tenemos como seres humanos.

Rostro de un hombre y de una mujer difuminadoEl sueño del investigador peruano es que en el futuro las empresas que usen programas de reconocimiento de rostro empleen su algoritmo.

Ese elemento subjetivo está en los criterios que elegiste a la hora de programar el algoritmo.

Exactamente. Existe una cadena de procesos para hacer un algoritmo de aprendizaje automático: recolectar datos, elegir qué características son importantes, escoger el algoritmo mismo…Luego hacer una prueba para ver cómo funciona y reducir los errores y finalmente, lo sacamos al público para que lo use. Nos hemos dado cuenta de que los prejuicios están en cada uno de esos procesos.

Una investigación de ProPública destapó en 2016 que el sistema judicial de varios estados de Estados Unidos utilizaba software para determinar qué procesados tenían más probabilidades de volver a delinquir. ProPública descubrió que los algoritmos favorecían a las personas blancas y penalizaban a las negras, pese a que el formulario con el que se recababa los datos no incluía preguntas sobre el tono de piel… De cierta forma, la máquina lo adivinó y lo utilizó como un criterio para valorar pese a que no haya sido diseñada para hacerlo, ¿no?

Lo que sucede es que hay datos que ya codifican la raza y tú ni te das cuenta. Por ejemplo, en Estados Unidos tenemos el código postal. Existen zonas donde solamente o mayormente vive gente afroamericana. Por ejemplo, en el sur de California, mayormente vive gente latina. Entonces, si tú usas el código postal como característica para alimentar un algoritmo de aprendizaje automático, también estás codificando el grupo étnico sin darte cuenta.

¿Hay alguna forma de evitar esto?

Al parecer, al final del día la responsabilidad recae en el ser humano que programa el algoritmo y en cuán ético pueda ser. O sea, si yo sé que mi algoritmo va a funcionar con un 10% más de error y dejo de utilizar algo que pueda ser sensible para caracterizar al individuo, entonces simplemente lo saco y me hago responsable de las consecuencias, tal vez, económicas que pueda tener mi empresa. Así que, ciertamente hay una barrera ética entre decidir qué va y qué no va en el algoritmo y muchas veces recae en el programador.

Mano de hombre disputando soga con mano de robotFlórez cree que en campos en los que hay un componente social, la inteligencia artificial debelimitarse a asistir en la toma de decisiones.

Se supone que justamente los algoritmos son para procesar grandes volúmenes de información y ahorrar tiempo¿No hay una forma de que sean infalibles?

Infalibles no. Porque siempre son una aproximación de la realidad o sea, está bien tener cierto grado de error. Sin embargo, existen actualmente trabajos de investigación muy interesantes en los que tú explícitamente penalizas la presencia de datos sensibles. Así, el ser humano básicamente elige qué dato puede ser sensible o no y el algoritmo deja de utilizarlo o lo hace de una manera que no muestre correlación. Sin embargo, honestamente, para la computadora todo son números: o es un 0 o un 1 o un valor en el medio, no tiene sentido común. A pesar de que hay muchos trabajos interesantes que permiten tratar de evitar los prejuicios, hay una parte ética que siempre recae en el ser humano.

¿Existe algún área en la que tú como experto creas que no deba dejarse en manos de la inteligencia artificial?

Creo que en este momento deberíamos estar preparados para usar la computadora para asistir en vez de automatizar. La computadora debería decirte: estos son a quienes deberías procesar primero en un sistema judicial. Sin embargo, también debería ser capaz de decirte por qué. A esto se le llama interpretación o transparencia y las máquinas deberían ser capaces de informar cuál es el razonamiento que las llevó a tomar tal decisión.

Las computadoras tienen que decidir de acuerdo a patrones, ¿pero no son los estereotipos patrones? ¿No resultan útiles para que el sistema pueda detectar patrones?

Si tú, por ejemplo, quieres minimizar el error, es una buena idea numéricamente utilizar prejuicios porque te da un algoritmo más exacto. Sin embargo, el desarrollador tiene que darse cuenta de que hay un componente ético al hacer esto. Existen en este momento regulaciones que te prohíben usar ciertas características para cosas como el análisis de crédito o incluso en el uso de videos de seguridad, pero son muy incipientes. De repente, lo que necesitamos es eso. Saber que la realidad es injusta y que está llena de prejuicios.

Lo interesante es que, a pesar de eso, algunos algoritmos permiten tratar de minimizar este nivel de prejuicio. O sea, yo puedo utilizar el tono de piel, pero sin que sea más importante o que tenga la misma relevancia para todos los grupos étnicos. Así que respondiendo a tu pregunta, sí, uno puede pensar que, en realidad, usando esto va a tener resultados más exactos y muchas veces ese es el caso. Ahí está, de nuevo, ese componente ético: yo quiero sacrificar cierto nivel de exactitud a favor de no dar una experiencia mala al usuario ni usar ningún tipo de prejuicios.

Hombre durmiendo mientras auto se conduce soloLa tecnología para conseguir un auto sin conductor usa el aprendizaje automático.

Especialistas de Amazon se dieron cuenta de que una herramienta informática que habían diseñado para selección de personal discriminaba los currículos que incluían la palabra “mujer” y favorecían términos que eran más empleados por los hombres. Es una cosa bastante sorprendente, porque para evitar el sesgo uno tendría que estar adivinando qué términos suelen usar más los hombres que las mujeres en los currículos.

Incluso para el ser humano es difícil darse cuenta.

Pero a la vez, ahora intentamos no hacer diferencias entre géneros y decir que las palabras o la ropa no son masculinas ni femeninas, sino que todos las podemos usar. El aprendizaje automático parece ir en el sentido contrario, ya que tienes que admitir las diferencias entre hombres y mujeres y estudiarlas.

Los algoritmos solo recogen lo que pasa en la realidad y la realidad es que sí, los hombres utilizan unas palabras que las mujeres, tal vez, no. Y la realidad es que la gente a veces conecta mejor con esas palabras porque también son hombres los que evalúan. Entonces, decir lo contrario tal vez es ir en contra de los datos. Ese problema se evita recolectando la misma cantidad de currículos de hombres y de mujeres. Ahí el algoritmo le asignará el mismo peso a ambos o a las palabras que utilicen ambos géneros. Si solo eliges los 100 currículos que tienes sobre la mesa, tal vez solo dos de ellos sean de mujeres y 98, de hombres. Entonces creas un prejuicio porque estás modelando solamente lo que pasa en el universo de los hombres para este trabajo.

Entonces, no es una ciencia para quienes se preocupan por ser políticamente correctos porque más bien tienes que ahondar en las diferencias…

Has tocado un gran punto, que es la empatía. El estereotipo que uno tiene del ingeniero es el de alguien muy analítico y puede que hasta poco social. Sucede que estamos empezando a necesitar cosas en los ingenieros que pensábamos que no eran tan relevantes o que nos parecía bien que fuera así: la empatía, la ética… Necesitamos desarrollar esos temas porque tomamos tantas decisiones durante el proceso de implementar un algoritmo y muchas veces hay un componente ético. Si ni siquiera eres consciente de eso, no te vas a dar cuenta.

IlustraciónFlórez dice que, en un futuro cercano, nuestra cara será nuestra contraseña.

¿Se notan las diferencias entre un algoritmo diseñado por una persona y uno diseñado por 20?

En teoría, deberían reducirse los prejuicios en un algoritmo hecho por más gente. El problema es que muchas veces, ese grupo está compuesto por gente muy parecida entre sí. Quizá todos son hombres o todos sean asiáticos. Tal vez, sea bueno tener a mujeres para que se den cuenta de cosas de las que no se da cuenta el grupo en general. Es por eso que la diversidad es tan importante hoy en día.

¿Se puede decir que un algoritmo refleja los prejuicios de su autor?

Sí.

¿Y que hay algoritmos con prejuicios justamente por la poca diversidad que hay entre los que hacen algoritmos?

No solamente por eso, pero es una parte importante. Yo diría que también se debe en parte a los datos mismos, que reflejan la realidad. En los últimos 50 años nos hemos esforzado por crear algoritmos que reflejen la realidad. Ahora nos hemos dado cuenta de que muchas veces reflejar la realidad también refuerza los estereotipos en la gente.

¿Crees que en el sector hay suficiente consciencia de que los algoritmos pueden tener prejuicios o que es una cosa a la que no se le da mucha importancia?

A nivel práctico, no se le da la importancia que debería. A nivel de investigación, muchas empresas están empezando a investigar este tema seriamente creando grupos llamados FAT: Fairness, Accountability and Transparency (Justicia, Responsabilidad y Transparencia).

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

CULTURA DIGITAL

Personas que no juegan videojuegos aportaron 54 mmdd al sector

Se espera que el gasto global en juegos móviles alcance los 71 mil millones en 2022.

Carolina Valdovinos

Publicado

en

El móvil es el sector de más rápido crecimiento en el mercado mundial de videojuegos y en 2018 se gastarán 54 mil millones en la compra de juegos y suscripciones, pero por personas que no acostumbran jugar videojuegos.

En 2018, 42 por ciento de la inversión total en videojuegos en todo el mundo estuvo impulsada por una base de consumidores que no se calificarían como jugadores.

El teléfono móvil es ahora un potente dispositivo de juegos, con los teléfonos inteligentes actuales y de gama alta que ahora logran más del doble del rendimiento de gráficos en comparación con la última generación de consolas de PS3 y Xbox 360.

Los juegos móviles suelen ser gratuitos en el momento de la descarga, lo que en primer lugar aumenta el atractivo para el consumidor, pero también es un excelente método para evitar que los juegos sean pirateados.

A nivel global, las compras en el juego están dirigidas a los jugadores más ávidos con una mayor propensión a gastar.

Menos de la mitad del 1 por ciento de los jugadores representan la mitad de todos los ingresos generados, razón por la cual hay descuentos tan importantes para los gastos.

La moneda del juego es la columna vertebral de todas las microtransacciones y proporciona una capa adicional de aislamiento del dinero del mundo real.

Esto evita que los jugadores móviles puedan poner fácilmente un valor en los artículos que están comprando en el juego y coloca una desconexión entre las compras en el juego que gastan dinero real.

De acuerdo con el avance de los teléfonos inteligentes, se espera que supere los 5 mil millones para 2020 y, por lo tanto, una mayor cantidad de dispositivos listos para jugar, se espera que el gasto global en juegos móviles alcance los 71 mil millones en 2022.

CLIC PARA SEGUIR LEYENDO

Apps

Cómo visitar las pirámides de Egipto, el Taj Mahal o Chichén Itzá sin salir de casa

Google permite hacer un tour virtual en lugares destruidos como el Museo Nacional de Brasil o un templo budista en Myanmar

Mediatelecom Tecnología

Publicado

en

El País-Isabel Rubio

En septiembre de 2018 un incendio arrasó el Museo Nacional de Brasil, en Río de Janeiro. El recinto tenía una colección de 20 millones de piezas: desde momias egipcias adquiridas por el emperador Pedro I al fósil más antiguo de América Latina, encontrado en Brasil, de casi 12.000 años de antigüedad. La mayoría de obras, con un valor histórico y artístico incalculable, se quemaron esa noche. Pero unos años antes, toda la colección fue digitalizada y los objetos se escanearon en 3D. Ahora la web Google Arts & Culture permite visitar virtualmente el museo antes del siniestro.

Los incendios, las guerras o los desastres naturales pueden destruir lugares emblemáticos admirados hoy en día. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) elabora una lista que incluye más de 1.000 lugares patrimonio de la humanidad en todo el mundo. Se trata de espacios con relevancia cultural o natural que la entidad pretende preservar y dar a conocer por ser de interés común para todas las personas. Una posible solución para inmortalizar estos emplazamientos es el escaneo 3D, que permitiría visitarlos para siempre de forma virtual e incluso volver a reconstruirlos en caso de que sean derribados.

Además del Museo Nacional de Brasil, Google Arts & Culture también permite realizar un tour virtual por miles de exposiciones de todo el mundo como el MoMA (The Museum of Modern Art) de Nueva York, el British Museumde Londres o el Museo de Israel de Jerusalén. Otros lugares emblemáticos a los que se puede acceder en una visita de 360 grados son el Coliseo de Italia, las pirámides de Egiptoel Taj Mahal de la India, las ruinas de Chichén Itzá de México, el monte Rushmore de EE UU o el Palacio de Versalles de Francia. Incluso es posible ver el Palacio de Invierno del Bogd Khan de Mongolia, la Puerta de la India o los templos de Prambanan de Indonesia.

Google Arts & Culture nació en 2011 con el objetivo de hacer accesibles a los internautas obras de arte y monumentos de todo el mundo. La compañía tecnológica ha colaborado desde entonces con más de 1.200 museos, galerías e instituciones en 70 países para que las exposiciones estén disponibles en línea para cualquier persona. “¿Tiene curiosidad acerca de cómo se ve de cerca La noche estrellada de Van Gogh? Con Google Arts & Culture puede visitar las mejores exhibiciones, acercarse a las obras de arte con detalles alucinantes y explorar miles de historias, fotos, videos y manuscritos”, se afirma en la descripción de la aplicación en Google Play.

En 2018 Google se asoció además con CyArk, una empresa sin fines de lucro que realiza escaneo láser 3D, con el fin de ayudar a preservar los lugares emblemáticos de todo el mundo. Ambas compañías desarrollan el proyecto Open Heritage, que utiliza la tecnología de escaneo láser para capturar todos los datos relevantes en un sitio histórico para recrearlo virtualmente.

CyArk fue fundada en 2003 por Ben y Barbara Kacyra, conmocionados ados después de que los talibanes destruyeran en 2001 estatuas budistas del siglo V en Bamiyan (Afganistán). Su objetivo era capturar monumentos y lugares históricos antes de que ocurriera una tragedia similar. De hecho, el Museo Nacional de Brasil no es el único lugar que solo se puede visitar tal y como fue hace un tiempo de manera virtual. El templo budista Ananda Ok Kyaung en Bagan (Myanmar) sufrió daños durante un terremoto en 2016. CyArk logró escanear el sitio con láser 3D antes del siniestro. Ahora es posible hacer una visita interactiva en 3D al centro.

Inundaciones, incendios y terremotos pueden deshacer siglos de esfuerzo creativo. La necesidad de documentación digital se demostró también en 2010, cuando un incendio destruyó parte de las Tumbas de los reyes de Buganda en Kasubi, en Uganda. CyArk escaneó el lugar un año antes y, por lo tanto, contaba con información muy útil para reconstruirlas.

Visita virtual al Taj Mahal.
Visita virtual al Taj Mahal. GOOGLE ART & CULTURE

“Estamos perdiendo los sitios y las historias más rápido de lo que podemos conservarlos físicamente.Por supuesto, los terremotos y todos los fenómenos naturales como inundaciones y tornados van dejando su huella”, afirmó en 2011 Ben Kacyra en una charla de TED. El fundador de CyArk se dio cuenta de que la destrucción causada por el hombre “se estaba acelerando debido a incendios intencionados, a la expansión urbana, a lluvia ácida, el terrorismo y las guerras”: “Me quedaba cada vez más claro que estábamos perdiendo la batalla”.

Lugares amenazados

En los últimos años el grupo yihadista Estado Islámico (ISIS, por sus siglas en inglés) ha destruido monumentos históricos del del norte de África y Oriente Próximo. Por ejemplo, en 2015 acabó con la milenaria ciudad del imperio Parto de Hatra, declarada Patrimonio de la Humanidad por la Unesco. Las ruinas de Hatra, de hace más de 2.000 años, se encuentran en la provincia septentrional de Nínive, dentro de la actual Mosul en Irak. Pese a que Google Arts & Culture no permite hacer una visita virtual de 360 grados por el lugar, sí que cuenta con varias fotos en alta resolución de la ciudad antes de ser destruida.

Visita virtual a las ruinas de Chichén Itzá.
Visita virtual a las ruinas de Chichén Itzá.GOOGLE ART & CULTURE

Palmira es otro de los lugares dañados por el ISIS. En mayo de 2015 el Estado Islámico conquistó la ciudad y poco después voló el templo de Baal Shamin, de 1.900 años de antigüedad y de los mejor conservados, dedicado al dios fenicio de las tormentas. Los yihadistas también derribaron el Templo de Bel, una de las mayores estructuras del lugar, y el Arco del Triunfo, una puerta de entrada a la ciudad que llevaba allí 2.000 años. La plataforma de Google cuenta con imágenes de archivo de estos lugares antes de ser destruidos y un vídeo que muestra la ciudad en 360 grados después del paso del ISIS.

También es escasa la información en la plataforma sobre las ciudades históricas de Tombuctú y Gao, en Mali. En 2012 ambas sufrieron daños irreparables en manos de grupos yihadistas: centenares de mausoleos de la ciudad, muchos de ellos sufíes, fueron destruidos, entre ellos la mezquita de la ciudad. La furia contra monumentos considerados iconoclastas recordó entonces a la destrucción de los budas gigantes de Bamiyán (Afganistán), unas estatuas de 55 metros de altura que los talibanes derribaron en 2001.

La mayoría de los lugares declarados Patrimonio de la Humanidad en peligro están en países en conflicto, según afirma la Agencia de Naciones Unidas para los Refugiados (Acnur) en su página web. Pero algunos desastres naturales también han afectado en los últimos años a monumentos construidos por las antiguas civilizaciones. Al menos cuatro de los siete monumentos declarados Patrimonio de la Humanidad en el valle de Katmandú fueron destruidos o severamente dañados por el terremoto de 2015 en la capital de Nepal. Google Arts & Culture tiene una visita al lugar interactiva con fotografías, vídeos e imágenes en 3D que cuentan el antes y el después del terremoto.

Hoy en día muchos lugares emblemáticos aún corren el riesgo de sufrir daños, según explica el historiador y escritor Robert Bevan en la web de Google Arts and Culture. Por ejemplo, la Ópera de Sidney o la Estatua de la Libertad, que según apunta, estarían amenazada por el cambio climático y el aumento del nivel del mar. Para Ben Kacyra es fundamental esforzarse en preservar el Patrimonio de la Humanidad: “Nuestra herencia es mucho más que la memoria colectiva; es nuestro tesoro colectivo. Le debemos a nuestros hijos, a nuestros nietos y a las generaciones que nunca conoceremos mantenerla segura y entregársela en buen estado”.

CLIC PARA SEGUIR LEYENDO

Apps

¿Qué quiere un bebé cuando llora? La inteligencia artificial aprende a traducir los llantos

Una española entrena a un algoritmo para que interprete el motivo el malestar de un recién nacido

Mediatelecom Tecnología

Publicado

en

El País-Jordi Pérez Colomé

Ana Laguna Pradas tenía un deseo extraño para una madre primeriza. Quería que su hijo llorara. Su madre no lo entendía: “Pero Ana, hija, coge al niño y no le dejes llorar más, me decía. Suena a madre chiflada, pero soy la primera madre que quiere que su hijo llore”, explica.

Durante el embarazo Laguna le daba vueltas a una pregunta: “¿Cómo voy a entenderle?” Un bebé se comunica llorando: quiere comer, mimos, le duele algo, tiene sueño. ¿Pero qué quiere exactamente cada vez que llora? Era 2016, Laguna buscó apps para interpretar ese llanto y solo encontró una china que funcionaba mal.

“Si Jane Goodall comprende el lenguaje de los chimpancés, ¿por qué no intentar traducir a un recién nacido?”

¿Por qué no hacerla ella misma?, pensó Laguna, que es científica de datos en BBVA Data&Analytics. Su intuición le decía que los lloros de un bebé tienen patrones y que la inteligencia artificial puede detectarlos: “Había trabajado en traducción automática, y el llanto del bebé no deja de ser otro medio de comunicación oral. Además, si Jane Goodall comprende el lenguaje de los chimpancés, ¿por qué no intentar traducir las necesidades de un recién nacido con un algoritmo?”, dice.

Tras la cuarentena, empezó a grabar a su hijo. Cada muestra de lloro debía durar al menos 10 segundos. Así estuvo hasta los cuatro meses. Reunió unos 65 audios. Al final el pequeño no lloró tanto: de media resultó menos de una grabación al día.

El ojo humano ve diferencias obvias en las señales de audio, pero un algoritmo necesita más detalles para encontrar patrones. Así que Laguna recurrió a los espectogramas. La intuición se confirmaba: “Las señales de audio tenían buena pinta y la precisión del modelo era aceptable”, dice.

Señales de audio de lloros de bebé para hambre, enfado y sueño sacado de la base de datos de Ana Laguna Pradas.
Señales de audio de lloros de bebé para hambre, enfado y sueño sacado de la base de datos de Ana Laguna Pradas.

Pero Laguna dio con un nuevo problema: la falta de muestra, de lloros. La inteligencia artificial necesita una cantidad sustancial de ejemplos.

Además una vez reunidos suficientes ejemplos de un tipo de lloro, hay otra pregunta difícil: el etiquetado. La etiqueta es lo que identifica un lloro como de dolor, hambre, sueño, ganas de mimos y deben ponerla los padres. Si las etiquetas están mal puestas, el modelo buscará mal los patrones y será un desastre. Antes de que el algoritmo pueda ver patrones en cada lloro, deben hacerlo los padres.

Por falta de datos y de buenas etiquetas, Laguna acabó dividiendo su base de datos en solo dos opciones: hambre y no hambre. La pretensión inicial de acertar con más tipos de lloro quedó aparcada.

Ahora Laguna vuelve a estar embarazada. Esta vez irá más en serio. Su segundo hijo puede ser el bebé español que más tiempo pase llorando.

La única esperanza de Laguna para aumentar la base de datos no es su segundo hijo. Ha creado una ONG para hacer trabajos de datos donde hay un formulario para que otros bebés colaboren. El objetivo es doble: crecer más rápido y evitar el sesgo de que toda la base de datos sea del lloro de dos hermanos. Aquí pueden subir los padres el llanto de sus pequeños. Laguna quiere trabajar con lloros de bebés de menos de 6 meses.

El ejemplo norteamericano

La intuición de Laguna también la tuvo un equipo californiano dirigido por Ariana Anderson, neuropsicóloga computacional de UCLA (Universidad de California en Los Angeles). Anderson tiene cuatro hijos. Cuando oía llorar al tercero empezó a darse cuenta de que había patrones. El siguiente paso lógico fue, como para Laguna, entrenar a un algoritmo para que mejorara la percepción humana.

Con los años, el equipo de Anderson sacó una app: Chatterbaby, disponible en Android y iPhone, y que da un porcentaje con el motivo más probable de lloro. La base de datos de Chatterbaby tiene miles de ejemplos y es capaz de distinguir entre dolor (con un 90% de éxito), inquietud (con un 85%) y hambre (con un 60%). “Ese 60% se debe a que tenemos aún muestras pequeñas, pero como estamos continuamente entrenando nuestros algoritmos con datos nuevos, la precisión crecerá en el futuro”, dice Anderson.

Espectogramas de lloros de bebé por dolor, inquietud, hambre y cólicos de la base de datos de Chatterbaby.
Espectogramas de lloros de bebé por dolor, inquietud, hambre y cólicos de la base de datos de Chatterbaby.

El proceso de certificación del etiquetado en Chatterbaby es delicado. El lloro de dolor es indiscutible: están sacados de pinchazos a bebés por vacunas o por agujeros en la oreja. Las otras dos categorías que de momento manejan -inquieto y hambriento- tienen control de calidad: “Son etiquetados por los padres (normalmente la madre). Entonces otra madre del equipo y yo escuchamos uno por uno esos lloros. Si las dos estamos de acuerdo, se queda en nuestra base de datos. Si una está en desacuerdo, se quita. Estamos de acuerdo en un 80% de lloros, lo que muestra que madres experimentadas pueden reconocer lloros de bebés que no son suyos”, explica Anderson.

En el equipo de Anderson, esperan tener suficientes datos pronto para identificar más tipos de llanto: separación, miedo, cólicos. Aunque cada uno tiene su dificultad. “Lo que entendemos del desarrollo normal de bebés es que empiezan a sentir miedo de separación a los 6 a 7 meses pero frecuentemente no hasta mas cerca al final del primer año”, dice la neonatóloga Diana Montoya-Williams, del equipo de Anderson. “Como estos estados no aplican a todos los bebés en nuestros datos, no lo estudiamos separado. Para el cólico, no tenemos aún suficiente muestra. Las investigaciones preliminares muestran que es similar al llanto del dolor con vacunas”, añade. Chatterbaby acepta lloros de niños de hasta 2 años, pero la mayoría de los que tienen ronda los 3 meses.

A pesar de los avances de Chatterbaby, los bebés españoles y latinoamericanos deberán confiar en la labor de Laguna. Los niños lloran distinto por lengua y país: “El bebé puede oír la melodía (prosodia) de la lengua de la madre en el útero”, dice Anderson. Debido a la extensión de la app, la base de datos internacional de Chatterbaby crece pero aún es insuficiente para llegar a todas partes: “Alrededor de un 80% de nuestros usuarios son internacionales”, dice Anderson. Por género, sin embargo, es “improbable” que haya diferencias, añade Anderson, aunque seguirán mirándolo en sus investigaciones.

Chatterbaby tiene más usos. Puede ayudar especialmente a los padres sordos y hay indicios de que irregularidades en el lloro de un bebé puede ayudar en un diagnóstico temprano del autismo.

En las puntuaciones de Google Play la app solo tiene a padres muy satisfechos que dan cinco estrellas y a otros muy decepcionados, que dan una. Debe de ser muy frustrante tener a las 3 de la mañana la última tecnología en inteligencia artificial y no poder hacer nada mientras el bebé sigue llorando sin remedio.

CLIC PARA SEGUIR LEYENDO

VIDEO #1MTECH

Apple sucumbe a presión china y elimina ¡más de 25 mil apps de App Store!

#1MTech La información más relevante del día en menos de un minuto:Facebook es presionado por el gobierno de EUA para romper cifrado de Messenger.Apple sucumbe a presión china y elimina ¡más de 25 mil apps de App Store!#Apple #Messenger #Netflix #Youtube #extremista

Posted by Mediatelecom Tecnología on Tuesday, August 21, 2018
Advertisement

DÍA A DÍA

noviembre 2018
L M X J V S D
« Oct   Dic »
 1234
567891011
12131415161718
19202122232425
2627282930  

Trending

Bitnami