COMUNIDAD MEDIATELECOM

CULTURA DIGITAL

Por qué la inteligencia artificial puede ser racista y machista y cómo puede evitarse

Mediatelecom Tecnología

Publicado

en

BBC Mundo-Stefania Gozzer

El investigador peruano Omar Flórez se prepara para un futuro “muy, muy cercano” en el que las calles estarán llenas de cámaras de vigilancia capaces de reconocer nuestros rostros y recabar información sobre nosotros a medida que caminemos por la ciudad.

Explica que lo harán sin nuestro permiso, ya que son espacios públicos y la mayoría no solemos taparnos la cara al salir de casa.

Nuestro rostro se convertirá en nuestra contraseña y, cuando entremos a una tienda, esta nos reconocerá e investigará datos como si somos clientes nuevos o asiduos, o en qué lugares hemos estado antes de cruzar la puerta. De toda la información que recabe, dependerá el trato que nos dé esa empresa.

Flórez quiere evitar que aspectos como nuestro género o color de piel formen parte de los criterios que esas compañías evalúen a la hora de decidir si merecemos un descuento u otra atención especial. Algo que puede suceder sin que las mismas firmas se den cuenta.

La inteligencia artificial no es perfecta: incluso si no es programado para hacerlo, el software puede aprender por su cuenta a discriminar.

Foto en la que se ve cómo funciona el software de FlórezFlórez trabaja en un algoritmo que permita reconocer rostros pero ocultando datos sensibles como la raza y el género.

Este ingeniero nacido en Arequipa hace 34 años, se doctoró en Ciencias de la Computación por la Universidad Estatal de Utah (Estados Unidos) y actualmente trabaja como investigador en el banco Capital One.

Es uno de los pocos latinoamericanos que estudia los aspectos éticos del machine learning aprendizaje automático, un proceso que define como “la capacidad de predecir el futuro con datos del pasado utilizando computadoras”.

Una tecnología basada en algoritmos que se usa para desarrollar el auto sin conductor o para detectar enfermedades como el cáncer de piel, entre otros.

Flórez está trabajando en un algoritmo que permita a las computadoras reconocer rostros pero sin poder descifrar el sexo o el origen étnico de la persona. Su sueño es que, cuando ese futuro llegue, las empresas incluyan su algoritmo en sus sistemas informáticos para evitar tomar decisiones racistas o machistas sin ni siquiera saberlo.

BBC

Siempre decimos que no podemos ser objetivos justamente porque somos humanos. Se ha intentado confiar en las máquinas para que ellas lo sean, pero parece que tampoco pueden…

Porque son programadas por un ser humano. De hecho, nos hemos dado cuenta hace poco que el algoritmo mismo es una opinión. Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo. De hecho, elegir cuál es la forma correcta de juzgar un algoritmo ya es una observación, una opinión sobre el algoritmo mismo.

Digamos que yo quiero predecir la probabilidad de que alguien vaya a cometer un crimen. Para eso recolecto fotos de las personas que han cometido crímenes, dónde viven, de qué raza son, su edad, etc. Después, utilizo esa información para maximizar la exactitud del algoritmo y que pueda predecir quién puede delinquir después o incluso dónde puede suceder el siguiente crimen. Esta predicción puede resultar en que la policía se enfoque más en zonas donde de repente hay más afrodescendientes porque hay una mayor cantidad de delitos en esa área o que empiece a detener latinos porque es muy probable que no tengan documentos en regla.

Entonces, para alguien que sí tenga residencia legal o sea afrodescendiente y viva en esa zona pero no cometa crímenes, será el doble de difícil desprenderse de ese estigma del algoritmo. Porque para el algoritmo tú eres parte de una familia o una distribución, así que es mucho más difícil para ti, estadísticamente, salir de esa familia o distribución. De alguna forma, estás influenciado negativamente por la realidad que te rodea. Básicamente, hasta ahora, hemos estado codificando los estereotipos que nosotros tenemos como seres humanos.

Rostro de un hombre y de una mujer difuminadoEl sueño del investigador peruano es que en el futuro las empresas que usen programas de reconocimiento de rostro empleen su algoritmo.

Ese elemento subjetivo está en los criterios que elegiste a la hora de programar el algoritmo.

Exactamente. Existe una cadena de procesos para hacer un algoritmo de aprendizaje automático: recolectar datos, elegir qué características son importantes, escoger el algoritmo mismo…Luego hacer una prueba para ver cómo funciona y reducir los errores y finalmente, lo sacamos al público para que lo use. Nos hemos dado cuenta de que los prejuicios están en cada uno de esos procesos.

Una investigación de ProPública destapó en 2016 que el sistema judicial de varios estados de Estados Unidos utilizaba software para determinar qué procesados tenían más probabilidades de volver a delinquir. ProPública descubrió que los algoritmos favorecían a las personas blancas y penalizaban a las negras, pese a que el formulario con el que se recababa los datos no incluía preguntas sobre el tono de piel… De cierta forma, la máquina lo adivinó y lo utilizó como un criterio para valorar pese a que no haya sido diseñada para hacerlo, ¿no?

Lo que sucede es que hay datos que ya codifican la raza y tú ni te das cuenta. Por ejemplo, en Estados Unidos tenemos el código postal. Existen zonas donde solamente o mayormente vive gente afroamericana. Por ejemplo, en el sur de California, mayormente vive gente latina. Entonces, si tú usas el código postal como característica para alimentar un algoritmo de aprendizaje automático, también estás codificando el grupo étnico sin darte cuenta.

¿Hay alguna forma de evitar esto?

Al parecer, al final del día la responsabilidad recae en el ser humano que programa el algoritmo y en cuán ético pueda ser. O sea, si yo sé que mi algoritmo va a funcionar con un 10% más de error y dejo de utilizar algo que pueda ser sensible para caracterizar al individuo, entonces simplemente lo saco y me hago responsable de las consecuencias, tal vez, económicas que pueda tener mi empresa. Así que, ciertamente hay una barrera ética entre decidir qué va y qué no va en el algoritmo y muchas veces recae en el programador.

Mano de hombre disputando soga con mano de robotFlórez cree que en campos en los que hay un componente social, la inteligencia artificial debelimitarse a asistir en la toma de decisiones.

Se supone que justamente los algoritmos son para procesar grandes volúmenes de información y ahorrar tiempo¿No hay una forma de que sean infalibles?

Infalibles no. Porque siempre son una aproximación de la realidad o sea, está bien tener cierto grado de error. Sin embargo, existen actualmente trabajos de investigación muy interesantes en los que tú explícitamente penalizas la presencia de datos sensibles. Así, el ser humano básicamente elige qué dato puede ser sensible o no y el algoritmo deja de utilizarlo o lo hace de una manera que no muestre correlación. Sin embargo, honestamente, para la computadora todo son números: o es un 0 o un 1 o un valor en el medio, no tiene sentido común. A pesar de que hay muchos trabajos interesantes que permiten tratar de evitar los prejuicios, hay una parte ética que siempre recae en el ser humano.

¿Existe algún área en la que tú como experto creas que no deba dejarse en manos de la inteligencia artificial?

Creo que en este momento deberíamos estar preparados para usar la computadora para asistir en vez de automatizar. La computadora debería decirte: estos son a quienes deberías procesar primero en un sistema judicial. Sin embargo, también debería ser capaz de decirte por qué. A esto se le llama interpretación o transparencia y las máquinas deberían ser capaces de informar cuál es el razonamiento que las llevó a tomar tal decisión.

Las computadoras tienen que decidir de acuerdo a patrones, ¿pero no son los estereotipos patrones? ¿No resultan útiles para que el sistema pueda detectar patrones?

Si tú, por ejemplo, quieres minimizar el error, es una buena idea numéricamente utilizar prejuicios porque te da un algoritmo más exacto. Sin embargo, el desarrollador tiene que darse cuenta de que hay un componente ético al hacer esto. Existen en este momento regulaciones que te prohíben usar ciertas características para cosas como el análisis de crédito o incluso en el uso de videos de seguridad, pero son muy incipientes. De repente, lo que necesitamos es eso. Saber que la realidad es injusta y que está llena de prejuicios.

Lo interesante es que, a pesar de eso, algunos algoritmos permiten tratar de minimizar este nivel de prejuicio. O sea, yo puedo utilizar el tono de piel, pero sin que sea más importante o que tenga la misma relevancia para todos los grupos étnicos. Así que respondiendo a tu pregunta, sí, uno puede pensar que, en realidad, usando esto va a tener resultados más exactos y muchas veces ese es el caso. Ahí está, de nuevo, ese componente ético: yo quiero sacrificar cierto nivel de exactitud a favor de no dar una experiencia mala al usuario ni usar ningún tipo de prejuicios.

Hombre durmiendo mientras auto se conduce soloLa tecnología para conseguir un auto sin conductor usa el aprendizaje automático.

Especialistas de Amazon se dieron cuenta de que una herramienta informática que habían diseñado para selección de personal discriminaba los currículos que incluían la palabra “mujer” y favorecían términos que eran más empleados por los hombres. Es una cosa bastante sorprendente, porque para evitar el sesgo uno tendría que estar adivinando qué términos suelen usar más los hombres que las mujeres en los currículos.

Incluso para el ser humano es difícil darse cuenta.

Pero a la vez, ahora intentamos no hacer diferencias entre géneros y decir que las palabras o la ropa no son masculinas ni femeninas, sino que todos las podemos usar. El aprendizaje automático parece ir en el sentido contrario, ya que tienes que admitir las diferencias entre hombres y mujeres y estudiarlas.

Los algoritmos solo recogen lo que pasa en la realidad y la realidad es que sí, los hombres utilizan unas palabras que las mujeres, tal vez, no. Y la realidad es que la gente a veces conecta mejor con esas palabras porque también son hombres los que evalúan. Entonces, decir lo contrario tal vez es ir en contra de los datos. Ese problema se evita recolectando la misma cantidad de currículos de hombres y de mujeres. Ahí el algoritmo le asignará el mismo peso a ambos o a las palabras que utilicen ambos géneros. Si solo eliges los 100 currículos que tienes sobre la mesa, tal vez solo dos de ellos sean de mujeres y 98, de hombres. Entonces creas un prejuicio porque estás modelando solamente lo que pasa en el universo de los hombres para este trabajo.

Entonces, no es una ciencia para quienes se preocupan por ser políticamente correctos porque más bien tienes que ahondar en las diferencias…

Has tocado un gran punto, que es la empatía. El estereotipo que uno tiene del ingeniero es el de alguien muy analítico y puede que hasta poco social. Sucede que estamos empezando a necesitar cosas en los ingenieros que pensábamos que no eran tan relevantes o que nos parecía bien que fuera así: la empatía, la ética… Necesitamos desarrollar esos temas porque tomamos tantas decisiones durante el proceso de implementar un algoritmo y muchas veces hay un componente ético. Si ni siquiera eres consciente de eso, no te vas a dar cuenta.

IlustraciónFlórez dice que, en un futuro cercano, nuestra cara será nuestra contraseña.

¿Se notan las diferencias entre un algoritmo diseñado por una persona y uno diseñado por 20?

En teoría, deberían reducirse los prejuicios en un algoritmo hecho por más gente. El problema es que muchas veces, ese grupo está compuesto por gente muy parecida entre sí. Quizá todos son hombres o todos sean asiáticos. Tal vez, sea bueno tener a mujeres para que se den cuenta de cosas de las que no se da cuenta el grupo en general. Es por eso que la diversidad es tan importante hoy en día.

¿Se puede decir que un algoritmo refleja los prejuicios de su autor?

Sí.

¿Y que hay algoritmos con prejuicios justamente por la poca diversidad que hay entre los que hacen algoritmos?

No solamente por eso, pero es una parte importante. Yo diría que también se debe en parte a los datos mismos, que reflejan la realidad. En los últimos 50 años nos hemos esforzado por crear algoritmos que reflejen la realidad. Ahora nos hemos dado cuenta de que muchas veces reflejar la realidad también refuerza los estereotipos en la gente.

¿Crees que en el sector hay suficiente consciencia de que los algoritmos pueden tener prejuicios o que es una cosa a la que no se le da mucha importancia?

A nivel práctico, no se le da la importancia que debería. A nivel de investigación, muchas empresas están empezando a investigar este tema seriamente creando grupos llamados FAT: Fairness, Accountability and Transparency (Justicia, Responsabilidad y Transparencia).

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

CULTURA DIGITAL

5 riesgos de la Inteligencia Artificial que pueden hacerla peligrosa

La Inteligencia Artificial cada vez abarca más ámbitos de nuestras vidas, pero un mal uso de ella puede conllevar peligros para la sociedad y los ciudadanos. Por eso debes conocer estos 5 riesgos de la IA que debemos evitar a toda costa.

Mediatelecom Tecnología

Publicado

en

TicBeat-Alicia Ruiz Fernández

La Inteligencia Artificial puede conllevar ciertos riesgos que pueden hacer que esta sea peligrosa, y así lo han afirmado numerosas personas influyentes como Stephen Hawking, y Elon Musk, CEO de las compañías de Tesla y de SpaceX.

A estas personas influyentes se le suma Bill Gates, cofundador de Microsoft, que afirma que hay que tener cuidado con la IA pero que todo irá bien si se utiliza correctamente, haciendo que lo bueno de la IA supere a lo malo.

La Inteligencia Artificial se basa en la construcción de máquinas que son capaces de pensar y actuar de manera inteligente, con herramientas como los algoritmos de Google. Pero como todas las nuevas tecnologías, estas pueden ser utilizadas para hacer cosas buenas o por el contrario para delinquir y causar problemas a las personas.

Así, Elon Musk quiso recalcar estos peligros que se darán en la IA en los próximos años: “El ritmo del progreso en inteligencia artificial (no me refiero a la inteligencia artificial estrecha) es increíblemente rápido. A menos que tenga una exposición directa a grupos como Deepmind, no tiene idea de lo rápido que está creciendo a un ritmo cercano al exponencial. El riesgo de que ocurra algo realmente peligroso es en un plazo de cinco años. 10 años como máximo “.

Por tanto evaluar la Inteligencia Artificial es muy importante, así como conocer su parte buena y mala. Así que estos son los 5 riesgos de la IA que pueden hacerla peligrosa y que debes conocer:

  1. Armas autónomas: Las armas programadas para matar suponen un grave riesgo en el futuro de la IA. Es posible que los armamentos nucleares se vean sustituidos por armas autónomas. No solo son peligrosas por que puedan convertirse en autónomas completamente y actuar sin supervisión, sino por las personas que puedan tenerlas en sus manos.
  2. Manipular a la sociedad: Las redes sociales pueden ser una gran fuente para obtener información sobre cualquier persona, y además de utilizarse para el marketing y brindar anuncios específicos para cada persona, pueden utilizarse de muchas otras maneras. Con el escándalo de Cambridge Analytica en relación con las elecciones presidenciales de EEUU y el brexit en Reino Unido, se pudo ver el enorme poder que puede dar tener datos para manipular a las personas, con lo cual la IA al ser capaz de identificar algoritmos y datos personales, puede ser extremadamente peligrosa.
  3. Invasión de la privacidad para oprimir socialmente: Es posible ‘seguir’ las pistas de un usuario en la Red, y utilizar mucha información invadiendo su privacidad. Por ejemplo, en China se utilizará información como el reconocimiento facial de cámaras y la forma en la que se comportan, si fuman, o si ven muchos videojuegos para el sistema de crédito social. Esta invasión de la privacidad puede convertirse por tanto en opresión social.
  4. Divergencia entre nuestros objetivos y los de la máquina de IA: Si nuestros objetivos no coinciden con los de la máquina, las acciones que pedimos llevar a cabo pueden terminar en un desastre. Por ejemplo, mandar una orden a la IA de llevarnos a un lugar lo más rápido posible, pero sin especificar que tiene que respetar las reglas de tránsito para no hacer peligrar las vidas humanas.
  5. Discriminación: Como las máquinas de IA pueden recoger tu información, analizarla y rastrarla, también pueden utilizar esta información en tu contra.Por ejemplo, una compañía de seguros puede negarte el seguro debido a las veces que las cámaras tienen imágenes de ti hablando por teléfono, o una persona que aspire a un puesto de trabajo puede perder la oportunidad debido a su baja red social de contactos en Internet.

Por tanto la Inteligencia Artificial puede conllevar estos riesgos que hacen que sea una tecnología peligrosa, pero tan solo ocurrirá esto si hacemos un mal uso de ella. Es necesario evitar que se utilice con fines destructivos y desarrollar las partes positivas de la IA para continuar con la investigación de enfermedades y otras buenas causas.

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Logran crear una IA capaz de imitar huellas digitales de complejos sistemas biométricos

Una inteligencia artificial mostrada durante una conferencia de seguridad en Los Ángeles demostró que podía recrear huellas en un escáner biométrico.

Mediatelecom Tecnología

Publicado

en

FayerWayer-Sergio Trujillo

Como es de esperarse, cada vez dependemos más de la tecnología biométrica para que esta se ocupe de la seguridad de nuestros dispositivos. Nos sentimos muy seguros porque creemos que nuestras huellas dactilares son únicas e irrepetibles. En teoría no habría que temer de que alguien pudiera suplantar nuestra identidad así.

No obstante, investigadores de la Escuela de Ingeniería de la Universidad de Nueva York acaban de derrumbar esta idea. Durante una conferencia de seguridad en Los Ángeles demostraron que sí es posible suplantar las huellas. 

Lo que hicieron fue desarrollar una inteligencia artificial llamada “DeepMasterPrints”. Increíblemente esta fue capaz de imitar una entre cinco huellas de un sistema biométrico de alta seguridad. En teoría, este sistema solo debería tener un margen de error de solo uno entre mil.

Logran crear una IA capaz de imitar huellas digitales de complejos sistemas biométricos

¿Cómo funciona?

Los ingenieros se basaron en dos pilares fundamentales de los sistemas de reconocimiento de huellas. El primero es que por razones ergonómicas, los escáneres no analizan el dedo en su totalidad al instante. En vez de eso, solo detecta la parte del dedo que está tocando el sensor.

Esto quiere decir que los escáneres casi nunca tienen registro de la totalidad del dedo. Lo que hacen es hacer un análisis parcial y lo comparan con el registro parcial que ya se poseía. Siendo así,se reducen las posibilidades y un atacante solo tendría que hacer coincidir menos registros parciales para obtener acceso.

El segundo principio es que hay ciertas características de las huellas más comunes que otras. De esta manera se puede simular una huella con estas características comunes y por mera cuestión de azar podría coincidir con la real.

A partir de ahí hicieron que la IA aprendiera por sí misma a reconocer estos patrones. Además, con capacidad de crear una buena cantidad de huellas y probarlas con el sistema.

Puede que esto no sirva precisamente para acceder a nuestros celulares (por ahora), pero sí representaría una amenaza ante sistemas biométricos de acceso más público.

Logran crear una IA capaz de imitar huellas digitales de complejos sistemas biométricos

CLIC PARA SEGUIR LEYENDO

CULTURA DIGITAL

Google Pay llega a Chile: Así podrás utilizar la famosa aplicación para pagos

Bastará con acercar el celular al terminal del comercio. Las transacciones están protegidas por varias capas de seguridad.

Mediatelecom Tecnología

Publicado

en

FayerWayer-César Muñoz

Google Pay aterrizará en Chile en los próximos días de la mano de CMR Falabella y Visa. Ambas firmas se unieron para ofrecer al mercado nacional la tecnología de pago contactless, a través de celulares.

La plataforma permitirá realizar compras en Chile y el mundo, con un sistema que ha mostrado un buen desempeño en decenas de países alrededor del mundo. Para operar esta nueva forma de pago los usuarios deben contar con un celular Android versión 5.0 o superior con tecnología NFC y suscribir en la aplicación de Google Pay su tarjeta de crédito CMR Visa.

El gerente general de CMR Falabella, Alejandro Arze, explicó lo siguiente en un comunicado a FayerWayer:

Queremos potenciar nuestra oferta de medios de pagos digitales, por eso nos unimos con Google Pay y Visa, asumiendo el desafío de introducir en el mercado chileno este innovador sistema. Esto forma parte de un proyecto ambicioso en el que ya hemos dado importantes pasos, como el desarrollo de soluciones y procesos 100% digitales o el canje de gift card del programa CMR Puntos a través de la aplicación.

Por su parte, el gerente general de Google Chile, Edgardo Frías, señaló lo siguiente:

Estamos muy contentos de anunciar la llegada de Google Pay a Chile, ya que es la manera rápida, fácil y segura de pagar en sitios web, en aplicaciones y en tiendas, usando las tarjetas ingresadas en una cuenta de Google. Protege la información de pago con múltiples capas de seguridad. Nuestro ecosistema es completamente abierto y trabajamos con cientos de negocios, bancos y gobiernos de todo el mundo, para crear soluciones de pago simples y fáciles de usar. Nos integramos con cientos de aplicaciones y sitios web que los usuarios aman, para potenciar experiencias de comercio estimulantes.

Según datos de Visa, Chile lidera en América Latina y el Caribe la adopción de pagos sin contacto. A fines de septiembre, más de 38% de las transacciones Visa realizadas en persona fueron transacciones sin contacto. El gerente general de Visa Chile, Francisco Valdivia, comentó que “nos entusiasma brindarles a los titulares de tarjetas CMR Visa acceso a Google Pay, una solución de pago móvil rápida y segura”.

Para cada pago realizado con CMR Visa en Google Pay, las transacciones están protegidas por varias capas de seguridad, incluyendo el Servicio de Token de Visa. Esta es una tecnología que crea un identificador digital único o token que reemplaza la información sensible de los consumidores para las transacciones digitales.

“La seguridad de los pagos es un factor crítico para garantizar que los consumidores se sientan seguros al usar sus teléfonos móviles para pagar. Aquí es donde el Servicio de Token de Visa agrega un gran valor a la experiencia de pago móvil, protegiendo los datos de nuestros consumidores,” añadió Valdivia.

CLIC PARA SEGUIR LEYENDO

VIDEO #1MTECH

Apple sucumbe a presión china y elimina ¡más de 25 mil apps de App Store!

#1MTech La información más relevante del día en menos de un minuto:Facebook es presionado por el gobierno de EUA para romper cifrado de Messenger.Apple sucumbe a presión china y elimina ¡más de 25 mil apps de App Store!#Apple #Messenger #Netflix #Youtube #extremista

Posted by Mediatelecom Tecnología on Tuesday, August 21, 2018
Advertisement

DÍA A DÍA

noviembre 2018
L M X J V S D
« Oct    
 1234
567891011
12131415161718
19202122232425
2627282930  

Trending

Bitnami