COMUNIDAD MEDIATELECOM

TENDENCIAS

El algoritmo de Google que predice si un paciente morirá o no

Mediatelecom Tecnología

Publicado

en

La Tribuna

Expertos en inteligencia artificial están trabajando en un sistema de redes neuronales que puede identificar casos de riesgo entre 24 y 48 horas antes que los métodos que se emplean actualmente en los hospitales

La inteligencia artificial pronto podrá predecir cómo será la evolución de un paciente ni bien ingresa al hospital. Expertos en inteligencia artificial de Google están trabajando en un sistema que analiza datos estadísticos para poder dar un pronóstico rápido y preciso. Algo que, si funciona de manera adecuada, podría salvar millones de vidas.

Para llevar adelante este proyecto, Google obtuvo información anónima (es decir no identificable) de 216.221 adultos, con más de 46 mil millones de datos recopilados a lo largo de 11 años en dos hospitales en Estados Unidos: el Centro Médico San Francisco de la Universidad de California (entre 2012 y 2016) y la Universidad de Medicina de Chicago (entre 2009 y 2016).

De acuerdo con una investigación publicada recientemente y de la que participaron 34 expertos, este sistema permitiría obtener mayor precisión y rapidez que los softwares que ya se están empleando en los hospitales para conocer con anticipación el diagnóstico de un paciente y su evolución.

Uno de los aspectos más destacados es que puede predecir el riesgo de muerte de un paciente entre 24 y 48 horas antes que los métodos que se emplean actualmente. Esto le permitiría a los médicos actuar con la rapidez necesaria para anticiparse y salvarle la vida a una persona en riesgo.

El mayor desafío para los investigadores que trabajan con inteligencia artificial es lograr entrenar a los algoritmos para que logren aislar y tomar solo los datos relevantes dentro de los registros médicos, donde suelen haber muchas anotaciones que no necesariamente son relevantes para hacer un pronóstico.

Usualmente, los expertos tienen que configurar el sistema en detalle para que interprete, por ejemplo, qué cantidad de aspectos o datos son necesarios para tomar una decisión adecuada.

Sin embargo, esto es algo que, dentro del sistema de Google, ocurre de manera automática gracias a sus complejas redes neuronales que tienen en cuenta todos esos aspectos y pueden deducir cuáles son los datos más importantes en el resultado final.

Luego de analizar miles de casos, el sistema identifica las palabras y acontecimientos que están vinculados con el resultado y aprenden a prestar menos atención a la información que menor incidencia tendrá en la evolución del paciente.

Hace un tiempo la novedad era la gran capacidad de medir y monitorear cada variable que ofrece la informática. Hoy se hace hincapié en la posibilidad de los algoritmos de procesar, sacar sus conclusiones y hasta aprender a partir de la experiencia para hacer predicciones y recomendaciones.

Lo que hasta hace un tiempo parecía digno de ciencia ficción hoy ya es una realidad que va ganando cada vez más terreno.

Hace apenas unos días, la FDA aprobó por primera vez un algoritmo creado para monitorear los signos vitales de los pacientes y emitir alertas hasta seis horas antes de que la persona sufra un ataque cardíaco o una insuficiencia respiratoria.

Se trata de Wave Clinical Platform y podría prevenir millones de muertes. Del mismo modo que lo podrían hacer los nuevos algoritmos de Google y todas las plataformas que se están construyendo en base a esos millones de datos que, desde hace años, se vienen recopilando a través de múltiples aplicaciones.

Sí, cada vez somos más predecibles. Y si bien en algunos aspectos eso puede resultar incómodo y hasta nos puede poner a polemizar sobre el valor de la privacidad en la era digital, lo cierto es que, en determinados ámbitos, como la salud y la ciencia, saber de antemano (y con precisión) puede marcar la diferencia entre la vida y la muerte.

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

POLÍTICA

Exploran riesgos del uso militar de Inteligencia Artificial

Mediatelecom Tecnología

Publicado

en

La Electronic Frontier Foundation (EFF), publicó un nuevo documento que analiza los riesgos y las implicaciones de los proyectos militares de Inteligencia Artificial (AI) a raíz de la decisión de Google de descontinuar la asistencia de AI al programa de drones del ejército de Estados Unidos y adoptar los principios de ética de AI que impiden diversas formas de trabajo militar.

La publicación The Cautious Path to Strategic Advantage: Cómo los Militares deben planificar para AI, espera servir como un documento guía para planificadores militares y contratistas de defensa, que pueden encontrar difíciles de entender las objeciones a los usos militares de AI.

De acuerdo con la EFF, las tecnologías de Machine Learning (ML) han recibido un impulso increíble, y de hecho han logrado un progreso emocionante en algunos frentes, pero siguen siendo frágiles, están sujetas a nuevos modos de falla y son vulnerables a diversas formas de ataque y manipulación adversos. También carecen de las formas básicas de sentido común y juicio en que los humanos suelen confiar.

Recomendado: Compañías y gobiernos acuerdan no crear armas letales con Inteligencia Artificial

Los militares deben asegurarse de que no compren sólo las grandes expectativas del aprendizaje automático sin leer la etiqueta de advertencia.

La asociación indica que, si bien aún hay mucho por hacer con el aprendizaje automático, también hay muchas razones para mantenerlo alejado de elementos como la selección de objetivos, el control de incendios y la mayoría de los roles de comando, control e inteligencia (C2I) en el futuro cercano y en otras áreas críticas.

El Departamento de Defensa de Estados Unidos y sus contrapartes tienen la oportunidad de mostrar liderazgo y mover las tecnologías de Inteligencia Artificial en una dirección que mejore las probabilidades de seguridad, paz y estabilidad a largo plazo, o podrían empujar rápidamente en la dirección opuesta, señala la EFF.

Entre los principales riesgos que considera la Fundación, se encuentran que los sistemas de aprendizaje automático pueden ser fácilmente engañados o subvertidos: las redes neuronales son vulnerables a una variedad de nuevos ataques, incluidos los ejemplos adversarios, el robo de modelos y el envenenamiento de datos.

Relevante: Videovigilancia podría integrar Inteligencia Artificial

Hasta que estos ataques sean mejor comprendidos y defendidos, los militares deberían evitar las aplicaciones de ML que están expuestas a la entrada por parte de sus adversarios.

El equilibrio de poder actual en ciberseguridad favorece significativamente a los atacantes sobre los defensores, señala la EFF. Hasta que eso cambie, las aplicaciones de AI necesariamente se ejecutarán en plataformas inseguras, y esta es una gran preocupación para el comando, control e inteligencia (C2I), así como para las armas autónomas y parcialmente autónomas.

Muchos de los logros recientes de AI más dramáticos y publicitados provienen del campo del aprendizaje de refuerzo (RL), pero los sistemas de RL de vanguardia actuales son particularmente impredecibles, difíciles de controlar e inadecuados para una implementación compleja en el mundo real.

El mayor riesgo que plantean las aplicaciones militares de AI, armas cada vez más autónomas y C2I algorítmico, es que las interacciones entre los sistemas implementados serán extremadamente complejas, imposibles de modelar y sujetas a formas catastróficas de falla que son difíciles de mitigar.

Esto es cierto tanto por el uso de un solo militar en el tiempo y, lo que es más importante, entre los de las naciones opuestas. Como resultado, existe un riesgo grave de conflicto accidental o escalada accidental del conflicto, si ML o la automatización algorítmica se utilizan en este tipo de aplicaciones militares, advierte EFF.

CLIC PARA SEGUIR LEYENDO

PRESS

Israel busca fortalecer su industria cibernética mediante fuerte inversión

Elizabeth Salazar

Publicado

en

El gobierno de Israel anunció una inversión de 90 millones de séqueles (24 millones de dólares) para fortalecer la industria de seguridad cibernética del país, mediante un programa de inversión de tres años.

Se elegirán compañías especialistas en investigación y desarrollo de alto riesgo, las cuales recibirán cerca de 5 millones de séqueles al año.

Recomendado: Industria tecnológica respalda nuevas normas de enrutamiento para mejorar seguridad en Internet

El programa contribuirá también al financiamiento de proyectos piloto tanto en Israel como en el extranjero.

Tanto el 5 por ciento de la cuota de mercado mundial en ciberseguridad, como el 16 por ciento de la inversión mundial en la industria cibernética, pertenecen a Israel, detrás de Estados Unidos, según datos del gobierno israelí.

CLIC PARA SEGUIR LEYENDO

PRESS

Metro de Los Ángeles será el primero en escanear pasajeros masivamente

Las máquinas escanean en busca de objetos metálicos y no metálicos en el cuerpo de una persona, pueden detectar objetos sospechosos a nueve metros de distancia

Carolina Valdovinos

Publicado

en

El Metro de Los Ángeles se convertirá en el primer sistema de transporte público masivo en Estados Unidos en instalar escáneres corporales que revisen a los pasajeros en busca de armas o explosivos.

El despliegue de los escáneres portátiles proyectan olas para hacer exámenes de cuerpo completo de pasajeros que caminan por las estaciones sin detenerlos.

Las máquinas escanean en busca de objetos metálicos y no metálicos en el cuerpo de una persona, pueden detectar objetos sospechosos a una distancia de nueve metros, además de poder escanear a dos mil pasajeros por hora. Las máquinas para escaneo se compraron con la compañía Thruvision, con sede en Reino Unido.

Se colocarán letreros en las estaciones advirtiendo a los pasajeros que están sujetos a un escáner corporal.

El proceso de selección es voluntario; sin embargo, las personas que no quieran ser evaluados no podrán viajar en el Metro, puntualizó Alex Wiggins, quien dirige la división de aplicación de la ley de la Autoridad Metropolitana de Transporte del Condado de Los Ángeles.

Más de 150 mil pasajeros abordan diariamente la Línea Roja de Metro, por lo cual para sus pasajeros representa una capa más de seguridad durante su trayecto en el sistema de transporte.

CLIC PARA SEGUIR LEYENDO
Advertisement

DÍA A DÍA

enero 2018
L M X J V S D
« Dic   Feb »
1234567
891011121314
15161718192021
22232425262728
293031  

Trending

Bitnami