COMUNIDAD MEDIATELECOM

TENDENCIAS

Los perros de Boston Dynamics siguen atemorizando y ya son capaces de abrir puertas

Además de moverse con gran flexibilidad, los perros de Boston Dynamics, ex de Google, siguen ganando funciones que deja entrever mayor inteligencia.

Mediatelecom Tecnología

Publicado

en

Blogthinkbig-Antonio Sabán

En el mundo de la robótica, Boston Dynamics es una de las empresas que más avances está haciendo en simular movimientos humanos y animales, tal y como atestiguan sus famosos perros, capaces de correr, caer bruscamente y volver a levantarse, etc. Siempre han resultado un poco amenazantes, y desde que Netflix publicara un capítulo de Black Mirror con un dispositivo de seguridad extrema que recordaba a ellos en el episodio Cabeza de Metal, la sensación de rareza no ha parado de crecer.

En él, un robot basado en las formas que hemos visto en Boston Dynamics es terriblemente letal, y aunque sólo tiene que proteger elementos de poco valor, no cesa hasta ver muertas a todas sus víctimas. Además, está conectado a una red de más robots que acudirán en su ayuda rápidamente si no es capaz de cumplir solo su cometido.

Y es un poco lo que hemos visto en el último vídeo de Boston Dynamics. Sobre sus robots ya se ha hablado de que algún día, cuando tomen conciencia, nos castigarán por haberles hecho pasar el “sufrimiento” de estos años, pero viendo la realidad, si de verdad alguien teme eso, podría estar más cerca de ocurrir que nunca. En el último vídeo de Boston Dynamics se puede observar cómo, ante la imposibilidad de abrir una puerta, un perro, cuyas extremidades sólo valen en principio para caminar, espera a otro para abrir una puerta.

El otro tiene una forma corporal similar, pero a ella suma un brazo añadido que podría equipararse a la trompa de un elefante, y que como los humanos con el dedo prénsil, se ve más inteligente sólo porque es capaz de mover un picaporte hacia la dirección correcta, ejercer fuerza sobre la puerta, abrirla, sostenerla y por último esperar a su compañero incapacitado para que pase primero a la habitación, tras lo que pasará él.

Ambos son versiones de SpotMini, el robot más conocido de Boston Dynamics, a los que ya se había visto en numerosos vídeos y cuya “cabeza” ya vio que era capaz de ayudar a meter platos en lavavajillas y a sobreponerse de una caída. Ahora es aspecto de ésta es algo más normal, y tiene más capacidades motoras.

Con tanto avance como sigue dando Boston Dynamics, resulta extraño que Alphabet, empresa matriz de Google, decidiera vender y finalmente formalizar un acuerdo hace unos meses con SoftBank. Si bien no había generado nunca dinero, como muchas empresas de robótica a día de hoy, sus más que prometedores avances siguen pareciendo algo de lo que Google querrá disponer en un futuro.

 

CLIC PARA SEGUIR LEYENDO
Advertisement
CLICK PARA COMENTAR

DEJA UN COMENTARIO

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

POLÍTICA

Exploran riesgos del uso militar de Inteligencia Artificial

Mediatelecom Tecnología

Publicado

en

La Electronic Frontier Foundation (EFF), publicó un nuevo documento que analiza los riesgos y las implicaciones de los proyectos militares de Inteligencia Artificial (AI) a raíz de la decisión de Google de descontinuar la asistencia de AI al programa de drones del ejército de Estados Unidos y adoptar los principios de ética de AI que impiden diversas formas de trabajo militar.

La publicación The Cautious Path to Strategic Advantage: Cómo los Militares deben planificar para AI, espera servir como un documento guía para planificadores militares y contratistas de defensa, que pueden encontrar difíciles de entender las objeciones a los usos militares de AI.

De acuerdo con la EFF, las tecnologías de Machine Learning (ML) han recibido un impulso increíble, y de hecho han logrado un progreso emocionante en algunos frentes, pero siguen siendo frágiles, están sujetas a nuevos modos de falla y son vulnerables a diversas formas de ataque y manipulación adversos. También carecen de las formas básicas de sentido común y juicio en que los humanos suelen confiar.

Recomendado: Compañías y gobiernos acuerdan no crear armas letales con Inteligencia Artificial

Los militares deben asegurarse de que no compren sólo las grandes expectativas del aprendizaje automático sin leer la etiqueta de advertencia.

La asociación indica que, si bien aún hay mucho por hacer con el aprendizaje automático, también hay muchas razones para mantenerlo alejado de elementos como la selección de objetivos, el control de incendios y la mayoría de los roles de comando, control e inteligencia (C2I) en el futuro cercano y en otras áreas críticas.

El Departamento de Defensa de Estados Unidos y sus contrapartes tienen la oportunidad de mostrar liderazgo y mover las tecnologías de Inteligencia Artificial en una dirección que mejore las probabilidades de seguridad, paz y estabilidad a largo plazo, o podrían empujar rápidamente en la dirección opuesta, señala la EFF.

Entre los principales riesgos que considera la Fundación, se encuentran que los sistemas de aprendizaje automático pueden ser fácilmente engañados o subvertidos: las redes neuronales son vulnerables a una variedad de nuevos ataques, incluidos los ejemplos adversarios, el robo de modelos y el envenenamiento de datos.

Relevante: Videovigilancia podría integrar Inteligencia Artificial

Hasta que estos ataques sean mejor comprendidos y defendidos, los militares deberían evitar las aplicaciones de ML que están expuestas a la entrada por parte de sus adversarios.

El equilibrio de poder actual en ciberseguridad favorece significativamente a los atacantes sobre los defensores, señala la EFF. Hasta que eso cambie, las aplicaciones de AI necesariamente se ejecutarán en plataformas inseguras, y esta es una gran preocupación para el comando, control e inteligencia (C2I), así como para las armas autónomas y parcialmente autónomas.

Muchos de los logros recientes de AI más dramáticos y publicitados provienen del campo del aprendizaje de refuerzo (RL), pero los sistemas de RL de vanguardia actuales son particularmente impredecibles, difíciles de controlar e inadecuados para una implementación compleja en el mundo real.

El mayor riesgo que plantean las aplicaciones militares de AI, armas cada vez más autónomas y C2I algorítmico, es que las interacciones entre los sistemas implementados serán extremadamente complejas, imposibles de modelar y sujetas a formas catastróficas de falla que son difíciles de mitigar.

Esto es cierto tanto por el uso de un solo militar en el tiempo y, lo que es más importante, entre los de las naciones opuestas. Como resultado, existe un riesgo grave de conflicto accidental o escalada accidental del conflicto, si ML o la automatización algorítmica se utilizan en este tipo de aplicaciones militares, advierte EFF.

CLIC PARA SEGUIR LEYENDO

PRESS

Israel busca fortalecer su industria cibernética mediante fuerte inversión

Elizabeth Salazar

Publicado

en

El gobierno de Israel anunció una inversión de 90 millones de séqueles (24 millones de dólares) para fortalecer la industria de seguridad cibernética del país, mediante un programa de inversión de tres años.

Se elegirán compañías especialistas en investigación y desarrollo de alto riesgo, las cuales recibirán cerca de 5 millones de séqueles al año.

Recomendado: Industria tecnológica respalda nuevas normas de enrutamiento para mejorar seguridad en Internet

El programa contribuirá también al financiamiento de proyectos piloto tanto en Israel como en el extranjero.

Tanto el 5 por ciento de la cuota de mercado mundial en ciberseguridad, como el 16 por ciento de la inversión mundial en la industria cibernética, pertenecen a Israel, detrás de Estados Unidos, según datos del gobierno israelí.

CLIC PARA SEGUIR LEYENDO

PRESS

Metro de Los Ángeles será el primero en escanear pasajeros masivamente

Las máquinas escanean en busca de objetos metálicos y no metálicos en el cuerpo de una persona, pueden detectar objetos sospechosos a nueve metros de distancia

Carolina Valdovinos

Publicado

en

El Metro de Los Ángeles se convertirá en el primer sistema de transporte público masivo en Estados Unidos en instalar escáneres corporales que revisen a los pasajeros en busca de armas o explosivos.

El despliegue de los escáneres portátiles proyectan olas para hacer exámenes de cuerpo completo de pasajeros que caminan por las estaciones sin detenerlos.

Las máquinas escanean en busca de objetos metálicos y no metálicos en el cuerpo de una persona, pueden detectar objetos sospechosos a una distancia de nueve metros, además de poder escanear a dos mil pasajeros por hora. Las máquinas para escaneo se compraron con la compañía Thruvision, con sede en Reino Unido.

Se colocarán letreros en las estaciones advirtiendo a los pasajeros que están sujetos a un escáner corporal.

El proceso de selección es voluntario; sin embargo, las personas que no quieran ser evaluados no podrán viajar en el Metro, puntualizó Alex Wiggins, quien dirige la división de aplicación de la ley de la Autoridad Metropolitana de Transporte del Condado de Los Ángeles.

Más de 150 mil pasajeros abordan diariamente la Línea Roja de Metro, por lo cual para sus pasajeros representa una capa más de seguridad durante su trayecto en el sistema de transporte.

CLIC PARA SEGUIR LEYENDO
Advertisement

DÍA A DÍA

febrero 2018
L M X J V S D
« Ene   Mar »
 1234
567891011
12131415161718
19202122232425
262728  

Trending

Bitnami