Aplicaciones asesinas, literalmente: tecnología portátil y de teléfonos inteligentes en el campo de batalla

Aplicaciones asesinas, literalmente: tecnología portátil y de teléfonos inteligentes en el campo de batalla

el sargento de personal  Vincent Kelly, de una empresa, 1er Batallón, 29º Regimiento de Infantería, recibe imágenes en tiempo real usando la herramienta de conciencia situacional del líder de la unidad pequeña durante una maniobra de demostración de laboratorio de combate el 13 de mayo de 2014, en el área de entrenamiento de operaciones de terreno urbano militar de McKenna en Fort Benning, Georgia.

el sargento de personal Vincent Kelly, de una empresa, 1er Batallón, 29º Regimiento de Infantería, recibe imágenes en tiempo real usando la herramienta de conciencia situacional del líder de la unidad pequeña durante una maniobra de demostración de laboratorio de combate el 13 de mayo de 2014, en el área de entrenamiento de operaciones de terreno urbano militar de McKenna en Fort Benning, Georgia.

Si has jugado shooters en primera persona como aureola Donde Caída del Titán, viste un poco del futuro potencial de las tropas y las fuerzas del orden en el campo. Estos juegos le dan al jugador una visualización virtual de «cabeza arriba» del mundo del juego alrededor de su avatar, con mapas que muestran a los enemigos y otros datos vitales sin tener que apartar la mirada de lo que está armado.

El ejército de los EE. UU. ha estado experimentando con pantallas de datos de visualización frontal durante años, pero ahora los servicios están buscando alternativas más económicas a los sistemas personalizados en electrónica de consumo. En un futuro no muy lejano, cuando un líder de escuadrón del ejército quiera saber qué está por venir, puede buscar un teléfono inteligente o un dispositivo Google Glass en lugar de binoculares.

El Laboratorio de Batalla de Maniobras del Ejército de los EE. UU. en Fort Benning, Georgia, demostró recientemente un ejemplo de esta adopción de tecnologías portátiles y móviles listas para usar. El Ejército está evaluando el uso de tecnología de teléfonos inteligentes estándar como una «herramienta de conciencia situacional» portátil que utiliza una aplicación para conectarse a transmisiones de video de robots en tierra y en el aire.

Drones para los ojos

La Herramienta de Conciencia Situacional del Líder de Unidad Pequeña (SULSAT), un experimento del Programa de Experimentación de Conceptos del Ejército, obtuvo su primera demostración de campo en el Centro de Operaciones Militares McKenna de Fort Benning en el área de entrenamiento en terreno urbano el 13 de mayo. Usando una conexión inalámbrica a un robot táctico o al sistema de control de un pequeño dron, SULSAT transmite video a un comandante de escuadrón o pelotón donde se encuentre, en lugar de tener que mirar por encima del hombro del operador o transmitir solicitudes de instrucciones por radio.

El programa SULSAT de un millón de dólares, según los documentos presupuestarios de investigación y desarrollo del Ejército, es parte de un esfuerzo por integrar mejor los sistemas robóticos en el nivel más bajo de la estructura de mando del Ejército, brindando a los sargentos una herramienta de bolsillo que los pone en control de lo que sucede. en. la colina oa la vuelta de la esquina. Se puede utilizar para despejar las rutas de un escuadrón o pelotón, para identificar posibles artefactos explosivos improvisados ​​o simplemente para dominar un entorno desconocido.

Publicidad

El principal inconveniente del prototipo actual es el alcance limitado de su conexión inalámbrica. El primer teniente Brandon Slusher, un oficial de la Compañía A, 1er Batallón, 29º Regimiento de Infantería, elogió la herramienta pero le dijo al Servicio de Información del Ejército que el comandante del pelotón siempre debe permanecer cerca del operador de control robótico táctico para obtener las transmisiones de video.

Otros objetivos del programa, más allá de las transmisiones de video en vivo, incluyen vistas de realidad virtual en 3D construidas a partir de sensores aéreos y terrestres. En marzo, el ejército lanzó una solicitud de un sistema capaz de tomar LiDAR y otros datos de sensores de robots y drones terrestres para crear una visualización del terreno, construir estructuras internas y externas y amenazas potenciales, incluido el reconocimiento automático de objetivos en movimiento. . Estos datos se transmitirían a los soldados en sus dispositivos portátiles.

Ok, bombas de vidrio lejos

Una prueba del BATMAN II basado en Google Glass en el Laboratorio de Investigación de la Fuerza Aérea (AFRL) en la Base de la Fuerza Aérea Wright-Patterson.Agrandar / Una prueba del BATMAN II basado en Google Glass en el Laboratorio de Investigación de la Fuerza Aérea (AFRL) en la Base de la Fuerza Aérea Wright-Patterson.

Base de la Fuerza Aérea Wright Patterson

El ejército no es el único servicio que busca dar a las tropas en el campo una visión del mundo aumentada digitalmente. El 711th Human Performance Wing del Air Force Research Laboratory está probando un sistema basado en Google Glass como parte de un programa con el improbable (y ligeramente forzado) acrónimo BATMAN II—Battlefield Air Targeting Man Aided Knowledge (sic). AFRL obtuvo dispositivos Google Glass a través del programa Glass Explorer de Google.

Actualmente hay dos poblaciones de usuarios objetivo para las gafas BATMAN: paracaidistas de rescate de la Fuerza Aérea (operadores de Fuerzas Especiales con capacitación médica de emergencia); y controladores aéreos/de ataque conjuntos de la terminal, personas en tierra que hablan con las aeronaves de ataque y aconsejan dónde se deben lanzar las bombas y detonarlas.

El logotipo del programa BATMAN de la Fuerza Aérea.Agrandar / El logotipo del programa BATMAN de la Fuerza Aérea.

Base de la Fuerza Aérea Wright Patterson

La AFRL está estudiando cómo usar los sensores en Google Glass y su interfaz para ayudar con tareas que van desde transmitir información médica de un lado a otro hasta dar una apariencia asesina, usando el lugar donde una persona mira para designar un objetivo aéreo. El equipo original de BATMAN era un sistema informático de mano resistente con un monóculo de pantalla que sobresalía de un casco completo. AFRL ha adoptado Google Glass para la próxima fase de desarrollo tanto por el peso reducido del dispositivo y la riqueza de sensores incorporados, como por su precio significativamente más bajo.

Publicidad

Google Glass también está siendo elegido por contratistas del Departamento de Defensa para otros usos potenciales. En la Conferencia de la Industria de las Fuerzas de Operaciones Especiales el 20 de mayo en Tampa, Florida, el Instituto Battelle Memorial, que opera el Centro Nacional de Análisis y Contramedidas de Biodefensa y varios otros laboratorios nacionales, hizo la demostración de Google Glass como parte de un proceso químico-biológico -suite de detección radiológica. Las aplicaciones de vidrio, llamadas Aplicaciones de Realidad Aumentada Táctica (TARA), usan reconocimiento de video y una interfaz inalámbrica con sensores químicos, biológicos y radiológicos/nucleares para proporcionar a los soldados y otros socorristas una forma de realidad aumentada, una pantalla de visualización frontal que presenta información basado en análisis de video y datos de sensores.

En una entrevista con Ars, Darren Wolfe de Battelle dijo que la interfaz inalámbrica con Glass podría permitir que alguien pruebe un área en busca de peligros potenciales para evaluar rápidamente si hay agentes peligrosos presentes. “En lugar de tener que mirar una lectura, les da un indicador de color simple para decirles si el instrumento es positivo para un agente”, dijo. «Parpadeará en rojo en el cristal si hay peligro». Esto permite que la persona en el sitio continúe enfocándose en la tarea de contener o desechar los objetos contaminados.

Otra característica de TARA, útil tanto en el campo de batalla como en posibles incidentes que involucren materiales peligrosos, es su capacidad de reconocimiento de video. El video de la cámara Glass se puede usar con el software de reconocimiento facial para alertar a los soldados o a los agentes de la ley cuando se detecta a una persona de interés, y para identificar dispositivos explosivos improvisados, señales químicas peligrosas y equipos potencialmente utilizados para la construcción de armas masivas. destrucción. La pantalla de vidrio puede proporcionar una lista de verificación sobre cómo manejar el IED u otros elementos, según el análisis visual.

TARA se puede usar en combinación con otra aplicación diseñada con hardware orientado al consumidor, el casco de realidad virtual Oculus Rift, como parte del entorno de entrenamiento inmersivo de Battelle (BITE). Usando los sensores de cabeza integrados de Oculus y un par de sensores portátiles, un usuario puede interactuar con objetos virtuales en escenarios de entrenamiento HAZMAT, IED y WMD y obtener datos simulados de la pantalla Google Glass.

Deja un comentario

Tu dirección de correo electrónico no será publicada.