En el desarrollo de las máquinas con inteligencia artificial, como vemos en el caso de las empresas nombradas y muchas más, no existe un clara línea de diferencia entre su uso bélico y muchos usos comerciales que ya están alrededor en nuestra vida cotidiana, desde celulares a cámaras de vigilancia, vehículos no tripulados y drones en campo y ciudad, además de los buscadores electrónicos y las redes sociales que todo el tiempo drenan datos y los procesan según sus algoritmos para vender la información a quién se las compre.
Silvia Ribeiro
17 abril 2018
Muerte a control remoto
Desinformémonos
Más de 3000 empleados de Google escribieron una carta abierta, pidiendo a la empresa retirarse del proyecto Maven, que realiza para el Pentágono, con el objeto de crear sistema de inteligencia artificial, para interpretación y reconocimiento de imágenes capturadas por drones del gobierno de EU, para optimizar reconocimiento facial, detectar vehículos y otros objetos y seguir sus movimientos, y reportar todo al Departamento de Defensa. En resumen, detectar blancos para ataques con drones (aeronaves no tripuladas) y de paso aumentar la capacidad de vigilancia del gobierno a los ciudadanos.
Según reporta la organización Code Pink de Estados Unidos, ese país ya ha realizado múltiples ataques con drones en varios países, entre ellos Afganistán, Yemen, Siria, Somalia y Paquistán, provocando miles de muertes civiles.
Uno de los más altos directivos de Google, aceptó anteriormente, que existía “una preocupación general en la comunidad tecnológica de que de algún modo el complejo militar-industrial esté usando su material para matar gente incorrectamente…” (sic).
Los empleados de Google exigen que se cancele el proyecto y que Google se comprometa a elaborar y poner en vigencia una política clara para que ni la empresa ni sus contratantes construyan tecnologías de guerra. La empresa contestó que la tecnología no va a “operar o volar drones” y “que no será usada para activar armas”, pero como explican los empleados en la carta, “la tecnología se está construyendo para los militares, y una vez entregada, puede ser fácilmente usada para estos fines.”
Una de las razones que dio Google a sus empleados, es que otras empresas, como Amazon y Microsoft, también están colaborando con el Pentágono, con servicios de almacenamiento en nubes informáticas y otros. Amazon se refiere pública y orgullosamente a esta colaboración.
Al mismo tiempo que se hacía pública esta carta, expertos en inteligencia artificial de 30 países decidieron boicotear una universidad surcoreana para que interrumpa la colaboración con la empresa Hanwha Systems, con la que creen están desarrollando robots asesinos. Hanwha Systems es uno de los mayores fabricantes de armas de Corea del Sur, fabrica bombas de racimo y otras armas que están prohibidas en la mayoría de países, pero no es Estados Unidos, Rusia o China.
Los robots asesinos son un nuevo paso en armas autónomas letales equipadas con inteligencia artificial. Un punto importante de preocupación, entre muchos otros, es que estos robots sean programados con autonomía para atacar, o que los programas de “aprendizaje entre máquinas” sucesivos lleven a eso. Los fabricantes aseguran que la orden de ataque aún se tiene que dar a control remoto.
Según un artículo de Javier Tolcachier sobre el tema, además de Estados Unidos y Corea del Sur, Rusia, Israel, India, Francia y Gran Bretaña están desarrollando programas de armas letales autónomas, con robots asesinos. El argumento para ello, es que de esta manera se pueden realizar “intervenciones quirúrgicas”, en lugar de bombardear poblaciones civiles enteras o “con menor definición”. Este tipo de armas, incluyendo a los drones que ya se usan, convierten los actos de guerra en una especie de simulacros de videojuegos. Israel ya usa drones con capacidad de ataque para vigilancia de fronteras.
Lejos de ciencia ficción, el tema es tan real y grave, que por presión de organizaciones civiles de derechos humanos y otras, Naciones Unidas está discutiendo su posible prohibición. Lo cual sería un mensaje importante, aunque los cuerpos militares podrían seguir desarrollándolos en la ilegalidad.
Uno de los puntos esenciales para poder desarrollar estos robots, es el reconocimiento más detallado de los “objetivos” incluyendo individuos concretos, identificar su pertenencia “al enemigo”, su implicación en las hostilidades, etc., algo que hoy se ve lejano. Por eso se requiere la participación de expertos en inteligencia artificial aplicada al
reconocimiento de imágenes, justamente como el contrato con Google, que ésta alega es apenas “defensivo”. Pero no hay tal separación entre defensivo y ofensivo, o entre tecnología bélica y sus aplicaciones comerciales.
Como explica Tolcachier, “Más allá de las argumentaciones, hay claros motivos implícitos en esta mortífera aplicación de sistemas de inteligencia artificial al armamento. Amén de mantener supremacía bélica, lo cual implica la posibilidad de eliminar la resistencia emergente a la hegemonía geoestratégica, se trata de conservar o acrecentar la supremacía tecnológica. Lo cual supone claros beneficios económicos para los ganadores y enormes perjuicios para los perdedores”.
En efecto, el caso de los robots asesinos es extremo, enfermo y debe ser prohibido. Pero en el desarrollo de las máquinas con inteligencia artificial, como vemos en el caso de las empresas nombradas y muchas más, no existe un clara línea de diferencia entre su uso bélico y muchos usos comerciales que ya están alrededor en nuestra vida cotidiana, desde celulares a cámaras de vigilancia, vehículos no tripulados y drones en campo y ciudad, además de los buscadores electrónicos y las redes sociales que todo el tiempo drenan datos y los procesan según sus algoritmos para vender la información a quién se las compre.
Un ejemplo escalofriante de este desarrollo acrítico de la inteligencia artificial sucedió en octubre de 2017, cuando se le dio la palabra al robot humanoide Sophia en Naciones Unidas (algo que rara vez se le permite a las organizaciones de la sociedad civil y movimientos sociales) y luego el robot se puso a charlar sobre política con Amina Mohammed, Vice-secretaria General de la ONU. Una semana después, Arabia Saudita decidió otorgarle ciudadanía a Sophia —un derecho que se le niega rutinariamente a millones de seres humanos.
Mientras que el uso de la inteligencia artificial con fines bélicos ha sido cuestionado por Stephen Hawking y otros científicos, así como por organizaciones de la sociedad civil, el uso de ésta en sistemas industriales, de vigilancia y redes sociales no está considerado tan ampliamente con la misma mirada crítica. Tarea pendiente y urgente.