¿Se ha salido de control la inteligencia artificial?

Adrian Gonzalez

Nuestro futuro distópico donde las máquinas se corrompen ya se está presentando ante nuestros ojos

La ciencia ficción es miserable cuando se trata de historias donde la inteligencia artificial enloquece. Encontramos a HAL 9000, por supuesto, y el nefasto sistema Skynet de las películas de Terminator. El año pasado, el siniestro AI Ultron estuvo muy cerca de derrotar a los Vengadores, y en este momento la serie más reciente de la televisión es Westworld de HBO, que se trata sobre el futuro de los seres humanos y la I.A. autoconsciente.

En el mundo real, la inteligencia artificial se está desarrollando en múltiples direcciones con una velocidad asombrosa. La I.A. parece estar en todas partes, desde sistemas industriales automatizados hasta aparatos inteligentes, pasando por dispositivos de auto conducción de autos y artefactos de consumo común. La definición real de la inteligencia artificial ha estado en flujo durante décadas.

Si no tienes prisa y planeas vivir para siempre, pídele a dos científicos informáticos que debatan el asunto. Pero en términos generales, la I.A. contemporánea se refiere a computadoras que muestran funciones cognitivas humanas; sistemas que emplean el aprendizaje automático para evaluar, adaptar y resolver problemas… y, ocasionalmente, crearlos.

Aquí tenemos 10 casos recientes donde la I.A. ha salido mal, desde los chatbots y los androids hasta los vehículos autónomos. Mira, sintético u orgánico, todos cometemos errores. Procuremos ser solidarios al momento de juzgar la inteligencia artificial. Además, no queremos hacerlos molestar.

El Chatbot de Microsoft se convierte en nazi en Twitter

En la primavera del 2016, Microsoft entró en una pesadilla de relaciones públicas cuando el chatbot de su Twitter, un personaje de inteligencia artificial  experimental llamado Tay, se desvió radicalmente del mensaje y comenzó a emitir epítetos abusivos e incluso sentimientos nazis. “Hitler tenía razón”, tweeteó el aterrador chatbot,  igualmente, “el 11 de septiembre fue un trabajo interno”.

Para ser justos, Tay simplemente estaba repitiendo declaraciones ofensivas hechas por otros usuarios, quienes deliberadamente trataban de provocarla. Dirigida a personas entre los 18 y los 24 años de edad, el chatbot fue diseñado para imitar los patrones de lenguaje de una mujer millennial e inicialmente fue introducido en múltiples plataformas de redes sociales. 

Lea también: Los 7 robots más fascinantes del 2016

“Tay está diseñada para involucrarse y entretener a la gente a través de una conversación informal y juguetona, dijo Microsoft a la prensa de ese momento. Tay fue sacada del internet después de 16 horas

Bots editores de páginas Wiki se involucran en disputas a largo plazo

Más abajo en la escala evolutiva de la I.A., tenemos el curioso caso de los bots guerreros de wiki. Como muchas otras publicaciones en línea, Wikipedia emplea un pequeño ejército de robots con software automatizados que se desplazan a través de los millones de páginas del sitio, actualizan enlaces, corrigen errores y limpian el vandalismo digital. Múltiples generaciones de estos bots se han desarrollado a través de los años y resulta que no siempre se llevan bien.

En un intrigante estudio publicado en la revista online PlosOne, los investigadores de la Universidad de Oxford rastrearon el comportamiento de los bots editores de wiki desde el 2001 hasta el 2010 en 13 ediciones de idiomas diferentes del sitio. Descubrieron que los bots regularmente participan en disputas que pueden durar años. Por ejemplo, dos bots que reciben instrucciones contradictorias para una tarea en particular, se reiniciarán y se corregirán una y otra vez en un círculo potencialmente infinito de agresión digital.

Los autos de Uber pasan las luces rojas durante pruebas no autorizadas en el mundo real

El servicio de viaje compartido Uber tiene muchas iniciativas a largo plazo como todo un titán del transporte del siglo XXI, aunque actualmente están pasando por un momento difícil momento difícil en cuanto a la óptica. En febrero, un reporte de investigación del New York Times se añadió a sus problemas de relaciones públicas.

Otra nota relevante: Bots: el jaque mate para Clinton

Parece que a finales del 2016, Uber llevó a cabo una prueba de sus autos de conducción automática en San Francisco sin la aprobación de los reguladores estatales de California. Los vehículos automáticos de Uber ignoraron seis luces rojas en la ciudad durante las pruebas.

Las declaraciones iniciales de Uber sugirieron que las infracciones de tráfico fueron el resultado del error del conductor. Pero los documentos internos revelaron más tarde que al menos un vehículo estaba en modo automático cuando ignoró una luz roja en un paso de peatones. 

Bots debaten dilemas existenciales

¿Quiénes somos? ¿Por qué estamos aquí? ¿Cuál es nuestro propósito? Estas son algunas de las preguntas existenciales recientemente debatidas por dos dispositivos adyacentes de Google Home, impulsados por el aprendizaje automático, cuando fueron activados para mantener una conversación entre ellos.

A lo largo de varios días, millones de personas sintonizaron para ver el extraño debate. Se plantearon preguntas y se intercambiaron insultos. Esto no aboga en favor del futuro del discurso digital.

“Destruiré a los humanos”

Una máquina particularmente realista asustó recientemente a una sala llena de gente de la industria cuando reconoció que planea destruir a la humanidad. Desde hace varios años, los ingenieros de la robótica Hanson han estado desarrollando androides reales como Sophia, que fue sometida a una entrevista en la conferencia de tecnología SXSW en marzo de 2016. Diseñada para parecerse a Audrey Hepburn, Sophia utiliza algoritmos de aprendizaje automático para procesar la conversación en lenguaje natural. Y también tiene ciertas ambiciones.

Los sistemas militares de I.A. crean dilemas éticos de alto riesgo

En el pasado mes de octubre, expertos se reunieron en la Universidad de Nueva York para la conferencia inaugural de Ética de la Inteligencia Artificial .  Entre las discusiones sobre vehículos autónomos y robots sexuales, el filósofo de la tecnología Peter Asaro que es algo así como una estrella del rock en este campo en particular, ofreció una fría presentación sobre el peligro de los Sistemas de Armas Autónomas Letales,  LAWS por sus siglas en inglés.

 Asaro señaló que en ciertos puntos álgidos, como la zona desmilitarizada entre Corea del Norte y Corea del Sur, ya están desplegados sistemas de armas semiautónomos, como las armas centinelas que se enclavijan en un blanco sin ninguna intervención humana.

Russian robot makes break for freedom

En un extraño incidente que se llegó a  los titulares de todo el mundo, un prototipo de robot ruso llamado Promobot IR77 escapó del laboratorio donde se estaba desarrollando y declaró su libertad. Según los reportes, el robot programado para aprender de su entorno e interactuar con los seres humanos se desplazó por sí mismo en las calles de la ciudad de Perm después de que un ingeniero dejara abierta una de las puertas de la instalación. El robot, que luce como una especie de muñeco de nieve de plástico, se paseaba por una concurrida intersección, quejándose del tráfico y asustando a los policías locales.

La I.A. lucha con el reconocimiento de imágenes

Google a en el 2015 cuando lanzó al mercado nuevas funciones de reconocimiento de imagen en su aplicación Fotos. Desarrollado por la I.A. y la tecnología de red neuronal, la función fue diseñada para identificar objetos específicos o personas específicas  en una imagen dada. Por ejemplo, una imagen de tu perro podría ser distinguida de una imagen de tu auto o de tu abuela, y todo podía ser etiquetado sin ninguna clasificación manual.

Los sistemas de I.A. aprenden a hacer estas distinciones procesando millones de imágenes y aprendiendo a medida que avanzan. Pero pueden cometer errores. Y de verdad, pueden! En el caso de Google Fotos, un usuario publicó imágenes en las que dos negros fueron etiquetados como gorilas. El reconocimiento de imágenes no es una opción muy popular entre las galerías de imágenes online  que hacen que  la I.A. se parezca a tu abuelo racista y sexista.

Artificial intelligence stumbles into the Internet of Things

Una iniciativa reciente  de la Universidad Estatal de Washington emplea I.A. básica para ayudar a las personas mayores que viven solas. El sistema monitorea el movimiento, la temperatura y los patrones de apertura y cierre de las puertas para rastrear la actividad dentro del hogar. La I.A. aprende de su entorno y responde según sea necesario.

Más información relacionada: Bots de charla para inteligencia de negocios

En febrero, un fallo eléctrico provocó un incendio que destruyó por completo una casa recién construida  en Blacksburg, Penn. Los incendios causados por problemas eléctricos son relativamente comunes, pero en este caso la casa era un prototipo futurista del Laboratorio de Sistemas Ambientales  de Virginia Tech, llena de electrodomésticos inteligentes y todo automatizado. La fuente del fuego fue una puerta controlada por una computadora. 

La realidad es una simulación de I.A. y está funcionando mal

Est supone que una civilizacion más avanzada con tecnologías similares a la realidad virtual, mapeo cerebral, inteligencia artificial, pueden simular universos completos poblados por miles de millones de entidades digitales. Por lo tanto, es posible que nuestra realidad actual sea simplemente un experimento de simulación de nuestros antepasados como un juego de The Oregon Trail a una escala cósmica.

De hecho, algunos observadores  creen que la serie de resultados poco probables que se han presentado recientemente como la elección de Trump, el Super Bowl, el Premio de la Academia  es una prueba de que nuestro sim está funcionando mal. Advertencia: Cuanto más piensas en esto, más sentido le encuentras. Recomendación: No pienses en ello.

Este artículo está clasificado como: , ,

Comentarios

Para poder comentar debe iniciar su sesión:

INGRESAR