Spot Mini: el perro robot ha vuelto

Spot Mini: el perro robot ha vuelto

spot miniHace tiempo que vengo siguiendo las peripecias de la familia de robots de Boston Dynamics, una compañía tecnológica que fue comprada por Google y se dedicaba al desarrollo de sistemas motrices cibernéticos. Realmente no son robots, sino la parte corpórea: el chasis, las articulaciones y extremidades, los sistemas de movimiento y equilibrio. Y son terribles de ver, por la fluidez de sus movimientos y la evolución que han tenido en una década. Si no fuera porque la película de James Cameron es anterior, casi se diría que Cyberdyne Systems es una caricatura de esta empresa, que también desarrolló productos para ciertos departamentos de Defensa estadounidenses. Pero a veces la realidad imita a la ficción.

Cuando Google se desprendió de Dynamics en 2014, parecía que la pesadilla había terminado y las máquinas ya no se alzarían contra nosotros: su destino iba a ser fabricar piezas en la Toyota o repartir paquetes con Amazon, las dos empresas interesadas en adquirirla. Pero al final, fue adquirida por SoftBank Group Corp., uno de esos keiretsu o conglomerados tecnológicos japoneses que abarcan una variedad de campos.

SoftBank se dedica principalmente a las telecomunicaciones (banda ancha, internet) aunque también se extienden al comercio electrónico y banca, por ejemplo (entre otras cosas, fueron el distribuidor exclusivo del primer iPhone en Japón).

Ahora Boston Dynamics ha publicado este (trailer?) de nuevo modelo de cyberperro, Spot Mini. Mientras que las anteriores generaciones eran todo chasis y cableado, esta unidad ya tiene estética: un recubrimiento en llamativo color amarillo y un rediseño de sus extremidades para que sean menos aparatosas. Sin duda ha dado un cambio.

Ahora la máquina ha cambiado de una estética pre-Terminator a algo más tipo Ghost in the Shell o Appleseed, lo cual también encaja con sus nuevos amos. Veremos qué destino le dan, porque su aspecto sigue siendo tan intimidante como antes. Otra vez ha cambiado la línea de tiempo, pero parece que Skynet sigue estando ahí delante más fuerte que nunca…

 

Simulando comida en la Realidad Virtual

Simulando comida en la Realidad Virtual

Resulta interesante ver cómo los guionistas de ciencia-ficción son tan detallistas para algunas cosas y luego meten la pata en el conjunto; creo que es un fallo general en el cine de estos tiempos que algún día se superará. Por ejemplo, The Matrix (1999) era muy buena en detalles: el hecho de que viviéramos en una simulación por ordenador y se hubieran perdido los datos de casi cualquier especie comestible durante el apocalipsis previo hacía que casi todas las carnes supieran a pollo. Y el factor que expone Cypher -el traidor de turno- para rendir pleitesía al Sistema es un filete de ternera bien gordo y jugoso, que se come mientras habla (mientras que en la vida real, la única comida que se puede encontrar son unas gachas asquerosas con pinta de engrudo).

Sword Art Online (2017) también contiene un mundo virtual en el que los protagonistas se ven atrapados mientras sus cuerpos, en coma inducido, permanecen dormidos durante años. Ese aislamiento del mundo real induce a algunos a experimentar con los escasos algoritmos de comida que existen en el videojuego, consiguiendo generar sabores nuevos, por ejemplo, la salsa de soja que como buenos japoneses añoran tristemente.

comida en realidad virtualAún no disponemos de interfaces cerebro-máquina tan eficientes como los de SAO o Matrix, pero el camino está abierto. Lo último lo ha publicado Nimesha Ranasinghe de la Universidad Nacional de Singapur: sistemas de estimulación mediante electrodos que excitan los receptores del sabor, provocando sensación de dulzor, salado o ácido.

El año pasado presentó una nueva versión mediante termoestimulación: unas placas que se calientan y enfrían rápidamente engañando a los receptores que tenemos en la lengua (que normalmente sirven para detectar químicos mediante lo que llamamos sabores). Esto se consigue apoyando la lengua contra las citadas plaquitas, algo de momento poco práctico. Los sujetos de prueba reconocían, además de los sabores básicos, un punto mentolado (en temperaturas sobre los 18º) y picante (hacia los 35º)

Otro sistema eléctrico, creado por Arinobu Niijima y Takefumi Ogawa, estimula el músculo masetero (que es el que sirve para masticar) para recrear una sensación de textura en la comida. Estimulando el músculo a una frecuencia alta, la sensación es de comida fibrosa; frecuencias bajas dan la impresión de bocados más suaves. La simulación más realista hasta el momento es como de gominolas; esto parece una tontería, pero pensemos en esos chicles que hemos mascado horas después de que perdieran el último rastro de sabor…

Un aparato portátil que generara esta sensación de solidez y un sabor dulzón podría ser una especie de “chicle virtual” para apaciguar las ansiedades de mucha gente que le llevan a comer compulsivamente. El dispositivo de Ranasinghe podría ayudar a reducir la ingesta de sal en pacientes que deben reducir su consumo, por ejemplo por hipertensión. O unas palomitas virtuales para el cine, con cero calorías! Las posibilidades son ilimitadas, y el objetivo final -el filete jugoso y menos-que-vegetariano de Matrix- está cada vez más cerca.

Thermal stimulation of taste, en Nature

Los lápices de Leonardo da Vinci

Los lápices de Leonardo da Vinci

Este vídeo del Royal Collection Trust (que no puedo poner aquí por restricciones de copyright) nos muestra un aspecto poco conocido de las técnicas de Leonardo da Vinci y en general de todos los artistas de aquellos tiempos, y nos hace reflexionar: a ver si cuando nos quejamos porque el ordenador se ha reiniciado y hemos perdido una hora de trabajo… no es para tanto?

Leonardo-da-Vinci-apuntesPorque los materiales con que contaba un artista a mitad del siglo XV eran muy básicos y caseros: carbón, tiza (natural, no la de yeso) pigmentos naturales que se podían mezclar con agua y clara de huevo o goma arábiga para que se adhirieran bien, plumas de ganso que había que preparar uno mismo para poder dibujar, tinta china, y un papel carísimo hecho de trapos. Faltaba medio siglo para que se descubriera el grafito: los lápices eran puntas metálicas de plomo o plata que se raspaban sobre una base (papel o madera) con un recubrimiento de yeso.

Si lo miramos con detenimiento, el taller de un pintor no tiene cosas mucho más sofisticadas que esto: la gran revolución práctica de la pintura fueron los pigmentos preparados en tubo, pero eso es muy reciente. El grabado se sigue haciendo igual que hace mil años; la tinta china y las acuarelas, aparte de la estabilidad química de los productos, son más o menos lo mismo. Incluso la costumbre que se menciona de usar mejillones como paleta-recipiente para preparar los diferentes colores me parece original y mejor que ir a robar platitos de postre a la cocina. Pero obtener el suministro de materiales adecuado: tierra de Siena, sulfato de cobre, lapislázuli, carmín, malaquita, oropimente… era caro. Tal vez eso afinaba la habilidad de los pintores, igual que ocurría con las cámaras de fotos analógicas: se dice que cuando sólo tenías 36 disparos te lo pensabas mucho antes de hacer un selfie o una de esas fotos estúpidas que ponemos ahora. Claro, eso es una leyenda de tiempos ancestrales.

Actualmente disponemos de unas comodidades tremendas para dibujar, ya sea de forma natural o digital, y aparte también podemos hacer el snob y replicar los métodos del quattrocento. Estoy seguro de que Leonardo se hubiera enganchado a la tableta y a la impresora 3D; lo que no tengo tan claro es de si, con los años, hubiera seguido siendo el Maestro que llegó a ser, o si su individualidad creativa se habría disuelto en Internet. Para un polímata, la Red (de forma no muy diferente a lo que pudo ser la biblioteca de Alejandría, la de París o la del Congreso en USA ahora mismo) es un peligro más traicionero que cualquier droga.

 

noleiuncarajo

El Rembrandt artificial

El Rembrandt artificial

El nuevo cyber - RembrandtÚltimamente ha salido en los medios el experimento de Microsoft, la Universidad Tecnológica de Delft y el Museo Rembrandt de Amsterdam: un sistema informático alimentado con infinidad de datos obtenidos de las 340 pinturas existentes del gran Rembrandt van Rijn, maestro pintor holandés del siglo XVII. Esto se ha presentado de varias maneras, desde que era un “photoshop copy-paste” a una “Inteligencia Artificial artista”. Veamos qué hay de esto.

El sistema usado fue un conjunto de algoritmos de aprendizaje automático (denominado Deep Learning) que intenta modelar abstracciones de alto nivel en datos usando arquitecturas compuestas de transformaciones no-lineales múltiples. Esto lo dice wikipedia, no yo. Más o menos, estos sistemas Deep Learning, que han sido utilizados para cosas tan dispares como reconocimiento facial y posicionamiento SEO, utilizan redes neurales en las cuales cada “neurona” genera un dato de salida a partir de una entrada, pero interactuando con los resultados de otras dispuestas en “capas”. El resultado de estos sistemas algorítmicos de aprendizaje es la capacidad para distinguir elementos difusos del mundo real, como reconocer escrituras a mano, o decidir qué es un gato (la primera tarea que se le encomendó a estos sistemas en Google). No es raro que estén tan asociados a imágenes, porque el sistema se basa en los trabajos de Kunihiko Fukushima quien  propuso en los años 80 un algoritmo conocido como “neocognitron” en donde se empleaban varias redes para emular el funcionamiento de las neuronas del córtex visual primario.

O sea, que el Neo-Rembrandt iba a entrenarse a base de miles de GB de datos obtenidos escaneando la obra del pintor, tanto en plano como en 3D para estudiar la pincelada y el impasto (o sea, la textura y volumen generado por el óleo sobre la tela). Más tarde se decidió, estadísticamente, qué iba a pintar: un retrato de un hombre. Blanco. 30-40 años. con barba y/o bigote. Traje negro, sombrero y gola de encaje blanca. Mirando a la derecha.Y el resto se dejó en manos de la máquina.

La impresión posterior aprovechó los datos 3D para sacar una impresión con un cierto volumen (esto ya se está utilizando para reproducciones pictóricas de altísima calidad en museos) que retiene la expresión de los trazos, lo que denominamos antes el impasto.

Autorretrato con los ojos abiertos, de Rembrandt¿Puede considerarse esto arte? Bueno, no. Si acaso tiene tanto arte como una buena falsificación hecha por humanos. Tampoco es un vulgar copypaste: el sistema tiene el mérito de haber aprendido las pautas básicas de 340 cuadros de Rembrandt y haber generado algo nuevo. Pero hubiera estado bien que el tema fuera, por ejemplo, una chica con unos walkman en una parada de autobús al sol. ¿Qué hubiera hecho el maestro ante algo así? Invitarla a tomar algo, seguramente. El problema de la máquina es que dispone de muy escasos datos de entrada y de poquísimas obras: sólo información técnica de trazo, paleta, presión… nada de lo que hay detrás. Los miles de dibujos. Las malas rachas. Las deudas para pagar la hipoteca de su casita en Amsterdam, que era muy cara. La resaca del fiestón de ayer. El dolor por lo de Saskia y los niños. El entusiasmo por las cosas raras*. ¿Se podrían incorporar recuerdos al algoritmo? ¿Interacciones con otros algoritmos de emulación, su colega Lievens por ejemplo? Estoy seguro que con el tiempo se llegará a eso. Y eso, ¿seguirá siendo un mero algoritmo entonces?

Next Rembrandt, la página oficial del proyecto.

  • Rembrandt coleccionaba todo tipo de minerales, fósiles, piezas arqueológicas… lo que en aquellos tiempos se llamaba un gabinete de curiosidades.

Google vende Boston Dynamics!

Tan sólo tres años después de adquirirla, el gigante Google se desprende de una adquisición muy llamativa: Boston Dynamics, la empresa de robótica que dio a luz engendros mecánicos como la Cybermula, Cyberdog, el robot Atlas o Cheetah. Pero ¿por qué? la evolución de estos prototipos de esqueletos metálicos ambulantes estaba siendo prometedora, pasando de un movimiento dificultoso en laboratorio a ser máquinas deambulantes por exteriores difíciles (terreno rocoso, nieve) capaces de recuperar el equilibrio y extremadamente robustas.

Por lo visto la directiva de Google no le ve una salida económica a corto plazo, y los ejecutivos de BD tampoco estaban muy dispuestos a desarrollar en conjunto con otros equipos de Google como los ingenieros de robótica que tienen en Tokyo y California, pertenecientes a la iniciativa Replicant: desarrollos robóticos iniciados por Andy Rubin (que ya no está en la compañía). Como siempre en estos casos, el fallo parece debido a error humano; concretamente de ejecutivos cortos de miras.

Entre los posibles compradores de BD estarían Toyota y Amazon, aunque me extraña que el NORAD no esté en la lista.

Noticia en Bloomberg.

El nuevo VTOL Phase 2 de DARPA

DARPA -la agencia estadounidense de investigación y desarrollo para Defensa, que tantas cosas curiosas fabrica o encarga- ha anunciado el prototipo operativo de su nuevo avión de despegue vertical (VTOL). El VTOL X-Plane Phase 2 se ha contratado con Aurora Flight Sciences. De momento lo que hay es una animación 3D con una música muy movidita, pero sirve para ver lo fundamental del aparato.

VTOL Phase 2 (más…)