Facebook apagó una inteligencia artificial que creó su propio lenguaje. ¿Se viene el mundo controlado por las máquinas?

Bueno, la noticia anda rondando en muchos sitios y la verdad es que parece más tenebrosa de lo que es. -Es un hecho que así vende mucho más.- Spoiler alert: No, no nos controlarán las máquinas… todavía…hasta la singularidad.

Buscando las fuentes y las referencias reales que salían en el articulo originalmente publicado por Fastcodesign, por Mark Wilson, quien entrevistó al investigador Dhruv Batra (su impresionante bio aquí)

Todo parte con la premisa de que en el laboratorio de investigación de IA de facebook (FAIR) se programó a dos IA para hablar entre ellas con el fin de negociar y en la medida que avanzaba la conversación fueron creando un «nuevo lenguaje» para comunicarse más eficientemente, llegando el punto en que los investigadores no comprendían lo que decían por «los complejos patrones de conversación».

Captura de pantalla 2017-07-27 23.46.03.jpg
Aún cuando parezcan diálogos absurdos, esta conversación puede ser más eficiente o avanzada de lo que nosotros podemos comprender.

Siempre que se programa una «máquina» de IA, se suelen utilizar «incentivos» para lograr ciertos resultados o mantener ciertas otras. Por ejemplo como explicaba en la entrada pasada, ir indicando cuales jugadas del GO podrían ganar mayor «terreno» en el tablero, de cuáles no, así le damos un «dando una dirección» a elegir, pero además podemos restringirlo de que proteja otras áreas del tablero que también son críticas, y así tiene distintos incentivos que le harán tomar decisiones y ganarle al oponente. En el caso actual no se le «obligó», ni se incentivó el que «siguieran usando el inglés», por lo que no era barrera en la comunicación y la cambiaron.

Los Chilenos usamos la siguiente expresión de lenguaje eficiente: «Mira el weón, weón weón»
Cuando un amigo, le indica a otro que hay un tercero haciendo algo idiota.

O la siguiente diálogo:
Chileno 1: Mira esa weá aweoná, weón!
Chileno 2: ohhh la wea weona weón, ¿cómo tan weón el tipo que hace esa weá?
Chileno 1: Debe ser muy weón el aweonao.

En español :
C1: Mira ese «algo» exagerado y posiblemente tonto, amigo!
C2: ohhh qué «algo» más tonto, estimado. ¿cómo tan idiota el tipo que realiza esa acción?
C1: Debe ser muy idiota el estúpido ese.

Hemos creado una palabra con muchos significados según sus contextos… y a mi parecer es una forma eficiente del lenguaje, al menos para estos dos agentes que logran comunicarse y usando el mismo recurso «wea, weón» y sus variantes.

Volviendo al tema central,  los investigadores hicieron una “generative adversarial network” o una «red generativa de adversarios» (un tipo de inteligencia artificial sin supervisar) donde se contraponen dos redes neuronales (dos AI) y compiten por puntos fijos –con esto quiero decir que hay un puntaje total, digamos que 100 y ambos parten con 50. El objetivo sería ganar puntos al otro- y se declara ganador al que obtuvo más puntos que el otro. En este caso una negociación. (donde de alguna forma misteriosa, se ponderan las palabras y diálogos para que se comuniquen las máquinas misterios 1, misterios 2, misterios 3)

Bueno, como los chilenos en mi ejemplo, a las máquinas también les tenía que pasar… empezaron a inventar un lenguaje propio, ya que el lenguaje formal no siempre es lo más eficiente, verdad?  Finalmente, se decidió «desconectar» (básicamente escribir «break» o presionar cmd+d en un la consola donde se debió estar ejecutando este proceso y se terminó para ajustarlo de nuevo, cambiar los parámetros y volver a probar poder mejorar los bots o las formas de comunicación humano-máquina, qué es el objetivo final de esta investigación. Pero surgen preguntas a raíz de estos escenarios imprevisibles…

¿Debemos permitirle a las máquinas crear su propio lenguaje -más eficiente- para comunicarse?

Deberíamos preocuparnos por esto? o son solo paranoías? Pues más me parece lo último, -sorry guys!- Estas simulaciones están «completamente» bajo control, (excepto el proceso interno en sí mismo, que es como una caja negra matemática) y el resultado no era controlable ni entendible, tampoco es como que pudiéramos preguntarle a la máquina, -hey! explícame como le dijiste «i i am i i i i everything else» ? ya que, lamentablemente en este caso es un proceso «sin supervisión» y la máquina busca el camino más corto o fácil de poder «obtener puntos» de la otra máquina, entonces puede hacer cosas sin sentido, que quizás para la máquina si lo tenga o crea una estrategia para ganarle. Pero como todo esto es un proceso espontáneo «de varias repeticiones y de aprendizaje automático», no lo podemos extraer porque no le enseñamos a la máquina a enseñarnos cómo aprendieron. (Sería como preguntarle a una calculadora el cómo obtuvo su resultado).

En el artículo también señala: «Nos ofrece la posibilidad de un mundo más interoperable, un lugar más perfecto donde los iphones hablan con los refrigeradores que a su vez hablan con tu auto sin pensarlo dos veces»

-Eso sí me dió algo de miedo, jaja- toda la tecnología conectada, hablando entre ellos en un lenguaje que sólo ellos comprenden- que es más eficiente que cualquier lengua, pero para que así sea debe y quizá será un proceso que no podremos comprender.

En paralelo esto me hizo reflexionar sobre los animales, insectos o incluso las plantas y sus formas de comunicarse, serán complejas o tendrán niveles que -claramente- no podemos comprender? podremos algún día decodificar sus significados? Será posible usar la IA para esto? Me parece interesante y lo creo posible, complejo,  pero posible.

Otra de las cosas interesantes que surgen acá es el cuestionarse el proceso de cómo piensa una inteligencia artificial, estas realmente «piensan» diferente a nosotros, por ejemplo cuando una persona piensa «A+B = C», sabe que A tiene un rango ilimitado de cosas que podría ser, pero existe en nosotros una «conciencia» de los limitados ilimitados  ejemplos que nos dieron cuando nos enseñaron y de las cosas que conocemos que podríamos sumar. Pero una máquina no, esta no tiene esos límites, para ella A podría ser y relacionarse de distintas formas, podría tener 1, 3 o 100 dimensiones por lo que su comprensión es inmensamente más grande que la nuestra.

El hombre busca simplificar las cosas, descomponerlas en partes y una a una analizarlas para su comprensión, pero una computadora no, ella no tiene la necesidad de hacerlo, tiene la capacidad de cómputo para analizar e intentar comprenderla toda en todos sus niveles.
La máquina tiene tiempo, memoria, capacidad de procesar -y no va a morir-, por lo que le da lo mismo «juzgar» lo que analice, sólo lo hace y va hasta el fondo del asunto, total, ese es su propósito.

butter robot
-What is my purpose? -You pass butter. -Oh my god.

¿Cuál es tu propósito?

Deja un comentario