Hace poco, las noticias sobre una
investigación de “Facebook” en torno al aprendizaje automático ha generado
pánico en diversos lugares y muchos creen q la “Skynet” de “Terminator” acaba
de ser creada…
Los ingenieros de “Facebook” entran en
pánico y desconectan una AI (inteligencia artificial) debido a q los “bots”
desarrollaron su propio lenguaje. ¿Hemos creado a Frankenstein? Un tabloide
británico citó a un profesor en Robótica q decía q el incidente mostraba “los
peligros de aferrarse a la inteligencia artificial” y “podría ser letal” q una
tecnología como esta sea introducida en robots militares
No se hicieron esperar también los
vaticinios de la inminente llegada de la revolución del robot, droides
asesinos, inteligencias maliciosas artificiales y el exterminio de la humanidad. Para reforzar
este pánico, se citaba una conversación en la q dos “bots” de “Facebook”
muestran haber aprendido a hablar entre ellos de una forma ciertamente
espeluznante:
[Bob: Puedo yo yo todo lo demás]
[Alice: pelotas tienen cero para mí para mí
para mí para mí para mí para mí para mí para mí para]
[Bob: tú yo todo lo demás]
[Alice: pelotas tienen una pelota para
mí para mí para mí para mí para mí para mí para mí para mí]
Sin embargo, la realidad resulta menos
tenebrosa y más prosaica. Hace pocas semanas, se dio cuenta de los
intentos de “Facebook” x desarrollar una “red generativa adversaria” con el fin
de desarrollar un software de negociación
En un blog de la unidad de
Investigación en Inteligencia Artificial de Facebook, se explica q los dos
“bots” q conversan en el fragmento citado fueron diseñados con el fin de
demostrar q es “posible para agentes de diálogo con diferentes objetivos (e
implementados en su totalidad como redes neuronales entrenadas) participar en
negociaciones con otros “bots” o personas y llegar a decisiones o acuerdos
comunes…
Los “bots” no hicieron más q discutir
entre ellos cómo dividir una matriz de elementos dados (representada en la
interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de
una manera q el resultado fuese mutuamente aceptable
La intención era desarrollar un
chatbot q, gracias a la interacción humana, pudiese aprender cómo negociar
acuerdos con un usuario final de manera tan fluida q el usuario no se dé cuenta
de q está hablando con un robot. En ese sentido, el FAIR (equipo de investigación
en AI de Facebook) afirma q tuvo éxito
El desempeño del mejor agente de
negociación del FAIR, q hace uso de aprendizaje de refuerzo y despliegue de
diálogos, se asemeja al de los negociadores humanos… lo q demuestra q los “bots”
del FAIR no solo hablan inglés, sino q también piensan de manera inteligente q
es lo q van a decir
Cuando estos dos semiinteligentes
“bots” hablaban entre ellos, los programadores cayeron en la cuenta de q
cometieron un error: no haber incentivado a los chatbots a q se comunicasen
según las reglas de un inglés comprensible para los humanos. En su intento x
aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas q
creaban
Es cierto q “Facebook” apagó la IA, pero
no xq entrasen en pánico x haber liberado a un posible “Skynet” sacado del
universo de “Terminator”. Solo habían decidido q el interés era diseñar
dos “bots” q pudiesen hablar con la gente, no q lo hiciesen eficientemente
entre ellos, así q se decidió exigirles q se escribieran entre ellos de forma
legible
Ojalá que seamos lo suficientemente
listos como para no conectar programas experimentales de aprendizaje automático
en campos que resulten realmente peligrosos, como un ejército de androides con
armas láser o un reactor nuclear. Pero si alguien lo hace y se produce un
desastre, será fruto de la negligencia y estupidez humana, y no xq los robots
hayan tenido una revelación filosófica sobre cuán perversos somos los humanos