Google
Support independent publishing: buy this book on Lulu.

Sunday, October 22, 2017

ALPHA GO








ALPHAGO

The analysis of  several  hobbies, including the ancient Chinese strategy game Go, has allowed researchers of  Artificial Intelligence (IA) program from Google's Deep Mind to create Alpha Go, a strategic game, able to create their own rules, based on little related information and without any human intervention. Early versions of Alpha Go (Zero) employed trial and error and 2 neural networks (imitations of human neural networks): to predict the best movements and results, through quick and random games. The currently Alpha Go Zero, employs a single neural network, which is asked who won in a certain position (as you ask an expert). Resting in a single neural network has made this algorithm more efficient and powerful, although more computational power is required. One of the objectives of Deep Learning  in relation to Alpha Go is to analyze deeply the systems used by the human brain to solve problems. Now, Alpha Go, that  trains itself, employs strategies not created by humans in thousands of years, reaching superhuman levels in game strategy. Without the influence of emotions and other pressures, these machines are expected to outperform the human brain in logical-rational aspects. Therefore, its creators intend to use it to solve problems of robotics, construction of materials and assembly of protein folds. The first version: from Alpha Go, started from scratch rules, imitate the structure of the brain and played against  the best human players  to learn abstract concepts. Established the first rules, the ancestral versions of Go, increased each time, its information, improving after each game. During the first phase imitated what the best human players did (avid capture of the opponent's chips). Then, they used complex tactics used by human experts, accumulated over thousands of years, to eventually create new strategies and knowledge.

ALPHAGO


El análisis de varios pasatiempos, dentro de ellos el ancestral juego de estrategia chino Go, ha permitido  a  un programa de investigadores de  Inteligencia Artificial (IA), de   Deep Mind de Google, crear Alpha Go, un juego estratégico     capaz de crear sus propias reglas,  partiendo de poca información relacionada y sin mediar   intervención humana alguna. Las  primeras versiones de Alpha Go (Zero), empleaban el ensayo y el error y 2 redes neurales  (imitaciones de las redes neurales humanas): para predecir los mejores movimientos y otra para     evaluar los  resultados,mediante juegos  rápidos  y  al azar.    El Alpha Go Zero, actual emplea   una sola red neural, a la que se le  pregunta quien  ganara en determinada posición (como se le pregunta a un experto). Reposar en una sola red neural ha convertido a este algoritmo en más eficiente y poderoso, aunque se requiere mayor poder computacional. Uno de los objetivos de Deep    Learning en relación a Alpha Go, es analizar de profundis los sistemas que emplea el cerebro     humano para resolver problemas. Ahora, Alpha Go  se entrena a sí mismo,  emplea  estrategias  no creadas por humanos en miles de años, alcanzando niveles superhumanos en     la estrategia del juego. Se prevé que, sin la influencia de las emociones y otras presiones, estas máquinas superaran al cerebro humano en aspectos lógico-racionales. Por ello,  sus  creadores  pretenden emplearlo para resolver problemas de robótica,creación de materiales y     ensamblaje de pliegues de  proteínas. La    primera versión: de Alpha Go, empezó de cero      aprendiendo a jugar  contra sí mismo.   Tras vencer a los mejores jugadores del mundo y practicar técnicas de reforzamiento,el algoritmo directriz,  sobrepaso las versiones iniciales   empleando  menor tiempo de entrenamiento y mayor poder    computacional. Alpha Go emplea    imitaciones de redes neurales humanas inspiradas en la estructura del cerebro, para aprender   conceptos abstractos. Establecidas    las primeras reglas, las versiones ancestrales de Go, incrementaron cada vez, su información,   mejorando después de cada juego. Durante la   primera fase   imitaban lo que hacían los mejores jugadores humanos (ávida captura de fichas del contrario). Luego emplearon tácticas  complejas usadas   por expertos humanos,   acumuladas durante  miles           de años, para al final crear nuevas estrategias y    conocimientos.

Labels: , , , ,