martes, 20 de noviembre de 2012

Red Neuronal - Presentación final

Bueno para esta entrega final tenemos que comentar que parte fue en la que trabajos cada uno del equipo....

Todos nos juntamos, todos dábamos ideas, cuando uno se atoraba preguntaba en general y si uno de nosotros lo sabia pues le ayudaba, no hay discusión por esa parte, todos apoyaron.

En lo que yo me encargue fue en hacer la Red por clases y una que otra función, anteriormente lo teníamos TODO con funciones lo cual nos era imposible crear capas ocultas, modifique eso y ahora tenemos una red de 3 capaz con 2 entradas y 2 salidas.



Una las funciones de código que se tienen que resaltar es la backpropagation:



El cual nos basamos en la siguiente imagen para obtenerla:



Otra de las Funcione interesante es la de obtener los valores deseados:
Esta es una "mexicanada" porque no es la mejor u óptima pero es una solución sencilla.


Primero se toma como referencia en la coordenada en el que esta y la coordenada final, ambos los guarda en variables y se hace su deferencia, si el valor 1 es mayor a 320 (que es el punto medio de la pantalla en el eje x) significa que hizo un movimiento a la derecha y por los tanto el valor que debe guardar es el "40". Nota la coordenada 0-0 se localiza en la parte superior derecha. En caso de que sea menos al punto medio este hizo un movimiento a la izquierda y por lo tanto su objetivo es el "440". Y eso también aplica para el valor 2(valor en y).



Todo el trabajo lo pueden encontrar en nuestro repositorio.

https://github.com/JonathanAlvarado/kinect_control_interfaz/