lunes, 27 de junio de 2016

Caso detallado: Predicción de índices bursátiles con redes neuronales

 Desde hace tiempo la predicción de series temporales en el ámbito financiero ha sido extensamente estudiado debido a la dificultad del problema. Generalmente los datos no son lineales, por lo que hay que usar metodos complejos para realizar los estudios, así como que la distribuciones de ruidos son no gausianas, los datos suelen ser no estacionarios y existe el fenomeno de la relacion señal/ruido, donde en comparación con el ruido el ratio de señal es muy bajo (existe mucho ruido). El concepto de distribucion de ruido no gausiano quiere decir que el ruido no evoluciona de la misma manera en el tiempo por lo que no se puede eliminar facilmente. Por esta tarea predecir el valor exacto de un índice bursátil es practicamente imposible, se considera un reto y es motivo de competición. Éste es el motivo por el cual nadie se hace rico usando estas técnicas e invirtiendo en bolsa. Los sistemas que existen para realizar este tipo de predicción no son fiables y la gente no se atreve a invertir dinero. En este caso práctico vamos a considerar realizar la predicción de si el índice en cuestion va a subir o bajar al cierre de la sesión. Es decir, se va a intentar predecir tendencias de la bolsa.

        Para predecir algo que consideramos mas o menos relevante en este ámbito debemos acotar más el problema, y extraer datos importantes de sistemas dinámicos, es decir modelar una relación que existe entre los valores de un intervalo de tiempo pasado y los valores de un intervalo futuro, bien sea t+1, t+2, …, t+n. Aun así al tratarse de ámbitos no estacionarios no se puede asegurar que el modelo de predicción obtenido funcione en un futuro ya que los datos se encuentran en constante cambio.


Modelo de predicción económico.

        Antes de explicar el funcionamiento del experimento con redes de neuronas vamos a comentar una de las técnicas que se han usado hasta el momento para realizar predicciones y estimaciones de estos índices y que no pertenece al ambito de la inteligencia artificial. El modelo más importante que se ha usado para predecir series temporales es un modelo econométrico llamado ARIMA. Está basado en el uso de regresiones lineales de prediccion de series temporales. Aunque más que para predecir series se usa para obtener cómo se comporta un conjunto de datos en el tiempo pudiendo obtener patrones que sirvan para generar modelos de predicción. Estos modelos tienen estrecha relación con la estacionariedad y el ruido mencionados anteriormente. 

        Para poder conseguir una buena predicción es necesario encontrar un modelo ARIMA perfecto que cumpla los requisitos de estacionariedad y ruido blanco en la autovarianza y autocovarianza. A continuación se muestran varios experimentos con modelos ARIMA para la predicción de bolsa con datos de 1995-1996:

# Modelo                     Interpretación de la Predicción

1 T(t+1) = T(t) + E                     N/A

2 T(t+1) = aT(t) + b                     62.58%

3 T(t+4) = (lq)T(t+3) + qT(t+2) + q^2 T(t) + c     58.84%

4 T(t+s) = aT(t) + b                     79.6%

5 T(t+2s) = aT(t+s) + bT(t) + c             75.92%

Modelo de predicción con redes de neuronas


        Entre las tecnicas más usadas en el ambito de la IA para realizar predicciones están la mineria de datos junto a arquitectura hibridas de redes de neuronas y algoritmos geneticos, teoria del caos y lógica difusa. En este caso el sistema inteligente que se va a estudiar consiste en un sistema híbrido donde la base de la predicción se realiza con redes de neuronas y se va a aplicar algoritmos genéticos para ver cuales son los atributos de entrada mas relevantes para la red de neuronas. La justificación de este sistema radica en la gran importancia de elegir unos datos significativos de entrada al problema, ya que depende el resultado en gran medida del valor anterior del índice, su relación con otros índices bursátiles y otros atributos del ámbito.

        Por tanto el caso tiene como objetivo predecir el valor que va a tomar el índice bursátil SP500 al cierre de una jornada. Este índice junto con el NYSE y el NASDAQ se considera unos de los mas importantes de estados unidos, por ello se sigue muy fielmente para conocer cual es el estado actual de los mercados. Los tres índices están muy relacionados entre sí y dependen unos de otros por lo que consideramos que el genético va a funcionar bien si encuentra información de estos índices como parte de la solución.

Selección de variables con AG


La predicción que se va a realizar de este índice tan solo va a decir si al final de una jornada el valor del SP500 está por encima o por debajo del valor que tenia al abrir la jornada. Para ello se realiza un estudio basado en Algoritmos Genéticos que estima cuales son los atributos más relevantes que existen para predecir este indice. Los resultados obtenidos han sido:
  •     SP500 High, Low
  •     NYSE Advancing/Declining issues
  •     NASDAQ Advancing/Declining issues
  •     NYSE New Highs/New Lows
  •     NASDAQ New Highs/New Lows
  •     NYSE Total Volume
  •     NYSE Advancing/Declining issues volume
  •     NASDAQ Total Volume
  •     NASDAQ Advancing/Declining issues volume
  •     Three-Month Treasure Bill Yield
  •     30-Year Treasure Bond Yield
  •     Gold
  •     SP500 Closing Price
Forman un total de 14 atributos que van a utilizarse como entrada a la red de neuronas. Los datos recopilados de estos atributos abarcan un periodo de 20 semanas por lo que son datos fiables y en buena cantidad lo que nos va a indicar que muy probablemente los resultados obtenidos sean bastante buenos.

Resultados de predicción con redes de neuronas


        Una vez que tenemos los datos de entrada elegimos el algoritmo de aprendizaje que va a usar la red de neuronas. Como el problema consiste en la predicción de series temporales es idóneo utilizar el algoritmo backpropagation, ya que es el más utilizado en estos casos.

        El modelo realizado consiste en una simulación en un entorno ideal con los datos monitorizados. Esto quiere decir que se han estudiado intervalos donde existe cierta estacionalidad de los datos y sobre ellos se ha realizado el modelo. Para ello se divide el conjunto total en porcentajes de entrenamiento y validación. En los resultados la tasa de acierto asciende a un 95% mas o menos, lo que es un resultado inicial bastante prometedor.

        ¿Pero qué ocurriría si con esta simulación se hiciese con datos reales? Es decir, si este modelo de predicción lo testeasemos con datos nuevos que no han sido utilizados para entrenar.

        Los resultados obtenidos son logicamente peores que en el modelo anterior ya que la tasa de aciertos baja a un 80%.

        Sobre este modelo podemos concluir que es relativamente aceptable ya que se obtienen buenos resultados, pero que no son significativos para elaborar un modelo que sirva para la realidad, ya que se han realizado en ámbitos controlados y con valores de datos obtenidos de periodos estacionarios.

Interpretación de la salida

        Como sabemos las redes de neuronas no son muy hábiles en otorgar una explicación clara a los resultados obtenidos, ya que se consideran una caja negra, pero existen técnicas en este ámbito que pueden elaborar reglas básicas y muy genéricas para extraer información de las redes de neuronas.

        Podemos resumir esta técnica en esta serie de pasos:
1. Clusterizar la activación de las neuronas.
2. Asignar estados a los clusters.
3. Insertar transiciones entre los clusters y los atributos de entrada relevantes.

        Podemos entender estos pasos, como una clusterización de las entradas en base a la salida que genera la red de neuronas. Para cada cluster se estudian los atributos más relevantes que influyen en la salida generada y finalmente se crean reglas que relacionan los atributos más relevante con los cluster creados. Básicamente lo que se realiza es mineria de datos para determinar si existe relacion entre los atributos más relevantes y la salida generada.

        Se pueden obtener reglas del tipo:
  • “IF el precio de A es mayor al precio de B AND el numero de instancias de A es mayor que el numero de instancias de B THEN el volumen de stock de A es mayor que el volumen de sctock de B”.
  • “IF el último cambio en las series fue negativo THEN el siguiente cambio será positivo”.
  • “IF el último cambio en las series fue positivo THEN el siguiente cambio será negativo”.

Conclusiones

        Como conclusiones de este caso práctico podemos destacar que se pueden realizar modelos que realmente funcionan en entornos controlados y pueden servir como base para estimar predicciones reales de índices bursátiles. Aun así y como se ha comentado anteriormente este ámbito es muy complejo y no es viable implementar un sistema que se pueda comercializar debido a la naturaleza del problema.

        En cambio sería interesante realizar estudios sobre temas que pueden ser más viables como la predicción de si una inversión puede ser beneficiosa o no, predicción de bienes de mercado o cualquier otro elemento donde se la complejidad sea menor y se traten de entornos más estáticos y estacionarios.
, , ,

Caso Detallado: Aumentar el rendimiento de los anuncios on-line usando el algoritmo Apriori

 Los anuncios on-line atraviesan un momento muy interesante si los comparamos con los medios tradicionales como la prensa y TV.

        Los anuncios web son bastante baratos en esa comparación y ofrecen buenos resultados. En este caso trataremos de optimizar el rendimiento de anuncios on-line dinámicos destinados a la venta de un producto utilizando Data Mining y el algoritmo de Apriori. Como ejemplo de estos banners destacaríamos Google ads.

        El Data Mining puede ser utilizado en el mundo de los anuncios web en distintos niveles. Desde la perspectiva del minero, ese mundo es un dominio muy interesante ya que ofrece una gran cantidad de datos, producidos de forma acelerada con una gran cantidad de detalles.

        Cabedestacar que este aumento del rendimiento de los anuncios on-line se ha realizado sobre datos en vivo. Veremos como de efectiva es esta optimización.

        Una vez que se conoce el objetivo del negocio vamos a ver qué datos nos serán útiles. Estos datos serán guardados en ficheros de texto, en logs, los cuales pueden ser fácilmente preprocesados para ser analizados en distintos modelos.

        Para este problema distinguimos:

        -Banners dinámicos: cambian a lo largo del tiempo en función de las franjas horarias, el día de la semana, época del año, etc.

        -Contextualidad: es otra gran capacidad de los anuncios on-line. También cambian en función del contexto que le rodea. Por ejemplo en foro sobre Android ofrecer distintos dispositivos.

        -El camino del usuario (user tracking): Monitorizar la actividad del usuario, como puede ser con cookies.

        -Tratamiento uno a uno: En realidad una campaña publicitaria puede estar destinada a un específico usuario basándose en sus intereses y necesidades. Por ejemplo si encontramos que un usuario está buscando comprar un coche podemos poner anuncios relativos desde ese preciso instante. Aunque también debemos considerar que una vez ha comprado el coche, sus intereses cambian rápidamente.

        -Volumen de datos y su disponibilidad: se obtienen a, o casi, tiempo real.

        -Modelo de comprobación dinámico: va cambiando a lo largo del día, a medida que se va adoptando a con los datos obtenidos a tiempo real.

El experimento


        Este experimento se ha modelado con el concepto del carrito de la compra para los banners de una página web real. De esta manera, el carrito se irá llenando de los diferentes anuncios en los que un usuario haga click. Por tanto, asumiremos que cuando un usuario consulta varios anuncios diferentes siguiendo cierto orden, decimos que existe una especie de correlación.

        Los servidores de anuncios son una aplicación software compleja que gestiona todos los anuncios que se necesiten en una serie de websites. Estos servidores realizan campañas de publicidad teniendo en cuenta factores como la franja horaria, el número de veces que ha sido invocado el mismo anuncio o el número de veces que se ha clicado en cierto tiempo. En realidad esta selección se puede mejorar usando el algoritmo A priori.

        Cada vez que un usuario hace click en un banner, se almacena qué banner es, y cuándo se ha accedido a él gracias a las cookies del navegador, generando un log de la actividad completa sobre los anuncios a los que ha accedido.

Extracción de reglas


        Entonces dada una serie de anuncios anidados A1,…,An ; si el usuario después accede otro banner B podemos obtener reglas del tipo A1&A2&…An->B.

        Una vez que pasa el ciclo que estimemos, se recopilan los logs y se obtienen esas reglas, que tienen en concreto la siguiente forma:

            55577 <- 75860 (0.1/96, 22.9)
            52976 <- 54808 54807 (0.0/51, 37.3)

        Donde considerando la primera regla, 55577 y 75860 con los ids de los anuncios, 0.1 establece el refuerzo de las reglas en porcentaje al total de todos los datos de entrenamiento, 96 es el número actual de carritos usado para generar la regla y 22.9 es el porcentaje de confianza de la regla.

        Una vez generadas las reglas son procesadas adecuadamente para servir de entrada a los servidores de anuncios.

Aplicando las reglas


        Entonces una vez que el servidor obtiene las reglas, las procesa de la siguiente manera:

        POR cada banner B
                    SI hay una regla del estilo : A1,..,An -> B entonces
                                SI el usuario tiene el mismo tracking y no ha clicado aun en B
                                            Elegir B con probabilidad: conf(B)*decay(B)
                                End;
                    End;
                End;

        La probabilidad es calculada directamente proporcional a la confianza de la regla, teniendo en cuenta que si un banner ha sido mostrado varias veces sin ser clicado, se reducirá esta probabilidad (decay).

Midiendo el rendimiento


        En este caso mediremos la mejora de los CTR de un banner específico, es decir, el ratio vistas/exposiciones de un anuncio.

        Supongamos el descubrimiento de una regla A->B, entonces separamos la base de clientes en dos conjuntos: Ca (los que ya han pinchado en A) y Ca’(el resto de usuarios).
        Se realiza el experimento enviando el banner B a ambos conjuntos en el mismo momento a lo largo de un periodo determinado.

Experimentos: datos y resultados


        Recopilaron más de 30 millones de lineas de logs cada día, llegando a almacenar información incluso del id del ususario, posición en la página, etc.Y Usaron 60 millones de lineas recopiladas a lo largo de un mes de la forma presentada anteriormente. El periodo escogido fue el de un dia, procesando la información adquirida ya entrada la noche.
        Utilizando la notación CTR(A) como el ratio de clicks/invocaciones y CTR(A|B) como los CTR del banner A para todos los usuarios que ya han clicado en B.
 

Tabla mensual de resultados
DayImpr(31)Impr(189|31)Clicks(189|31)CTR(189|31)Lift
1610785200.0%0.00
2457023100.0%0.00
3359995100.0%0.00
481270000.0%0.00
589166100.0%0.00
6101865000.0%0.00
7519119400.0%0.00
85426096598212.4%3.58
9369882114212911.3%3.25
10419101901112.2%3.52
1131345083310212.2%3.53
12137743111312811.5%3.31
131302381027888.6%2.47
1422595811541079.3%2.67
15256673107711210.4%2.99
163312031022848.2%2.37
173589061013929.1%2.62
182737230904738.1%2.33
19152246850718.4%2.41
201714699129710.6%3.06
2134350114501208.3%2.38
2222461413671259.1%2.66
2324654112661128.8%2.55
241636151124958.5%2.43
25117600922828.9%2.56
2647568718719.9%2.85
2751261825657.9%2.27
2811727292410010.8%3.12
29119402817607.3%2.12
30106071736679.1%2.62
3172803213.1%0.90


        La primer columna hace referencia al día del mes, la segunda columna indica el numero de invocaciones del banner numero 31 cada día. La tercera y cuarta columna contienen el numero de invocaciones del banner numero 189 una vez que han visto el numero 31 y el número de usuarios que han clicado en ese anuncio una vez han visto el anuncio número 31 respectivamente. La quinta columna presenta el porcentaje de clicks en relacion al número de veces que ha sido expuesto el banner. La última columna representa el aumento del rendimiento, es decir, es la división entre el número de CTR de la columna 5 entre el CTR de los usuarios que han visto el anuncio 189 para el resto de casos.

        Importante es señalar que el sistema no logró adaptarse correctamente en la primera semana, de ahí los resultados.

Resultados para otro website en una quincena, detalles para cinco banners optimizados.

Banner idOptimizad CTRNon-optimized CTRLift
529760.151%0.073%2.06
754361.195%0.869%1.38
649318.025%1.634%4.91
525862.759%1.618%1.71
759264.498%0.938%4.80


        La primera columana es el numero del banner, la segunda y tercera columnas representan los CTR para los distintos modelos y por último la mejora obtenida.


Conclusiones


        1. Hemos logrado un incremento del rendimiento considerable con un modelo de lo más sencillo, podemos imaginar que si tenemos en cuenta más factores, se puede convertir en una herramienta muy interesante.

        2. Esta aproximación puede tener varias aplicaciones en distintos campos, y en concreto en este puede servir de base o complemento de numerosos sistemas.

        3. Como motivación al lector, destacamos el uso de esta técnica en el sector de los anuncios en dispositivos móviles.
, ,

Aplicaciones reales de la IA en negocios y finanzas

A continuación vamos a exponer las diferentes técnicas de IA que se usan actualmente, mostrando ejemplos de aplicaciones reales y, haciendo notables sus beneficios. Pensamos en orientar esta guía a un usuario más bien experimentado en el campo de la inteligencia artificial. De todas formas, puede consultar los wiki-enlaces del menú lateral para conocer más sobre las diferentes técnicas.

Data Mining



        Allá por los 90, un científico de Bell Labs (Dr. Arno Penzias) declaró, en una entrevista, que la técnica de Data Mining se sería una aplicación clave para las corporaciones de un futuro no muy lejano. A la pregunta “¿Cuáles serán las aplicaciones más punteras en las organizaciones?” , él sencillamente respondió Data Mining. Después añadió “Data Mining se convertirá en algo mucho más impoirtante y todas las compañías no desperdiciarán nada sobre sus clientes porque será muy valioso. Si no estás haciendo esto, estás fuera (out of business)”

Hoy en día podemos ver ejemplos como Amazon, Capital One y muchos otros que han usado técnicas de análisis para entender mejor a sus clientes y optimizar su extensa cadena de suministro para maximizar los beneficios de las investigaciones mientras ofrecían el mejor servicio al cliente.

Entonces, el gran componente que se presenta aquí es el análisis de una gran cantidad de datos que las compañías recopilan (más aún con la reducción a lo largo del tiempo del coste de almacenaje). De esta manera, se entiende como Data Mining al proceso por el cual se descubrían relaciones o patrones en esos datos hasta entonces desconocidas.

Varias de las razones por las que esta técnica es tan importante son:

1. El aumento exponencial de las tecnologías capaces de procesar y almacenar de datos.

2. Mayor competencia a escala mundial dirigida por las necesidades y deseos dinámicos de los clientes en un mercado saturado.

3. Movimiento hacia la conversión de partes de un negocio a elementos no físicos.

        En cuanto a sus aplicaciones en el lado comercial, quizás los campos más comunes de aplicación son finanzas, tiendas de venta directa y sectores de salud (health care). También es usado por ejemplo para detectar y reducir actividades fraudulentas, especialmente en seguros y el uso de tarjetas de crédito; para recuperar clientes provechosos; y para analizar carros de compra.


Caso práctico

        La compañía de envío de flores 1-800-Flowers, muy conocida en el sector, necesitaba seguir siendo competitiva una vez fuera a realizar su adaptación en el comercio electrónico. Creyendo fielmente en el valor de la relación cercana con el cliente, la compañía quería comprender mejor las necesidades y deseos del cliente analizando cada dato de los cuales disponían. Entonces decidieron usar herramientas de data mining (SAS) para cavar profundamente en los datos con vistas a descubrir nuevos patrones sobre los clientes y convertirlos en conocimiento de cara a las transaciones comerciales. Consiguieron entonces mantenerse en la crema del sector realizando campañas de marketing más eficientes, reduciendo la publicidad por correo y recibiendo más respuestas y , por consiguiente, obteniendo más ventas.


Redes de Neuronas



        Debido a su capacidad de modelar problemas complejos del mundo real, investigadores y profesionales han encontrado muchas maneras de usar RDN. Muchos de esos usos nos han conducido a la resolución de problemas que se creían sin solución.

        Si analizamos los niveles de uso de las RDN encontramos:

        Clasificación: esta idea ha sido usada para aplicaciones del mundo real como reconocimiento de patrones.
        Regresión: para predecir variables con valores numéricos como en la bolsa.
        Clustering: usado para identificar agrupamientos en el comercio.

        Aplicaciones varias son en el mundo de los deportes, en la prevención de fraudes, aceptación de préstamos, medicina y muchísimas más aplicaciones que requieren inputs categóricos? (categorical) y numéricos.


Caso práctico

        Redes de neuronas para el diagnosis de cáncer de mama

        Se usó una estructura KBANN Knowledge-based artificial network para prevenir la enfermedad. Este sistema dispone de dos algoritmos:

        1. Reglas a Red: la principal tarea es la traducción de los conocimientos de la base de conocimientos a la estructura inicial de las redes de neuronas.
        2. Red: usa el algoritmo de backpropagation.

        La base de conocimientos contiene conocimiento sobre el dominio en forma de reglas que ayudan a la red a aprender en pequeña medida.

        Una vez tomadas distintas variables metabólicas de varios tipos, son introducidas a lo largo de varios periodos para estudiar su evolución y tener una segunda opinión de lo que puede ocurrir junto con las resonancias magnéticas.

Text Mining y Web Mining



        Text Mining es similar a Data Mining en cuanto al propósito final que tienen. Pero Text Mining actúa sobre datos como .doc .pdf xml y por el estilo. Por tanto, pretendemos que esta técnica sea capaz de usar Data Mining y obtener información relevante en textos así como obtener conocimiento de la estructura semántica de los mismos.

        Por tanto, TM tiene cabida en las áreas que manipulan una gran cantidad de datos en texto como en Derecho, Investigación académica, finanzas, medicina, biología, tecnología.

        Otros campos son:

        -Marketing: extraer información de los call-centers, de las reviews de los usuarios, blogs, discusiones en posts, etc. Importantes para conocer gustos y experiencias de los clientes. Por ejemplo esta técnica es usada a la hora de sacar conclusiones de los formularios web que rellenan los clientes.

        -Seguridad(CASO): la EUROPOL dispone de un sistema capaz de acceder, almacenar y analizar grandes cantidades de datos estructurados o no estructurados con vistas a hacer frente al crimen organizado, se llama OASIS (Overall Analysis     System for Intelligence Support) que integra las más avanzadas técnicas de ™ y WM actuales. La CIA y el FBI no se podían quedar atrás en esto y también disponen de sistemas capaces de analizar datos de cualquier fuente de manera automática.

                    -Por último, se comenta la existencia de un sistema llamado ECHELON, denominado como sistema de estrecha vigilancia. Según dicen los rumores, es capaz de identificar el contenido de llamadas telefónicas, faxes, e-mails y otros tipos de datos, interceptando la información vía satélite, microondas y cabinas telefónicas.

Sistemas Expertos



        Ya conocemos a fondo esta técnica puesto que realizamos un primer trabajo sobre ellos. Simplemente destacar un caso práctico para ver la capacidad de disponer de un experto sin disponer realmente de el como persona física. En este caso es interesante ver el potencial de hacer accesible el conocimiento de un experto a diferentes usuarios.

Caso práctico

    Sistema experto web para la selección de vinos

        MenuVino, Inc. un comercio electrónico de vinos, se ve en un problema a la hora de vender un vino determinado a un cliente determinado. Muchos usuarios eligen el vino en base al precio o en base a parámetros de alto nivel como la comida que lo acompaña (pescado o carne). Entonces, siguiendo ese esquema no hay pistas sobre si un vino te va a gustar o no.
Sea como fuere, es dificil prever si un vino te va a gustar sin haberlo probado antes.
De todas formas, MenuVino Inc. realizó un sistema experto que recopilaba el conocimiento de numerosos expertos en el campo para contruir un sistema interactivo que pudiera ser utilizado por los usuarios en su web y así tener mayor idea de cómo puede ser ese vino.

        El sistema lleva a cabo dos partes:
        1. Selección de un perfil de sabor, llevado a cabo como si el usuario mantuviera una conversación con un experto.
        2. Emparejamiento de vinos con comidas detallado.

El resultado, obviamente, clientes más satisfechos con las compras y más formados en el mundo de los vinos pues el SE en ocasiones actúa como herramienta académica.

Lógica Difusa (fuzzy logic)



        La lógica difusa tiene gran cantidad de aplicaciones en el sector finaciero y de negocios. Básicamente porque es muy flexible y es muy tolerante a la imprecisión de los datos. Además es capaz de modelar funciones no lineales y facilita mucho la creación de sistemas basados en la experiencia de expertos. Además esta lógica está basada en el lenguaje natural por lo que es facil de comprender y asimilar. Unas de las aplicaciones que tiene son:

El control de transporte de pasajeros en trenes usando logica difusa permite reducir costes y mejorar la comodidad del transporte. Se reducen costes evitando ir a velocidades excesivas y por tanto mejorando el sistema de frenado.

Se pueden realizar interpretaciones de las salidas generadas por redes de neuronas con logica difusa. Un sistema experto difuso se puede aplicar a la tarea de interpretar multiples salidas de una red de neuronas.

Caso práctico

        Se creó en Japon un sistema híbrido basado en lógica difusa (con más de 5000 reglas) y con redes de neuronas (NeuroFuzzy Systems) para, mediante el algoritmo de aprendizaje backpropagation, predecir la tasa de cambio del Yen frente al Dolar. El sistema hace inferencias basadas en noticias económicas que puedan afectar al mercado. Los sistemas NeuroFuzzy tienen gran cabida en el ámbito financiero.

Algoritmos Genéticos



Los algoritmos genéticos no tienen demasiada utilidad en el ámbito financiero. En todo caso podríamos destacar que ayudan en gran manera a otras técnicas como las redes de neuronas a optimizar su arquitectura para obtener mejores resultados.
, , ,